Qualification et amélioration de la précision de systèmes de balayage laser mobiles par extraction d'arêtes - Thèse Informatique
Qualification et amélioration de la précision de systèmes de balayage laser mobiles par extraction d'arêtes - thèse Informatique
- Revenir à l'accueil
Thèses en informatique :
Generation-automatiq..> 03-Jan-2015 22:04 2.6M
Interrogation-de-gra..> 03-Jan-2015 22:04 2.9M
La-gestion-du-trafic..> 03-Jan-2015 22:01 4.1M
Les-logiciels-de-ges..> 03-Jan-2015 22:03 3.1M
Lh-rs-p2p-une-nouvel..> 03-Jan-2015 21:59 2.7M
Normalisation-et-App..> 03-Jan-2015 22:01 4.1M
Prise-en-compte-de-l..> 03-Jan-2015 22:04 2.8M
Reconnaissance-de-co..> 03-Jan-2015 22:03 3.6M
Services-de-repartit..> 03-Jan-2015 21:59 4.7M
The-Emergence-of-Mul..> 03-Jan-2015 22:05 2.5M
Trigraphes-de-Berge-..> 03-Jan-2015 22:02 3.9M
Vers-une-capitalisat..> 03-Jan-2015 22:00 4.6M
Congrès d'informatique :
Application-Agnostic..> 03-Jan-2015 21:16 2.1M
Continuity-Editing-f..> 03-Jan-2015 17:35 4.0M
Double-WP-Vers-une-p..> 03-Jan-2015 17:36 4.0M
Effective-Reproducib..> 03-Jan-2015 21:18 2.0M
Enforcing-reuse-and-..> 03-Jan-2015 21:17 2.0M
Extracting-Bounded-s..> 03-Jan-2015 21:19 4.0M
Fingerprint-Quality-..> 03-Jan-2015 21:16 2.1M
GPU-Load-Balance-Gui..> 03-Jan-2015 21:18 4.0M
Minkowski-sum-of-pol..> 03-Jan-2015 21:17 2.0M
Quality-Assessment-o..> 03-Jan-2015 21:16 2.1M
Rester-statique-pour..> 03-Jan-2015 17:35 4.0M
The-Power-of-Polynom..> 03-Jan-2015 21:16 2.1M
Cours d'informatique :
Analyse-numerique-Co..> 03-Jan-2015 17:33 3.0M
Approches-m-k-firm-p..> 03-Jan-2015 17:27 3.7M
COURS-LA-CULTURE-INF..> 03-Jan-2015 17:25 3.8M
CRYPTANALYSE-DE-RSA-..> 03-Jan-2015 17:33 3.0M
Cours-Interconnexion..> 03-Jan-2015 17:34 3.0M
Cours-d-Analyse-et-C..> 03-Jan-2015 17:22 3.9M
Efficient-C++finite-..> 03-Jan-2015 17:30 3.5M
Efficient-C++finite-..> 03-Jan-2015 17:31 3.2M
Fondements-de-l-Info..> 03-Jan-2015 17:22 4.0M
INTRODUCTION-A-L-INF..> 03-Jan-2015 17:24 3.8M
Informatique-et-Ling..> 03-Jan-2015 17:24 3.8M
Initiation-a-l-infor..> 03-Jan-2015 17:26 3.8M
Intelligence-Artific..> 03-Jan-2015 15:16 2.5M
Introduction-a-l-ana..> 03-Jan-2015 17:27 3.7M
Introduction-a-la-ge..> 03-Jan-2015 17:26 3.8M
Le-routage-externe-B..> 03-Jan-2015 17:32 3.1M
Le-systeme-d-informa..> 03-Jan-2015 17:32 3.1M
Lecture1_Linear_SVM_..> 03-Jan-2015 14:57 2.4M
Lecture2_Linear_SVM_..> 03-Jan-2015 14:56 2.4M
Lecture3_Linear_SVM_..> 03-Jan-2015 14:56 2.4M
Lecture4_Kenrels_Fun..> 03-Jan-2015 14:55 2.4M
Lecture5_Kernel_SVM...> 03-Jan-2015 14:55 2.4M
Lecture6_SVDD.pdf.htm 03-Jan-2015 14:54 2.4M
Lecture7_Cross_Valid..> 03-Jan-2015 14:54 2.4M
Lecture8_Multi_Class..> 03-Jan-2015 14:57 2.4M
Lecture9_Multi_Kerne..> 03-Jan-2015 14:53 2.5M
Lecture10_Outilier_L..> 03-Jan-2015 14:53 2.5M
Les-reseaux-sans-fil..> 03-Jan-2015 15:17 2.5M
NooJ-pour-l-Intellig..> 03-Jan-2015 17:30 3.2M
Outils-Logiques-pour..> 03-Jan-2015 15:15 2.8M
Presentation-de-la-r..> 03-Jan-2015 17:33 3.0M
Projet-IP-SIG-Signal..> 03-Jan-2015 15:16 2.5M
Robotique-Mobile-PDF..> 03-Jan-2015 15:16 2.6M
Systeme-informatique..> 03-Jan-2015 15:17 2.5M
Systemes-Multi-Agent..> 03-Jan-2015 17:28 3.5M
Tutoriel-Android-TP-..> 03-Jan-2015 14:57 2.3M
Understanding-SVM-th..> 03-Jan-2015 14:57 2.4M
Une-histoire-de-la-m..> 03-Jan-2015 17:28 3.5M
Une-introduction-aux..> 03-Jan-2015 17:31 3.1M
Vers-une-signalisati..> 03-Jan-2015 17:25 3.8M
Qualification et am´elioration de la pr´ecision de syst`emes
de balayage laser mobiles par extraction d’arˆetes
Martyna Poreba
To cite this version:
Martyna Poreba. Qualification et am´elioration de la pr´ecision de syst`emes de balayage laser
mobiles par extraction d’arˆetes. Other. Ecole Nationale Sup´erieure des Mines de Paris, 2014.
French. .
HAL Id: pastel-01068828
https://pastel.archives-ouvertes.fr/pastel-01068828
Submitted on 26 Sep 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.N°: 2009 ENAM XXXX
MINES ParisTech
CAOR, Centre de Robotique – Département Mathématiques et Systèmes
60, Boulevard Saint Michel, 75272 Paris cedex 06, France
École doctorale n° 432 : Sciences des Métiers de l’Ingénieur
présentée et soutenue publiquement par
Martyna POREBA
le 18 juin 2014
Qualification et amélioration de la précision de systèmes
de balayage laser mobiles par extraction d’arêtes
~~~
Edge-based accuracy assessment and improvement
of mobile laser scanning systems
Doctorat ParisTech
T H È S E
pour obtenir le grade de docteur délivré par
l’École nationale supérieure des mines de Paris
Spécialité « Informatique temps-réel, robotique et automatique »
Directeur de thèse : François GOULETTE
T
H
È
S
E
Jury
M. Pierre GRUSSENMEYER, Professeur, INSA de Strasbourg Rapporteur
M. Nicolas PAPARODITIS Directeur de recherche, IGN Rapporteur
M. Laurent TRASSOUDAINE, Professeur, Université Blaise Pascal de Clermont-Ferrand Président du jury
M. Jean-Emmanuel DESCHAUD, Docteur, MINES ParisTech Examinateur
M. François GOULETTE, Professeur, MINES ParisTech Directeur de thèse N°: 2009 ENAM XXXX1
0
Remerciements
0. Remerciements
Je tiens tout d’abord à remercier François Goulette, mon directeur de thèse, pour toute son
aide, sa disponibilité et le suivi qu’il m’a apportés le long de ma thèse, tout en me laissant une
grande autonomie.
Mes vifs remerciements vont aux membres de jury qui ont accepté de juger mes travaux. En
particulier, je remercie chaleureusement M. Pierre Grussenmeyer et M. Nicolas Paparoditis
d'avoir rapporté mon travail de thèse. Leurs remarques précieuses m’ont permis
d’approfondir des explications sur certaines parties et d’envisager mon travail sous un autre
angle. Je remercie également M. Laurent Trassoudaine de m'avoir fait l'honneur de présider
mon jury de thèse. Enfin, je remercie M. Jean-Emmanuel Deschaud d'avoir participé à mon
jury.
Aussi, je voudrais exprimer ma sincère gratitude envers toute l’équipe du CAOR pour la
bonne ambiance et l’accueil qui m’a été réservée. Notamment, je remercie Arnaud de la
Fortelle de m’avoir donné l’opportunité d’intégrer son laboratoire et de travailler sur cette
thèse.
Une pensée particulière va à mes collègues doctorants et post-doctorants, pour
l’encouragement et les formidables moments passés ensemble. Merci à vous tous d’avoir
partagé avec moi ces moments de travail et de détente. Une spéciale dédicace à Jorge,
Olivier, Martin, Fernando, Bruno, Zhuowei, Tao-Jin, Axel, Houssem, Victor, Anne-Sophie et
Fatin.
Cette thèse n'aurait pu aboutir sans le soutien financier de l’Ambassade de France en
Pologne, facilité par l’actuel adjoint à l’attaché pour la science et la technologie M. Nicolas
Frichot-Manoury. 3
0
Résumé
0. Résumé
Au cours de ces dernières décennies, le développement de Systèmes Mobiles de
Cartographie, soutenu par un progrès technologique important, est devenu plus proéminent.
Il a été stimulé par le besoin grandissant de collecte d’informations géographiques précises
sur l’environnement. Nous considérons, au sein de cette thèse, des solutions pour
l’acquisition des nuages de points mobiles de qualité topographique (précision
centimétrique). Il s’agit, dans cette tâche, de mettre au point des méthodes de qualification
des données, et d’en améliorer les erreurs systématiques par des techniques d’étalonnage et
de recalage adéquates.
Nous décrivons une nouvelle démarche d’évaluation de l’exactitude et/ou de la précision des
relevés laser mobiles. Celle-ci repose sur l’extraction et la comparaison des entités linéaires
de la scène urbaine. La distance moyenne calculée entre les segments appariés, étant la
distance modifiée de Hausdorff, sert à noter les nuages par rapport à des références
existantes. Pour l’extraction des arêtes, nous proposons une méthode de détection
d’intersections entre segments plans retrouvés via un algorithme de RANSAC enrichi d’une
analyse de composantes connexes. Nous envisageons également une démarche de correction
de relevés laser mobiles à travers un recalage rigide fondé, lui aussi, sur les éléments
linéaires. Enfin, nous étudions la pertinence des arêtes pour en déduire les paramètres de
l’étalonnage extrinsèque du système mobile. Nous testons nos méthodes sur des données
simulées et des données réelles acquises dans le cadre du projet TerraMobilita.
Mots clés : Nuage de points, Système Mobile de Cartographie, Exactitude, Précision,
Arête, Segmentation, Évaluation, RANSAC, Recalage, Étalonnage, Mise en correspondance 4
0
Abstract
1. Abstract
Over the past few decades, the development of Mobile Mapping Systems (MMS), supported
by significant technological progress, has become more prominent. It has been motivated by
the growing need for precise geographic information about the environment. In this thesis,
we consider approaches for the acquisition of mobile point clouds with topographic quality
(centimeter-level accuracy). The aim is to develop techniques for data quality assessment and
improvement. In particular, we eliminate the systematic errors inherent to an MMS data
using appropriate calibration and registration methods.
We describe a novel approach to assess the accuracy and/or the precision of mobile laser
point clouds. It is based on the extraction and comparison of line features detected within the
urban scene. The computed average distance between corresponding pairs of line segments,
taking advantage of a modified Hausdorff distance, is used to evaluate the MMS data with
respect to a reference data set. For edge extraction, we propose a method which relies on the
intersections between planes modelled via the RANSAC algorithm refined by an analysis of
connected components. We also consider an approach to correct point clouds using a linebased
rigid registration method. Finally, we study the use of edges for estimating the
boresight angles of a land-based mobile mapping system. We apply our methods to synthetic
data and to real data acquired as part of the TerraMobilita project.
Keywords: Point Cloud, Land-based mobile mapping system (MMS), Accuracy, Precision,
Edge, Segmentation, Assessment, RANSAC, Registration, Calibration, Matching 5
0
Table des matières
1. Introduction ........................................................................................................................... 7
1.1 Contexte général ......................................................................................................................... 7
1.1.1 Projet TerraMobilita ........................................................................................................................ 8
1.1.2 Motivations ......................................................................................................................................... 9
1.2 Apports de la thèse .................................................................................................................. 12
1.3 Plan du mémoire ...................................................................................................................... 13
2. Acquisition et qualification de relevés laser ................................................................. 15
2.1 Systèmes mobiles terrestres voués à la numérisation d’environnement ....................... 16
2.1.1 Principes fondamentaux d’un système mobile de cartographie ............................................. 18
2.1.2 Description du prototype L3D2 ................................................................................................... 21
2.1.3 Autres exemples de systèmes mobiles de cartographie ........................................................... 23
2.2 Sources de données expérimentales ..................................................................................... 24
2.3 Qualification de données ........................................................................................................ 28
2.3.1 Différents types d’erreurs en topographie.................................................................................. 28
2.3.2 Critères servant à décrire la qualité de nuages mobiles .......................................................... 31
2.3.3 État de l’art sur l’évaluation de l’exactitude de relevés laser mobiles .................................. 32
2.4 Expérimentation ...................................................................................................................... 35
3. Erreurs relatives au système MMS .................................................................................. 39
3.1 Analyse des erreurs liées à la cartographie mobile ........................................................... 40
3.1.1 Erreurs causées par le système de positionnement .................................................................. 40
3.1.2 Erreurs dues au capteur laser ....................................................................................................... 41
3.2 Amélioration des relevés laser mobiles ............................................................................... 43
3.2.1 Correction de la localisation en cours d’acquisition ................................................................. 43
3.2.2 Correction en post-traitement ...................................................................................................... 46
3.3 Étalonnage extrinsèque .......................................................................................................... 47
3.3.1 État de l’art sur l’étalonnage des excentricités linéaires ......................................................... 48
3.3.2 Étalonnage des systèmes embarqués de caméras ..................................................................... 49
3.3.3 Étalonnage des systèmes dotés de scanners .............................................................................. 51
3.4 Impact d’un faux étalonnage sur la géométrie du nuage ................................................. 54
4. Extraction d’arêtes ............................................................................................................. 57
4.1 Méthode générale - vue d’ensemble ..................................................................................... 58
4.2 État de l’art sur l’extraction d’arêtes ................................................................................... 59
4.3 Segmentation en éléments plans - état de l’art .................................................................. 61
4.3.1 Segmentation par croissance de surface (régions) .................................................................... 62
4.3.2 Transformée de Hough 3D ............................................................................................................ 63
4.3.3 Algorithme de RANSAC ................................................................................................................ 65
4.4 Contribution à la détection de plans .................................................................................... 676
4.4.1 Motivation ........................................................................................................................................ 68
4.4.2 Extraction séquentielle de plans .................................................................................................. 69
4.4.3 Connectivité de plans basée sur la théorie des graphes .......................................................... 71
4.5 Méthode proposée d’extraction d’arêtes ............................................................................. 77
4.6 Exemples de résultats .............................................................................................................. 82
4.6.1 Détection de plans ........................................................................................................................... 82
4.6.2 Extraction d’arêtes .......................................................................................................................... 84
5. Qualification à partir d’entités linéaires ........................................................................ 87
5.1 Problématique ........................................................................................................................... 87
5.1.1 Comment mesurer la distance entre deux segments dans l’espace ? ................................... 88
5.1.2 Contraintes ....................................................................................................................................... 90
5.2 Mesure de distance proposée ................................................................................................. 91
5.2.1 Distance de Hausdorff ..................................................................................................................... 92
5.2.2 Matrice de similarité ....................................................................................................................... 94
5.2.3 Mise en correspondance ................................................................................................................ 96
5.3 Résultats et évaluation ............................................................................................................ 99
5.3.1 Données expérimentales ................................................................................................................ 99
5.3.2 Évaluation de l’algorithme d’appariement ............................................................................... 100
5.3.3 Exactitude et précision................................................................................................................. 105
6. Recalage à partir d’entités linéaires ............................................................................. 107
6.1 Introduction ............................................................................................................................ 108
6.2 État de l’art du recalage rigide ............................................................................................ 109
6.2.1 Mise en correspondance automatique ....................................................................................... 109
6.2.2 Classification des méthodes existantes de recalage ............................................................... 111
6.2.3 Aperçu des méthodes basées sur les entités linéaires ............................................................ 113
6.3 Recalage basé-lignes : caractérisation des méthodes ..................................................... 115
6.4 Évaluation des méthodes présentées .................................................................................. 116
6.4.1 Données pour les expérimentations .......................................................................................... 117
6.4.2 Algorithmes implémentés ........................................................................................................... 118
6.4.3 Outils d’évaluation ........................................................................................................................ 118
6.4.4 Résultats – recalage des données bruitées ............................................................................... 119
6.4.5 Impact du bruit sur la distance de Hausdorff ........................................................................... 122
6.5 Approche proposée : RLMR-FMII2.................................................................................... 124
6.5.1 Recalage grossier – principe ....................................................................................................... 126
6.5.2 Évaluation avec données simulées ............................................................................................. 127
6.5.3 Tests sur données réelles ............................................................................................................ 130
7. Perspectives et conclusion ............................................................................................. 133
7.1 Conclusion ............................................................................................................................... 133
7.2 Perspectives et futurs travaux ............................................................................................. 136
7.2.1 Étalonnage extrinsèque du système : esquisse de solution .................................................. 136
Publications ............................................................................................................................... 139
Bibliographie ............................................................................................................................. 141
Annexe A .................................................................................................................................... 153
Annexe B .................................................................................................................................... 157
Annexe C .................................................................................................................................... 161
Annexe D .................................................................................................................................... 163
Annexe E .................................................................................................................................... 169 7
CHAPITRE 1
Introduction
Sommaire :
1. Introduction ........................................................................................................................... 7
1.1 Contexte général ......................................................................................................................... 7
1.1.1 Projet TerraMobilita ........................................................................................................................ 8
1.1.2 Motivations ......................................................................................................................................... 9
1.2 Apports de la thèse .................................................................................................................. 11
1.3 Plan du mémoire ...................................................................................................................... 12
1. Introduction
1.1 Contexte général
Depuis plusieurs siècles, les instruments essentiels de l’arpenteur et le savoir-faire de
l’homme permettaient de cartographier la surface de la Terre. La technologie employée n’a
cessé d’évoluer. Durant ce temps, nous notons quelques développements remarquables qui
ont révolutionné la façon de mesurer. À ce titre, nous pouvons mentionner des mesures au
moyen d’une lunette et d’une planchette (XVIIe siècle), celles réalisées à l’aide des
photographies (XIXe siècle), des théodolites (XXe siècle), jusqu’à l'apparition de
l'électronique et l’informatique qui ont donné naissance à de nouvelles techniques de levé et
de traitement des données telles que la station totale, le positionnement par satellites et le
télémètre laser. Cette évolution tire ainsi son origine dans les besoins sans cesse croissants
d’informations tridimensionnelles, rapides et précises sur notre environnement. Cependant,
nous observons que les méthodes dites conventionnelles dénotent quelques faiblesses,
lorsqu’elles sont employées pour numériser des objets de grande dimension (au niveau des
villes) ou de forme allongée (canyon urbain). La cartographie mobile par LiDAR (Light
Detection And Ranging), intégrant ordinairement trois sous-systèmes : le télémètre laser, le
système de navigation inertielle INS (Inertial Navigation System) et le système de
positionnement par satellites GNSS (Global Navigation Satellite System), tous installés à
l’intérieur d’une plate-forme mobile, a relégué les levés traditionnels par la vitesse de collecte
de données à une toute autre place. Elle a permis d’accéder à des endroits où la réalisation
des mesures serait pratiquement impossible avec d’autres méthodes. Dès lors, il est
envisageable de produire rapidement des cartes topographiques, numériques et précises du
terrain. Les systèmes aériens, installés dans un avion ou hélicoptère, sont capables de
produire une impressionnante quantité de points 3D géo-référencés. Néanmoins, leur 8
richesse en détail restant limitée, la technologie seule ne permet pas de reconstruire des
modèles 3D complets de ville. Les systèmes mobiles terrestres embarqués sur un camion
sont alors perçus comme un compromis entre le balayage laser fixe et celui aéroporté.
Toutefois, la rapidité des acquisitions présenterait peu d’intérêt si la qualité des données
collectées n’était pas garantie. Afin de s’adapter aux nouvelles réalités, les systèmes mobiles
de cartographie doivent être concurrentiels au regard des techniques conventionnelles. Or,
nous insistons sur le fait que l’exactitude des points laser soit équivalente aux levés
traditionnels, mais avec un temps d’acquisition et de traitement nettement plus rapide.
Pour cadrer avec cet objectif, c’est-à-dire de mettre au point des systèmes mobiles de qualité
topographique, il est primordial d’être en mesure de qualifier l’exactitude et la précision des
données collectées afin d’améliorer celles-ci sur les erreurs systématiques. Ces systèmes étant
récents, et bien que cette question soit essentielle, ces aspects ont encore été peu étudiés.
1.1.1 Projet TerraMobilita
Notre travail est effectué dans le cadre du projet TerraMobilita, dont le but est de mettre au
point de nouveaux processus automatiques de création et de mises à jour des cartes 3D de
voirie urbaine, avec une précision centimétrique. Pour ce faire, des données laser et images,
issues d’un système mobile de cartographie développé, entre autres, au sein du Centre de
Robotique CAOR de MINES ParisTech, sont employées. Il s’agit alors de construire des
modèles 3D complets de l’espace public afin de pouvoir étudier minutieusement
l’encombrement de divers éléments (stationnement, poubelles, etc.), de gérer l’entretien des
voiries, de produire des Plans de Déplacement Urbain (PDU) pour les besoins de circulations
douces (piéton, vélo, rollers, poussette, chaise roulante, etc.) et de diagnostics d’accessibilité
de la voirie pour les Personnes à Mobilité Réduite (PMR). L’objectif à atteindre est de
fournir des solutions pour l’acquisition, le traitement de données 3D et la production de
cartes, plus automatisées et moins coûteuses que les méthodes actuelles. Mais, on se doit de
garder à l’esprit la contrainte de relevé couvrant plusieurs km2 de l’espace public en un temps
court, et de volume importante de données à traiter.
Figure 1.1 Diagramme de décomposition fonctionnelle du projet TerraMobilita. CHAPITRE 1. Introduction
9
1.1.2 Motivations
Le projet TerraMobilita intègre plusieurs sous-projets, répertoriés principalement en trois
catégories dont nous présentons la décomposition fonctionnelle dans la Figure 1.1. La partie
concernant nos travaux est encadrée en rouge. Il s’agit dans la tâche de ce sous-projet (SP2)
de mettre au point des techniques de numérisation 3D de qualité topographique. Ainsi, le
dessein de cette thèse est de qualifier des données laser brutes acquises en environnement
urbain, mais aussi d’améliorer, par des méthodes adéquates de recalage et d’étalonnage, la
plate-forme mobile en terme de précision.
Depuis l’avènement de la technologie laser, les géomètres sont obligés de recueillir des
données de terrain selon une autre philosophie. Le relevé laser est acquis d’un point de vue
surfacique et non plus par un choix de points caractéristiques comme c’est le cas avec un
tachéomètre. Il est donc primordial de réfléchir, à quoi le terme « exactitude » doit se référer
– à un point particulier du nuage, ou à un élément extrait à partir de nuages tel qu’une
surface plane, une arête. Aussi, en dépit des gains de résolution et de précision des scanners
laser récents, la nature des nuages de points (bruit, densité) peut toujours gêner son
traitement (Figure 1.2). Cet état de fait devrait être pris en compte lors du choix des
méthodes appropriées.
Figure 1.2 Exemple de relevés laser acquis en 2009 au sein d’une même zone de test (rue
Soufflot à Paris) par : a) LARA3D ; b) Stéréopolis ; c) Scanner laser fixe (Riegl VZ-400)
Sachant que nous avons l’intention de fournir des solutions universelles, et ce quelle que soit
la densité des données laser collectées, nous choisissons de ne pas utiliser de points de
contrôle sélectionnés du nuage. Puisque l’identification précise des cibles, due aux
caractéristiques des données laser, peut être ardue, voire impossible, nos solutions ont été
conçues pour négliger l’influence de la densité des nuages de points sur le résultat de
reconstruction des primitives. Nous avons donc posé l’hypothèse suivante : Les entités
linéaires (dont la position est connue) extraites à partir de nuages de points de scènes urbaines
numérisées par un système de balayage laser mobile, permettent de quantifier et d’améliorer
l’exactitude des données produites. Dans ce travail, nous cherchons à démontrer la validité de 10
cette affirmation. Ainsi, nous vérifierons la pertinence des arêtes de pli, représentant les
intersections entre les segments plans principaux dans le nuage de points.
Les travaux décrits au sein de ce mémoire abordent le processus d’extraction d’arêtes, par
l’intermédiaire desquelles nous pourrons ensuite qualifier les données mobiles et développer
des outils servant, à leur tour, à améliorer la précision de celles-ci. Plusieurs axes de
recherche peuvent être imaginés, à partir desquels nous listons sur la (Figure 1.3) les
questions que nous allons aborder dans ce manuscrit. Quant à l’étalonnage intrinsèque des
scanners, cette tâche ne fait pas l’objet de cette thèse, car ses paramètres, étant fournis par le
constructeur, nous les considérons comme un modèle valable. Néanmoins, il faut se rendre à
l’évidence que des unités incorrectement étalonnées propageront aussi des erreurs entachant
le nuage de points.
Figure 1.3 Principaux axes de recherche
Les éléments linéaires sont omniprésents dans les scènes urbaines ce qui les rend de fait
comme une source riche en informations. D’après [Sappa et al., 2006] et [Alshawa, 2006],
les arêtes (les points de discontinuité) peuvent être regroupées en deux catégories (Figure
1.4) :
1) Les arêtes de pli (discontinuité de la dérivée première) qui apparaissent entre deux
surfaces d’orientation différente. Elles peuvent être retrouvées par l’intersection des
plans adjacents.
2) Les arêtes de pas (discontinuité d’ordre zéro) représentées par les points aux bords
des trous et des fenêtres. Elles sont dues à la limitation du scanner laser, aux
propriétés des surfaces numérisées pouvant absorber le signal émis, ou au manque de
visibilité scanner – objet causé par des artefacts.
Dans le premier cas, il est préférable, afin de minimiser le bruit, que les deux sous-nuages
soient acquis sous un angle direct. Ce critère n’est pas toujours aisé à satisfaire. Tout en
considérant les arêtes de pas, il faut garder à l’esprit que la nature hétérogène d’un nuage de
point ne permet pas de garantir que la ligne extraite corresponde fidèlement à l’arête réelle.
Nous préférons alors utiliser les droites sous forme d’intersections, soit des arêtes de pli,
puisqu’elles peuvent être facilement extraites et décrites, même si les nuages de points sont
peu denses et assez bruités. Dans ce manuscrit, le terme « arêtes » signifiera donc une droite
d’intersection (limitée) entre deux plans voisins. CHAPITRE 1. Introduction
11
Figure 1.4 Différents types d’arêtes
1.2 Apports de la thèse
La qualité des relevés laser est un facteur clef à prendre en considération. Elle comprend
plusieurs aspects, dont l’exactitude des mesures. Le principe consiste toujours à utiliser une
référence dont l’exactitude est plus élevée que celle des données étudiées. La plupart des
travaux actuels se réalisent, soit par une analyse de coordonnées de points de contrôle, soit
par une comparaison avec d’autres types de données (nuage de points, modèle de ville 3D).
Notre première contribution est de fournir une nouvelle approche de qualification de
l’exactitude et de la précision, fondée sur les arêtes. S’agissant de la référence, nous pouvons
imaginer des éléments linéaires mieux géopositionnés qu’ils soient 2D ou 3D, acquis lors du
levé topographique, ou bien encore extraits du nuage de points statique (relevé par scanner
laser fixe) ou du plan 2D (emprise de bâtis, bordure de trottoir, etc.) (Figure 1.5).
L’éloignement des deux sous-ensembles de segments, exprimés en tant que la distance de
Hausdorff adaptée aux lignes, représentera désormais une mesure de la qualité.
Figure 1.5 Arêtes de pli : a) Données de référence – nuage statique ; b) Relevé laser mobile 12
Notre deuxième contribution se veut de proposer une méthode automatique pour
l’appariement des entités linéaires en s’appuyant sur leur similitude. Nous combinons, entre
deux nuages, les lignes les plus semblables au sens du score attribué.
En troisième lieu, nous évaluons quelques approches existantes permettant le recalage rigide
basé sur des entités linéaires, en examinant leur pertinence vis-à-vis de notre problématique.
Notre but est plutôt d’affiner les différents nuages déjà géo-référencés pour corriger le
décalage (shift) survenu lors de l’estimation de trajectoire du véhicule par un système de
navigation. C’est pourquoi nous portons un regard critique sur les méthodes actuelles qui
paraissent peu robustes au bruit. Au vu de ces éléments, nous développons une chaîne
complète, comprenant un appariement et une estimation des paramètres de pose par des
segments de droite.
La quatrième contribution réside dans la mise en évidence des arêtes afin de pouvoir en
déduire l’étalonnage extrinsèque du système intégral, c’est-à-dire la matrice de rotation
(boresight matrix) et le bras de levier (lever-arm) entre le scanner laser et la centrale inertielle,
les deux étant embarqués sur une plate-forme terrestre. Nous démontrons que ces
paramètres, ayant un impact sur les positions et orientations des lignes extraites d’une scène
urbaine, sont observables, et que par conséquent, leurs valeurs numériques peuvent être
estimées. Nous esquissons, un concept d’approche, devant être encore approfondie et testée,
permettant un étalonnage extrinsèque du système doté d’un scanner à double balayage.
Concernant l’extraction des arêtes de pli, nous employons, dans nos recherches, une méthode
amenant à déterminer des droites d’intersection entre les plans détectés auparavant à l’aide
de l’algorithme de RANSAC. Ce dernier est enrichi d’une analyse de composantes connexes.
Nous proposons une solution alternative, étant notre dernier apport, pour vérifier la
connectivité des plans, celle-ci faisant appel aux éléments de la théorie des graphes.
Ces travaux ont donné lieu à plusieurs publications listées à la page 139 du manuscrit.
1.3 Plan du mémoire
Ce mémoire de thèse est structuré en trois parties principales : l’extraction d’arêtes, la
qualification des relevés laser et l’amélioration par consolidation. En souhaitant s’affranchir
des limitations du système mobile de cartographie et pour répondre aux exigences imposées
par le projet TerraMobilita, la qualité des données laser doit être étudiée et évaluée, pour
pouvoir par la suite proposer des améliorations utiles et efficientes. Chacun des chapitres,
s’articulant autour de ces objectifs, est accompagné par un état de l’art permettant de
s’inspirer des moyens et des méthodes mis en œuvre.
Nous caractérisons, dans un premier temps (Chapitre 2), le système mobile de cartographie.
Nous commençons par décrire le principe de son fonctionnement. Nous présentons des
données avec lesquelles nous travaillons, acquises dans le cadre du projet TerraMobilita ou
d’une autre manière. Nous définissons les notions d’erreurs telles que liées au levé
topographique, et introduisons les termes d’exactitude et de précision. En outre, nous testons
quelques méthodes simples permettant d’évaluer l’exactitude relative des relevés laser
mobiles.
Ensuite (Chapitre 3), nous listons non seulement les sources d’anomalies envisageables
contribuant à l’erreur globale du système, mais aussi nous présentons des solutions récentes
pour pallier à ces difficultés. Ainsi, différentes méthodes applicables en temps réel et en posttraitement
y compris l’étalonnage extrinsèque sont discutées. Les effets du défaut
d’étalonnage précis des excentricités angulaires (boresight angles) entre les capteurs de
perception et la centrale inertielle, sur la qualité géométrique des nuages de points, sont
aussi expliqués. CHAPITRE 1. Introduction
13
Notre point de départ est l’extraction des arêtes de pli à partir de relevés laser (Chapitre 4).
Nous mettons en avant une procédure de détection des droites d’intersections via des
segments plans retrouvés. Ensuite, nous nous penchons sur les algorithmes de
reconstruction automatique des primitives planes dans un nuage, étant donné un modèle
connu a priori, notamment sur l’estimateur de RANSAC. Nous nous imposons une contrainte
de connectivité entre les points formant chaque segment plan, et résolvons cette question
grâce à la théorie des graphes, plus précisément par la structuration propre du nuage et la
décomposition Dulmage-Mendelsohn.
Ensuite (Chapitre 5), nous proposons une approche de qualification des relevés laser basée
sur des entités linéaires. Celle-ci délivre une mesure de qualité en s’appuyant sur la distance
de Hausdorff modifiée. Pour déterminer sa valeur, nous développons un algorithme de mise
en correspondance visant à repérer les entités analogues ou très proches dans deux jeux de
données. Nous appliquons cette méthode aux lignes 3D extraites au sein d’une zone de test,
et présentons les résultats obtenus.
De surcroît (Chapitre 6), nous suggérons de corriger les données laser mobiles par un
recalage rigide bénéficiant des segments de droite. Après avoir détaillé les contraintes
apportées par une paire de primitives linéaires appariées, nous expliquons, et évaluons trois
algorithmes de calcul des poses, par minimisation de ces contraintes entre deux ensembles de
segments. Par la suite, nous avançons une solution complète aboutissant à raffiner, par
consolidation, des nuages de points distincts. Nous montrons l’efficacité de notre approche,
et présentons les résultats obtenus sur quelques jeux de données simulées et réelles acquises
dans le cadre du projet TerraMobilita.
Pour terminer (Chapitre 7), nous soumettons une brève discussion relative aux conclusions
et perspectives issues de ces recherches. Nous suggérons également une approche
d’étalonnage extrinsèque, conçue pour des scanners 3D. 15
CHAPITRE 2
Acquisition et qualification de relevés laser
Sommaire :
2. Acquisition et qualification de relevés laser ................................................................. 15
2.1 Systèmes mobiles terrestres voués à la numérisation d’environnement ....................... 16
2.1.1 Principes fondamentaux d’un système mobile de cartographie ............................................. 18
2.1.2 Description du prototype L3D2 ................................................................................................... 21
2.1.3 Autres exemples de systèmes mobiles de cartographie ........................................................... 23
2.2 Sources de données expérimentales ..................................................................................... 24
2.3 Qualification de données ........................................................................................................ 28
2.3.1 Différents types d’erreurs en topographie.................................................................................. 28
2.3.2 Critères servant à décrire la qualité de nuages mobiles .......................................................... 31
2.3.3 État de l’art sur l’évaluation de l’exactitude de relevés laser mobiles .................................. 32
2.4 Expérimentation ...................................................................................................................... 35
2. Acquisition et qualification de relevés laser
Dans ce premier chapitre, nous expliquons brièvement les principes fondamentaux d’un système mobile
MLS positionné avec une navigation hybride GNSS/INS. Nous présentons quelques récentes platesformes
de cartographie. Puis, nous décrivons le prototype L3D2 développé au CAOR de MINES
ParisTech ainsi que d’autres systèmes dont les données ont été employées pour tester des approches
proposées au cours de cette thèse.
Ensuite, nous caractérisons différentes sources d’erreurs ayant un impact sur la qualité des mesures.
Aussi, les notions complémentaires d’exactitude et de précision de données sont introduites afin
d’expliciter la nature de ces erreurs. Notre objectif principal est de nous pencher sur les méthodes
récentes traitant du problème de qualification. Notamment, l’exactitude de relevés laser mobiles,
mesurée par rapport à diverses références et éléments de contrôle, est étudiée. Un aperçu de techniques
existantes dévoile que la plupart d’entre elles souffraient du manque d’automatisation.
Finalement, deux approches sont implémentées puis testées pour vérifier l’exactitude relative du nuage
de points mobile. Les données référence sont les suivantes : 1) un ensemble de points aux coordonnées
connues et mesurées à l’aide d’un tachéomètre électronique ; 2) un nuage de points statique. Les points
faibles des techniques mises en œuvre sont notés.
Résumé 16
2.1 Systèmes mobiles terrestres voués à la numérisation
d’environnement
Soutenus par un progrès constant dans le génie informatique et le traitement automatique
d’informations, les systèmes mobiles basés sur LiDAR évoluent à un rythme rapide. Leur
développement comprend des modifications technologiques importantes en termes de
capteurs, d’architecture du système et de traitement de données. De nouveaux scanners laser
offrent une large plage de fonctionnement. Les fabricants ont considérablement avancé sur
l’ergonomie des appareils en les rendant plus légers et améliorant par conséquent leur
portabilité. Alors qu’un scanner laser nécessitait auparavant une équipe de deux personnes,
une seule suffit désormais pour effectuer un balayage laser fixe. D’après les études publiées
en 2013 par la société de recherche et de conseil américaine ARC Advisory Group [Evans,
2013], le marché des scanners laser 3D va continuer à pénétrer de nouveaux secteurs
doublant ainsi les ventes sur les quatre prochaines années. Avec cette variété de capteurs
laser, une baisse massive des prix et une simplification de leur utilisation, le nombre de
systèmes mobiles aussi bien que leurs applications possibles ne cessent de croître. Dès lors,
les plates-formes mobiles aériennes ALS (Airborne Laser Scanning) et terrestres MLS (Mobile
Laser Scanning) ainsi que les systèmes portatifs (Hand-Held Mobile Mapping) sont de plus en
plus utilisés, permettant une exploitation de ce matériel dans des secteurs qui autrefois
n’auraient pas envisagé leur utilisation. En outre, avec le développement des capteurs
miniaturisés LiDAR pouvant être embarqués sur les petits drones, la prolifération des
systèmes UAV (Unmanned Aerial Vehicle)/ UAS (Unmanned Aircraft System) est devenue une
réalité.
Figure 2.1 Exemple de systèmes commerciaux : a) Lynx Mobile Mapper M1 de Chung
Hsing Surveying ; b) Garmin Corporation de Taïwan ; c) Riegl VMX-250 de SGS ; d) MMS
série X de Mitsubishi Electric CHAPITRE 2. Acquisition et qualification de relevés laser
17
Les acquisitions par l’intermédiaire d’un système MLS peuvent être réalisées, selon la façon
de combiner les données provenant des capteurs, soit en mode dynamique (On Drive) soit
Stop&Go. Le premier mode permet de numériser l’environnement en mouvement, c’est-à-dire
les informations sont intégrées en temps réel pendant le déplacement de la plate-forme.
Lorsque la seconde technique est employée, le véhicule reste immobile et le scanner effectue
un scan complet tournant sur deux axes. Après avoir fini les mesures, le système se déplace à
une autre position.
Figure 2.2 Quelques récents et « légers » systèmes mobiles de cartographie : a) ZEB1 de
3DLaserMapping ; b) BackPack Mobile Mapping System [Liao et al., 2013] ; c) Trekkeur de
Google Street View ; d) Système mobile de l’Université de Floride (FLREC Geomatics) ;
e) VERDINO2 de l’Université La Laguna de Ténérife
Dans tous les cas, une source d’alimentation, un ordinateur portable et deux modules
produisent ses fonctionnalités basiques. À bord d’une plate-forme mobile, les capteurs de
positionnement (p.ex. un récepteur GNSS, une centrale inertielle INS, un odomètre DMI
(Distance Measurement Instrument)) et les capteurs d’imagerie (scanners laser, caméras), tous
en une configuration propre à chaque constructeur, doivent trouver leur place. En revanche,
du fait de la polyvalence des systèmes, ils peuvent être déployés sur les différents types de 18
véhicules y compris le camionnette, le véhicule 4x4, le quad, le chariot, le vélo, le bateau ou la
locomotive, comme l’illustrent la Figure 2.1 et la Figure 2.2.
2.1.1 Principes fondamentaux d’un système mobile de cartographie
Puisque chaque système mobile MMS (Mobile Mapping System) intègre de nombreux
capteurs, c’est une technologie de plus en plus complexe. Tout système est capable de fournir
des données correctes, pour autant que les conditions suivantes soient remplies :
1) Les capteurs entre eux-mêmes doivent être précisément synchronisés ;
2) Le système est tenu d’être rigide, c’est-à-dire qu’il n’existe aucun déplacement relatif
entre les composantes au cours de l’acquisition ;
3) La position et l’attitude de la plate-forme doivent être déterminées avec une
précision suffisante ;
4) Les excentricités linéaires et angulaires à savoir les translations et les rotations entre
les capteurs de perception et l’IMU (Inertial Measurement Unit) doivent être connues.
Chacun des capteurs mis en place travaille avec son propre système de référence. Le Tableau
2.1 caractérise les repères pouvant être définis lors du fonctionnement d’un système mobile,
qu’il soit terrestre ou aérien.
Tableau 2.1 Repères de référence
Sigle Nom du repère Description
s Repère du capteur
(Sensor Frame)
Repère laser/caméra.
b Repère body
(Body Frame)
Repère représenté par les axes du système de navigation inertielle.
L’origine de ce système est située au centre de l’IMU. Les angles de
rotation associés sont nommés : roulis (roll), tangage (pitch), lacet
(yaw).
l Repère véhicule
(Local Level Frame)
Ce cadre est généralement utilisé comme référence pour les angles
d’orientation mesurés par le système intégré GNSS/INS.
Autrement dit, c’est un repère local terrestre mobile. Son origine
peut être définie comme l’intersection de la verticale locale,
déterminée à partir de la position actuelle du capteur, avec
l’ellipsoïde terrestre global.
e Repère de l’objet
(ECEF Frame)
Système géodésique cartésien géocentré (attaché à la Terre).
L’origine de ce système est fixée au centre de la Terre. La direction
de l'axe OX est donnée par l'intersection de l’équateur terrestre et
par le méridien de Greenwich. Quant à l'axe OY, il se situe dans le
plan de l’équateur et de l’orthogonal à OX. Pour l'axe OZ, il
correspond à l'axe de rotation de la Terre. De ce fait, le résultat du
calcul de la trajectoire est principalement fourni dans ce repère sous
forme de coordonnées géocentriques ou de coordonnées
géographiques : λ - latitude, φ - longitude, h – hauteur ellipsoïdale.
M Repère terrain
(Mapping Frame)
Ce repère est employé pour exprimer les coordonnées des points
d’un nuage/image. Il peut être aussi représenté par une surface de
référence, par projection ainsi que par le système de référence
(national, reconnu dans le pays).
Afin de générer un nuage de points, dans un repère terrain, à partir de données brutes
enregistrées par les capteurs, trois changements successifs de repère sont nécessaires (Figure CHAPITRE 2. Acquisition et qualification de relevés laser
19
2.3). D’abord, le passage distance-angle (coordonnées sphériques) aux coordonnées
cartésiennes dans le repère lié au scanner laser (s) est effectué. Ensuite, nous passons aux
coordonnées dans le repère IMU (b) défini par la centrale inertielle pour réaliser la
transformation dans le repère terrain (M). Le premier passage se fait en prenant également
en compte les paramètres d’étalonnage intrinsèque. Quant au deuxième, il exige un
étalonnage extrinsèque permettant de déterminer les excentricités linéaires ݎ/௦
et angulaires
ܴ௦
entre les capteurs de perception et la centrale inertielle. Enfin, la dernière transformation
est envisageable grâce aux données ܴ
ெሺݐሻ mesurées par la centrale inertielle.
La notation employée pour décrire la transformation d’un repère à l’autre est la suivante : ܴ
symbolise la matrice de rotation, et ݎ la translation. En outre, l’indice désigne le capteur
concerné, tandis que l’exposant (indice supérieur) indique le repère dans lequel cette
grandeur est mesurée. Par exemple, ݎ/ீேேௌ
correspond au bras de levier entre l’unité
inertielle et le récepteur GNSS, exprimé dans le repère body (b).
La formulation mathématique de géo-référencement direct d’un système équipé de scanners
laser peut être exprimée comme suit :
ݎ
ெ ൌ ݎ/ீேௌௌ
ெ ሺݐሻ ܴ
ெሺݐሻ ∙ ൫ݎ/௦
ܴ௦
ܺ௦൯ (2.1)
où :
ேௌௌீ/ݎ
ெ ሺݐሻ : position mesurée par le système intégré GNSS/INS/DMI exprimée dans le
repère terrain (M) ;
ܴ
ெሺݐሻ : matrice de rotation du repère body (b) vers le repère terrain (M). Elle peut être
représentée par trois angles : la rotation autour de l’axe X - roulis (߮), celle autour de l’axe Y
– tangage (ߠ), et celle autour de l’axe Z – lacet (߰). Toutes les trois varient au cours du
temps (t) ;
La convention utilisée pour ces trois rotations par les centrales inertielles les plus courantes
(IXSEA et Applanix) est la convention roll-pitch-yaw (2.2) :
ܴ
ெሺݐሻ ൌ ܴሺ߰ሻ ∙ ܴሺߠሻ ∙ ܴሺ߮ሻ (2.2)
où :
ܴሺ߮ሻ ൌ 10 0
0 ܿݏሺ߮ሻ െݏ݅݊ሺ߮ሻ
0 ݏ݅݊ሺ߮ሻ ܿݏሺ߮ሻ
൩ ; ܴሺߠሻ ൌ ܿݏሺߠሻ 0 ݏ݅݊ሺߠሻ
0 10
െݏ݅݊ሺߠሻ 0 ܿݏሺߠሻ
൩ ;
(2.3)
ܴሺ߰ሻ ൌ ܿݏሺ߰ሻ െݏ݅݊ሺ߰ሻ 0
ݏ݅݊ሺ߰ሻ ܿݏሺ߰ሻ 0
0 01
൩ ;
ܺ௦ : Coordonnées de points laser mesurés dans le repère scanner (b). Pour un scanner de
profil 2D (balayage plan) SICK LMS 221, le passage des données brutes au repère scanner (s)
se réalise selon la formule (2.4)
ܺ௦ ൌ ݏߩ݅݊ሺ݅ߠ ߮ሻ
ሻ߮ ߠ݅ሺݏܿߩെ
1
൩ (2.4)
où ߩ :mesure de distance objet-scanner ; ߮ : angle de début du balayage ; ߠ : résolution du
scanner ; ݅ : index du faisceau laser. 20
௦/ݎ
: excentricité linéaire (bras de levier) entre le centre du scanner et le centre de la centrale
inertielle, exprimée dans le repère de l’IMU (b). Cette valeur est supposée constante au cours
du temps (t) ;
ܴ௦
: Matrice de rotation (matrice de boresight) du repère laser (s) vers le repère body (b). Ses
angles ݁, ݁, ݁ sont constants dans le temps (t).
Nonobstant, dans le cadre des systèmes mobiles dotés de caméras, la formule (2.1) garde sa
forme initiale, sauf que la composante ܺ௦ doit être remplacée par ݎߤ
. Le caractère ߤ
symbolise le facteur d’échelle, tandis que ݎ
contient des coordonnées d’images du point dans
le repère caméra.
Figure 2.3 Concept du géo-référencement direct
Selon [Ellum et El-Sheimy, 2002], la qualité des nuages de points dépendra alors, dans la
même mesure, de la précision de l’étalonnage du système et des erreurs de mesures laser. Ils
proposent, à cet effet, d’estimer l’influence des différents composants à travers la dérivation
du premier ordre de l’équation (2.1).
ݎߜ
ெ ൌ ݎߜ/ீேௌௌ
ெ ሺݐሻ Erreur de position GNSS (2.5)
ܴߜ
ெሺݐሻ൫ݎ/௦
ܴ௦
ܺ௦൯ Erreur d’attitude IMU
ܴ
ெሺݐሻߜܴ௦
ܺ௦
Erreur sur l’excentricité
angulaire (boresight)
ܴ
ெሺݐሻݎߜ/௦
Erreur sur l’excentricité
linéaire
ܴ
ெሺݐሻܴ
௦ߜܺ௦
Erreur de mesures du
scanner laser CHAPITRE 2. Acquisition et qualification de relevés laser
21
ݐߜ ቀݒሺݐሻ ߱ሺݐሻ൫ݎ/௦
ܴ௦
ܺ௦൯ቁ Erreur de synchronisation
Il en ressort que la multitude d’éléments associés au système mobile produit plusieurs types
d’erreurs affectant les résultats d’acquisitions. Le Chapitre 3 abordera leur origine, mais il
expliquera aussi la contribution de chacune des composantes au bilan global des erreurs du
système.
2.1.2 Description du prototype L3D2
Un système mobile est développé au sein du CAOR de MINES ParisTech depuis 2002. Il
s’agit du prototype L3D2. C’est une nouvelle plate-forme de numérisation 3D, basée sur les
mêmes principes, mais plus performante que son prédécesseur appelé LARA3D (LA Route
Automatisée). Le but de ce développement en cours est, dans le cadre du projet
TerraMobilita, de rivaliser avec la précision des techniques et des méthodes topographiques
conventionnelles (tachéométrie, GPS, nivellement direct, balayage laser terrestre).
Figure 2.4 Évolution du prototype LARA3D
Figure 2.5 Prototype L3D2 (version de mai 2012)
Un tel système est configuré pour accueillir de nombreux capteurs et il a donc dû subir,
depuis sa conception, plusieurs améliorations. La Figure 2.4 présente ce prototype dans la
version de 2002, 2008, et de 2010. Le système le plus récent avec lequel nous sommes en
train de travailler est représenté par la Figure 2.5. 22
Le système de positionnement de notre prototype est composé d’un récepteur GNSS Novatel
Flexpak6, d’une centrale inertielle PHINS d’IXSEA et d’un odomètre (DMI). Les capteurs de
perception sont constitués, optionnellement, de deux scanners laser SICK LMS 221 en
balayage plan vertical à droite et à gauche du véhicule, situés dos à dos. Chaque télémètre
laser, fonctionnant à temps de vol (le temps de parcours de l’onde entre son départ et son
retour sert à déduire une mesure de distance), numérise une zone de 180 degrés. À l’heure
actuelle, notre objectif principal est de remplacer ces scanners par un Velodyne HDL-32E
(High Definition LiDAR), contenant trente-deux fibres inclinées dans un plan vertical
tournant sur lui-même. Le laser Velodyne sera installé en arrière du véhicule et penché
d’environ 60°. Par conséquent, environ 700 000 de points par seconde seront mesurés. Nous
pouvons aussi ajouter, selon les usages, un ou plusieurs autres capteurs.
Le véhicule (Citroën Jumper) est également doté d’un ordinateur embarqué avec un logiciel
robuste RTMaps v.3.4.10 permettant la synchronisation, en temps réel, des données datées
provenant de différents capteurs. La trajectoire du véhicule est calculée grâce au filtrage de
Kalman, un outil puissant servant à établir la synergie entre trois capteurs de navigation :
GNSS, INS et DMI, puisqu’il peut tirer les avantages de ces trois systèmes de localisation
distincts. Une fois le véhicule localisé, c’est-à-dire sa position et sa rotation connue dans un
repère terrain, il est possible de géo-référencer toutes les données issues des capteurs de
perception. Pour ce faire, la datation des données de cartographie est synchronisée avec celle
de la localisation, avec si nécessaire une interpolation entre deux positions successives.
Figure 2.6 Diagramme RTMaps utilisé pour la génération des nuages de points :
a) Module de localisation ; b) Module de géo-référencement ; c) Données de
cartographie
La Figure 2.6 montre le diagramme RTMaps, utilisé lors de la génération des nuages de
points, comprenant trois composants principaux de traitement :
1) Module de localisation (parseur de la sortie de centrale) – package PhinsStandard
v.1.0 CHAPITRE 2. Acquisition et qualification de relevés laser
23
2) Module de géo-référencement (reconstruction du nuage de points) – package
GeoScanSickXsea v.1.0
3) Visualiseur de nuage de points – package PointscloudViewer v.1.0
Figure 2.7 Nuage de points acquis par LARA3D – LARA3Dv2010_Orsay
2.1.3 Autres exemples de systèmes mobiles de cartographie
Dans le cadre de notre étude (extraction d’arêtes, détection de plans, qualification, recalage
rigide), nous avons utilisé différents types de relevés laser.
Figure 2.8 Stéréopolis II, système mobile de l’IGN [Paparoditis et al., 2012]
La Figure 2.8 montre le système de cartographie mobile développé par l’IGN. Son système
actuel de vision comprend des capteurs de haute résolution, notamment un ensemble de dix
caméras HD assurant une couverture horizontale complète, deux scanners laser Riegl LMSQ120i
avec une ouverture de 80 degrés et un Velodyne®HDL-64E. La partie concernant la
navigation est constituée d’un système hybride composé de deux récepteurs GNSS, d’une
centrale inertielle Applanix (POSPac / POS LV V4), et d’un odomètre. L’architecture du
couplage de capteurs est de type lâche (tightly coupled). Pour plus d’informations relatives au
système Stéréopolis II, le lecteur pourra se référer à [Paparoditis et al., 2012]. 24
Figure 2.9 Exemple de nuages de points produits par le système Stéréopolis II –
Stereopolis2009_Soufflot
Le second système mobile de cartographie terrestre, dont les données ont été exploitées, est
un système commercial de Riegl VMX-250. Il est doté de deux scanners laser de Riegl VQ-
250, de quatre caméras et de compteurs très précis de positionnement (la spécificité plus
détaillée du système se retrouve sur le site web du Riegl).
Figure 2.10 Gabarit ferroviaire numérisé par Riegl VMX-250 – Riegl2012_Slomniki
2.2 Sources de données expérimentales
Relevé laser
Nous traitons, au sein de ce travail, des nuages de points produits par des systèmes terrestres
fixes ou mobiles notamment :
1) Les relevés laser mobiles collectés par LARA3D (version 2010) (Figure 2.7) ; CHAPITRE 2. Acquisition et qualification de relevés laser
25
2) Les relevés laser mobiles produits par Stéréopolis II de l’Institut Géographique
National (IGN) (Figure 2.9) ;
3) Les relevés laser mobiles acquis par un système mobile de Riegl VMX-250 (Figure
2.10) ;
4) Les relevés laser statiques obtenus par scanner fixe Trimble®GX, Timble®VX et Leica
C10.
Les nuages de points de haute résolution (statique) servent de référence à notre étude
comparative (qualification, recalage). Le premier nuage, nommé Orsay2009_statique, a été
fourni par Trimble 3D Scanning System lors des travaux réalisés dans le cadre du projet
TerraNumerica (projet antérieur à TerraMobilita). Les acquisitions ont été faites de façon
complémentaire avec une station spatiale Trimble®VX présentant les fonctionnalités du scan
3D et un scanner Trimble®GX. Vingt-six stations, dont 10 stations de GX, ont été placées
afin d’assurer une bonne couverture des deux façades du Musée d’Orsay (nord et ouest) et
d’éviter au maximum les masques. Enfin, la résolution finale du nuage a été limitée à 2cm.
Le second nuage Sulpice2013_statique (Figure 2.11), a été collecté lors d’une acquisition de
terrain que nous avons réalisée le 14 novembre 2012 en collaboration avec l’ENSG (École
Nationale des Sciences Géographiques). La Figure 2.12 représente le schéma des
emplacements de différentes stations Leica ScanStation C10, ainsi que des stations GNSS
stationnées avec un Trimble®R8. Des scans de très haute résolution (4mm) ont été acquis et
ensuite géo-référencés dans le système Lambert-93. Le logiciel LGO (Leica Geo Office) de
Leica a été choisi pour traiter les données GNSS. Les nuages de points, grâce aux
coordonnées obtenues, ont été géopositionnés à l’aide de Leica Cyclone 7.0.2. Au final, la
précision relative des relevés laser est de l’ordre de 3mm. Concernant la précision absolue,
nous estimons qu’il existe des erreurs d’environ 3cm confirmant que notre référence est
fiable. En conséquence, nous disposons d’une base abondante de données ayant des
caractéristiques complètement différentes (taux de bruit, densité, qualité).
Figure 2.11 Nuage de points consolidé - Sulpice2013_statique26
Figure 2.12 Plan de l’acquisition statique (Croisement des rues du Vieux-Colombier et
Madame, Paris)
Levé topographique
Un levé topographique Orsay2011_topo a été réalisé le 27 février 2011 avec une TCR 803 de
Leica (Figure 2.13b). Un cheminement ouvert comportant cinq stations intermédiaires,
situées à une distance d’au maximum 30m de la façade, a été mis en place (Figure 2.13a). Le
nombre et l’emplacement de points de canevas ont été planifiés de telle manière que le
tachéomètre émette un rayonnement pour lequel l’angle d’incidence ne soit pas inférieur à
60° (voir l’information sur l’angle d’incidence dans la section 3.1.2). Cette contrainte a été
choisie pour assurer une bonne qualité de données de référence, saisies en mode sans prisme
réflecteur. D'autre part, toutes les mesures ont été géo-référencées dans un système local
établi par deux stations (St4 et St5).
Figure 2.13 a) Cheminement réalisé lors du levé topographique ; b) TCR 803 de LeicaCHAPITRE 2. Acquisition et qualification de relevés laser
27
Au total, le levé opéré dans une seule position du cercle a contenu 344 points dont 297
appartenant à une coupe horizontale prise environ 7.2m au-dessus du sol (Figure 2.14). Le
transfert des données depuis la station totale a été fait sous LGO, tandis que le traitement
(décodage, calcul de coordonnées, etc.) à l’aide du logiciel WinKalk 3.78. Toutes ces mesures
constituent une référence pour les analyses présentées dans la poursuite des travaux.
Figure 2.14 Répartition de points de contrôle (en jaune), et la coupe horizontale (en vert)
Les points de contrôle à viser ont été représentés par des détails architecturaux tels que les
coins de bâtiments, les arêtes de piliers, les intersections d’éléments caractéristiques. Les
piquets se trouvent alors sur un coin convexe ou concave dont la mesure à l’aide d’un
télémètre laser peut poser certains problèmes. Nous obtenons, suivant les cas, un arrondi ou
un congé entre deux surfaces voisines, tous deux dus à la généralisation de l’information lors
de la réception du signal de retour [Klimkowska et Wrobel, 2006]. La Figure 2.15 illustre la
situation typique rencontrée pendant le mesurage d’une bordure (edge effect) - les
coordonnées obtenues ne correspondront quasiment jamais à la vraie position d’arête. Aussi,
la distance mesurée entre l’emplacement actuel et une cible s’écarte de la valeur réelle.
Figure 2.15 Résultats de mesure : a) Coin concave ; b) Coin convexe
Étant donné que l’empreinte laser possède une certaine taille dépendant de l’ouverture du
dispositif, de la longueur de faisceau laser, mais aussi de la divergence de celui-ci, elle ne se
matérialisera jamais sous la forme d’un point. En réalité, un laser produit une lumière qui va
diverger de son origine. La cible balayée renvoie ainsi des retours multiples - une partie du
signal proviendra de l’objet lui-même et une autre sera rétrodiffusée ; selon le cas, par une
surface adjacente ou par une autre située derrière (Figure 2.16). Cependant, cette énergie ne 28
sera jamais retournée s’il n’y a pas d’autres éléments à portée du scanner. En fin de compte,
la mesure finale de la distance sera toujours la moyenne des énergies retournées. L’erreur de
mesures peut donc varier de quelques millimètres voire même de quelques centimètres. En ce
qui concerne la mesure de coins concaves, le problème est moins complexe. La distance
obtenue sera toujours plus petite que la valeur réelle. Quelle que soit l’origine de ces
imprécisions, les cibles doivent être choisies avec soin.
Figure 2.16 Empreinte du rayon laser sur les surfaces voisines
2.3 Qualification de données
La qualité de données quelconques est un facteur clef à prendre en compte. À cet égard, la
qualification devrait se fonder sur des procédures claires et précises. Son objectif se veut de
satisfaire des besoins bien déterminés : ceux des fournisseurs (entre autres les topographes)
étant obligés de valider des mesures, ainsi que ceux des futurs utilisateurs devant être au fait
pour exploiter au mieux ces données. La qualification n'est pas un élément négligeable, car
elle atteste que les données acquises permettront de créer un produit final avec une qualité
attendue. Nous observons qu'il existe deux approches traitant de cette question [Boulaassal,
2010], [Boudet, 2007]. L’une, nommée évaluation qualitative, consiste à effectuer une
analyse visuelle et à noter la qualité avec un sens sémantique, en lui attribuant des
coefficients (par exemple : faux, approché ou correct). Elle permet de constater la présence de
fautes (erreurs grossières). La seconde, quantitative, se réalise ultérieurement avec un calcul
d’indices de qualité. Elle fournit une statistique descriptive, son but étant par définition, de
décrire par des statistiques (la moyenne, l’écart, etc.) des données.
Dans cette partie, nous nous intéresserons à l’évaluation de la qualité, en termes d’exactitude
et de précision, des relevés laser acquis par un système mobile. Après avoir précisément
défini ce qui est entendu par les notions susmentionnées (2.3.2), nous examinerons l’état de
l’art des moyens actuellement disponibles pour les mesurer (2.3.3). Aussi, on se devra
d'évoquer les autres critères complétant les informations sur la qualité de nuages de points.
2.3.1 Différents types d’erreurs en topographie
Divers types de levés topographiques exigent, certes, des niveaux de précision différents.
Connaître l’exactitude des résultats nécessite une bonne maîtrise des appareils utilisés, la CHAPITRE 2. Acquisition et qualification de relevés laser
29
prise en considération de cas particuliers et de situations défavorables, mais aussi, un savoirfaire
pour les compenser. Les observations peuvent être entachées par :
1) des erreurs parasites ou des fautes – étant des incertitudes grossières dues à des
inadvertances opératoires, un oubli ou bien encore un défaut de réglage de l’appareil.
La faute est aisément repérable donc, peut et doit être supprimée. Pour déceler
d'éventuelles fautes susceptibles d'être commises, des mesures de contrôles doivent
être réalisées.
2) des erreurs systématiques, parfois appelées biais, étant une composante de l’erreur de
mesure qui, lors des mesurages répétés, demeure constante en valeur absolue et en
signe ou varie de façon prévisible. Ces erreurs sont cumulatives par voie d’addition et
dues souvent aux imprécisions de l’instrument (qualité des composants, défauts
d’étalonnage, temps de réponse, réglage de zéro, etc.) et aux contraintes de sa mise
en œuvre. Les erreurs systématiques influencent l’exactitude (ou la justesse) d’une
mesure et ne peuvent être atténuées par une augmentation du nombre de mesurages.
La distribution des mesures sera, par la suite, déplacée de la valeur réelle.
3) des erreurs accidentelles (aléatoires) – les plus fréquentes, se produisant de manière
aléatoire, en valeur et en signe, même quand les conditions de mesures sont
identiques. Or, d’une mesure à l’autre, la valeur obtenue est surévaluée ou sous-
évaluée. Les origines sont multiples : ce peut être dû à l’opérateur (par exemple :
l’exactitude avec laquelle l’œil observe), à la qualité inévitablement limitée de nos
instruments, mais aussi au milieu en lui-même (température ambiante, humidité,
etc.). Ces erreurs subsisteront et entacheront la grandeur que l’on recherche et
provoqueront une dispersion des résultats. Elles affectent essentiellement la
précision des mesures.
Dès que nous commençons à envisager la qualité des données collectées, nous souhaitons
l’interpréter comme la confiance accordée en vue de la performance des techniques mises en
œuvre et de la capacité des appareils utilisés. Partant de cette connaissance antérieure à
l’acquisition, on peut en déduire une inexactitude théorique (a priori) entachant les données.
Une fois l’acquisition achevée, des écarts empiriques (a posteriori) par rapport à une valeur
attendue ou bien encore des propriétés de distributions des mesurages (ex. la moyenne,
l’écart-type) peuvent être calculés. Ces valeurs servent à décrire l’exactitude et la précision.
Ces deux qualificatifs, par ailleurs, sont quelquefois confondus ce qui amène à les considérer
improprement comme des synonymes. Pour aller plus loin dans notre propos, on se doit de
clarifier ces deux notions en les définissant, puisqu’elles se réfèrent à deux propriétés bien
distinctes.
La précision ou la fidélité (precision) des données est l’étroitesse de l’accord entre les valeurs
mesurées ݉ෞప obtenues par des acquisitions répétées de même grandeur. Elle est quantifiable à
partir d’un seul jeu de données et permet de définir la dispersion des résultats (l’erreur
apparente ܸ). Selon les conditions, la précision peut être représentée par la répétabilité
(repeatability) ou la reproductibilité (reproducibility) d’une mesure. La répétabilité,
contrairement à la reproductibilité, est définie à travers des mesurages effectués par une même
personne, dans un même lieu, avec le même appareil et dans un laps de temps très court. En
revanche, dans le cas des nuages de points, il est quasiment impossible de remesurer un point
plusieurs fois. En effet, une estimation de la précision des données demeure complexe.
L’exactitude (accuracy) représente une concordance entre une valeur mesurée et une autre
considérée conventionnellement comme exacte. Elle n’est quantifiable que par rapport à une
véritable référence extérieure aux mesures. Son évaluation est toujours délicate puisque l’on
ne dispose jamais de valeur réelle ܯ.
Au-delà, pour des mesures multiples, la notion de justesse de mesure (trueness) définie par un
écart du barycentre de l’ensemble de mesures (moyenne arithmétique) par rapport à la valeur 30
de référence ܯ, est également employée. C’est ainsi l’erreur vraie de la moyenne
arithmétique.
Afin de caractériser la précision d’opérations de mesures, nous pouvons introduire l’Erreur
Moyenne Arithmétique ܣܯܧ correspondant à la moyenne des résidus ݁ pris en valeur
absolue, soit :
ܣܯܧ ൌ ∑ |݁| ே
ୀଵ
ܰ
(2.6)
On note alors ݁ ൌ ݉ෞെܯ ప l’erreur vraie d’une mesure (écart de la valeur observée d’une des
mesures ݉ෞ݅ par rapport à la valeur vraie ܯ), tandis que ܸ ൌ ݉ෞെܯ ప ഥ l’erreur apparente d’une
mesure (écart de la valeur observée ݉ෞ݅ par rapport à la moyenne arithmétique ܯഥ). Sur cette
base, nous définissons le carré moyen des erreurs, soit l’Erreur Quadratique Moyenne ܧܳܯ
(MSE pour Mean Square Error). C’est la moyenne arithmétique des carrés des écarts ݁ entre
les prévisions ܯ et les observations ݉ෞ݅, souvent utilisée pour comparer plusieurs estimateurs,
notamment lorsque l’un d’eux est biaisé. Nous la définissons via la formule mathématique :
ൌ ඨ1 ܯܳܧ
ܰ ሺ݁ሻଶ
ே
ୀଵ
(2.7)
Puisque la définition (2.7) exige que les erreurs vraies soient connues ce qui n’est
pratiquement jamais le cas, nous utilisons généralement à la place l’écart-type ߪ de la
distribution des valeurs de ݉ෞ݅ défini par :
σ ൌ ඨ∑ ܸ
ே ଶ
ୀଵ
ܰെ1
(2.8)
C’est la racine carré du quotient de la somme des carrées des erreurs ܸ par le nombre ܰ de
ces erreurs ou résidus, moins 1.
La Figure 2.17 contient une représentation classique des concepts de tir sur cible,
envisageant quatre configurations possibles. Elle illustre les deux termes évoqués qui seront
dorénavant utilisés dans ce mémoire pour quantifier les relevés laser mobiles. Nous
remarquons que les données peuvent être exactes sans être précises (Figure 2.17c) et
inversement (Figure 2.17b). Or, l’exactitude et la précision d’un résultat se vérifient toujours
séparément.
Figure 2.17 Exactitude vs. Précision d’une série de mesurages CHAPITRE 2. Acquisition et qualification de relevés laser
31
Les définitions ci-dessus s’inspirent du VIM (Vocabulaire International de Métrologie) [JCGM
200:2012] disponible sur le site internet du Bureau International des Poids et Mesures
(BIPM) et sont semblables à celles introduites par des éditoriaux de [Brabant, 2011]
[Newby, 2011] et [Hullo, 2013].
2.3.2 Critères servant à décrire la qualité de nuages mobiles
La problématique de l’évaluation de données laser n’étant pas triviale, nous pouvons définir
plusieurs critères fournissant des informations sur la qualité des données. Pour leur part
[Cahalane et al., 2010], affirment que la performance du système de cartographie mobile doit
être étudiée en termes de résolution, d’exactitude et de répétabilité des données acquises.
Quant à la résolution, elle se calcule en prenant en compte la répartition des points, à savoir
l’espacement entre les profils voisins, mais aussi celui entre les points appartenant au même
profil. Par le terme de répétabilité, nous exigeons que le système mobile soit capable de
produire des données de même qualité lors de chaque acquisition. Mais, il faut garder à
l’esprit que le fonctionnement du système mobile dépend fortement de la qualité du signal
GNSS. Par conséquent, le balayage effectué quelque temps après pourra être exposé aux
différentes configurations des satellites.
Une procédure semblable de validation est développée par [Yoo et al., 2010], effectuant une
analyse des relevés laser mobiles. Trois critères de qualité notamment la précision, la
résolution et la complétude sont parallèlement étudiés. Toutes ces notions servent à
attribuer une note unique synthétisant l’évaluation globale des nuages mobiles. La résolution
permet de vérifier la répartition spatiale des points et donc le niveau de détail dans la scène
numérisée. Il est évident que si les scanners fonctionnent à résolution angulaire fixe,
l’emplacement entre les points varie fortement en fonction de la distance scanner-objet. Les
zones très éloignées de la plate-forme seront donc acquises avec une résolution sousdensifiée
et celles plus proches avec une résolution sur-densifiée. Cependant, dans une
configuration optimale, les points doivent être répartis de manière homogène. Afin de bien
étudier cette problématique, deux termes sont introduits : la densité locale et la densité
moyenne. Tous deux représentent le nombre de points par m2. La densité locale (2.9)
associée à chaque point se calcule pour un voisinage local, étant incluse dans le rayon d’une
sphère (r). La distribution des points dans le nuage, d’après ce critère, sera visualisée par un
outil statistique appelé « boîtes à moustache ». Enfin, nous complétons ultérieurement les
analyses avec la densité moyenne (2.10).
݊ ൌ ܦ
ଶݎߨ
(2.9)
ܦഥ ൌ 1
்݊
ܦ
ୀଵ
(2.10)
où :
݊ – nombre de points dans le voisinage du point i
்݊ – nombre total de points dans le nuage
S'appuyant sur les calculs effectués, le Taux de Bonne Résolution (TBR) est aussi déterminé
selon l’équation (2.11). Celui-ci représente le pourcentage de zones ayant une densité
satisfaisante.
ൌ ܴܤܶ
݊
்݊
(2.11)
où :
n – nombre de points pour lesquels la densité est supérieure à la densité minimale souhaitée. 32
Le dernier critère, la complétude, interprète et mesure la surface totale couverte par les
points, puisque les acquisitions mobiles souffrent de problèmes d’occultations et de manque
de visibilité.
[Mano et al., 2012] développent un autre processus de qualification des nuages de points
mobiles. Ils regroupent quatre indicateurs décrivant : 1) la qualité du trajet dérivée à partir
du nombre de satellites visibles et du coefficient DOP ; 2) la précision ; 3) l’exactitude
absolue ; et 4) l’exactitude relative. Sachant que le système étudié est équipé de quatre
scanners laser, déployés dans une configuration spécifique, la vérification de la précision des
données consiste à comparer différents nuages de points captés indépendamment lors d’un
seul passage. L’information redondante entre les parties se chevauchant partiellement sert à
délivrer une note. Quant à l’exactitude absolue, elle peut être déterminée à l’aide des points
de contrôle mesurés au préalable. Le dernier critère, l’exactitude relative, suit le même
principe que l’étude de précision. La seule différence réside dans le fait que l’acquisition des
données est répétée au bout d’un certain temps. En assimilant les termes introduits dans la
section précédente, nous pouvons constater que cette notion correspond à la définition de
reproductibilité de données.
Tous les paramètres de qualité susnommés semblent être pertinents pour les besoins
d’évaluation des nuages de points. Néanmoins, comme le rapporte [Williams, 2012], le
comité d’ASPRS (American Society of Photogrammetry and Remote Sensing) recommande de
standardiser les procédures existantes, et de quantifier les relevés laser à l’aide seulement de
deux paramètres : la résolution et l’exactitude. Ces facteurs amènent à attribuer une note
commune (rating), tout en maintenant une distinction sur neuf niveaux de qualité (Figure
2.18). Une telle solution permettra aux utilisateurs de choisir des données satisfaisant leurs
exigences. Alors, la note 3A attribuée signifiera la densité élevée par-devers l’exactitude
faible, et cetera. Toutefois, ces données peuvent être suffisantes pour certaines applications
telles que la vérification du nombre de poteaux le long de la rue. Néanmoins, l’auteur ne
précise pas les valeurs numériques de résolution et d’exactitude prédéterminant les notes.
Figure 2.18 Niveaux de qualité définis ralliant l’exactitude et la résolution de données
2.3.3 État de l’art sur l’évaluation de l’exactitude de relevés laser mobiles
L’évaluation de l’exactitude et/ou de la précision de relevés lasers mobiles occupe une place
particulière dans les recherches actuelles. Nombreux sont les ouvrages décrivant différents
types de travaux à ce sujet. L’exactitude peut être considérée comme absolue et relative.
L’exactitude absolue est une estimation de la qualité réalisée par rapport à la véritable position
dans un cadre de référence terrestre. Elle répond à cette interrogation : Comment un nuage
de point est positionné dans un référentiel. Cependant, l’exactitude relative estime la qualité de CHAPITRE 2. Acquisition et qualification de relevés laser
33
la mesure d’un vecteur entre deux points. En la mesurant, nous recherchons l'exactitude des
points les uns par rapport aux autres, ou bien encore par rapport à l’origine du scanner laser.
Dans toutes les approches que nous allons aborder, l’exactitude sera déterminée par rapport
à des données plus précises que celles étudiées. Une référence de grande qualité, saisie par
opérateur et géo-référencée, est ordinairement employée. Celle-ci peut être établie lors d’un
levé topographique (tachéométrie, GPS), une acquisition laser statique, ou bien encore
extraite de différentes bases de données telles que : des orthoimages, des modèles de ville 3D,
des nuages LiDAR aéroporté, des bases de données topographiques ou des plans cadastraux
2D. La plupart des méthodes aboutissent à une comparaison de coordonnées de points de
contrôle homologues, distinguables dans les données étudiées. Ces éléments sont
fréquemment sélectionnés comme : 1) des sommets de marquages au sol [Gandofi et al.,
2008], [Barber et al., 2008], [Guan et al., 2013] ; 2) des poteaux et des lampadaires [Yoo,
2010], [Ridene, 2010] ; 3) des coins de bâtiments et de trottoirs [Kaartinen et al., 2012],
[Guan et al., 2013] , 4) des détails architecturaux [Poreba et Goulette, 2012] ; 5) des mires
3D spécialement conçues [Feng et al., 2008]. Certes, une telle approche souffre d’incertitude
quant aux points sélectionnés, puisque nous ne pouvons quasiment jamais indiquer deux
points homologues dans les nuages de points distincts. Ceci est causé par la nature des
données laser mobiles qui sont hétérogènes et anisotropes (leur distribution varie suivant la
direction). Ainsi, plus la densité des nuages de points est faible, plus la capacité de
sélectionner de points appropriés est limitée. Même si des cibles sont employées, il n’existe
aucune certitude que le faisceau laser balayera leurs centres. En outre, la qualité de chacun
des points laser dépend fortement de la réflectance de matériaux et de l’orientation d’objet
vers le scanner. La vérification de l’exactitude fait alors face à un certain nombre de défis.
Comme il a été explicité par [Barber et al., 2008] et [Williams, 2012], l’évaluation de
l’exactitude altimétrique est assez aisée par rapport à celle planimétrique. Ceci est dû au fait
que le calcul du biais planimétrique, contrairement à celui altimétrique, exige souvent
l’identification manuelle de points correspondants qui est ardue, malgré l’utilisation
d’informations supplémentaires telles que l’intensité (Figure 2.19).
Figure 2.19 Incertitude portant sur la mesure de l'exactitude : a) estimation de l'exactitude
verticale ; b) estimation de l'exactitude horizontale (Illustration reproduite à partir de
[Williams, 2012])
C’est pourquoi [Ray et Graham, 2008] proposent une méthode d’analyse d’exactitude
planimétrique fondée sur les primitives linéaires (des bords de marquages au sol) extraites, à
la fois, depuis des données LiDAR et des orthoimages. Mais, une telle approche paraît être
inappropriée pour évaluer les nuages de points captés par une plate-forme terrestre,
puisqu’elle est censée fournir des données de précision et de résolution beaucoup plus élevée.
Concernant l’erreur verticale, d’après [Kaartinen et al., 2012], elle peut être calculée à l’aide
d’un modèle numérique de terrain (MNT). 34
Un autre point de vue est mis en avant par [Haala et al., 2008] qui choisissent comme
référence des modèles de bâti 3D à partir desquels les surfaces planes seront isolées de
manière semi-automatique. Il existe aussi d’autres méthodes indépendantes d’extraction de
points de contrôle. Elles amènent à comparer des relevés laser entre eux. [Alshawa 2010]
confrontent les données mobiles avec les nuages statiques. Dans la même veine [Mano et al.,
2012] appliquent un algorithme nommé LS3D (Least Squares 3D) de [Gruen et Akca, 2005]
afin d’évaluer la précision et l’exactitude relative. Dès lors, le recalage rigide basé sur
différentes formes extraites depuis les données laser est réalisé. À titre d’explication, nous
observons que les trois dernières techniques considèrent l’écart résiduel calculé entre deux
nuages de points comme une mesure de qualité.
[Feng et al., 2008] élaborent une méthode comprenant l’évaluation qualitative et
quantitative des données laser. Dans un premier temps, un contrôle visuel de l’angle entre
les façades est effectué. En admettant que les murs adjacents d’un bâtiment forment un angle
droit, la qualité est notée comme faible ou élevée en fonction de la déviation observée. Plus le
nuage est déformé, plus la valeur d’angle est loin de 90°. La dernière étape vise à vérifier
l’exactitude absolue au sein d’une zone de test. À cet effet, des cibles 3D conçues pour
faciliter l’extraction de détails caractéristiques sont employées. L’exactitude est déterminée
par comparaison de coordonnées de cibles correspondantes : celles mesurées avec une station
totale avec celles extraites dans les données laser.
[Alshawa, 2010] propose une évaluation de l’exactitude par rapport à différentes références.
D’abord, un profil horizontal extrait au niveau du sol du relevé laser est comparé avec
l’emprise des bâtiments du plan CAO (plan cadastral 2D). Une autre solution envisagée
consiste à rapprocher, par recalage basé sur l’ICP (Iterative Closest Point), les données laser et
à calculer la distance résiduelle – l’indice de qualité. Deux approches possibles sont
suggérées : la comparaison mobile-statique mais aussi celle mobile-aéroporté. Néanmoins, il
est à noter que l’utilisation des données LiDAR comme référence soulève des préoccupations
bien qu’un avion soit équipé d'une centrale inertielle de haut de gamme et qu'une réception
du signal GNSS ne souffre pas trop de masques. Un nuage LiDAR, ayant souvent une
densité moins élevée, est censé avoir une précision relativement supérieure que des nuages
mobiles terrestres. Pourtant, en raison du faible recouvrement et d'une densité moins
importante de données laser aéroportées, une comparaison basée sur le calcul de distances
mutuelles est délicate à entreprendre. Afin de surmonter cet obstacle, il est possible d’ajouter
des plans aux sous-nuages afin de déterminer l’écart. Au contraire, quand on utilise un nuage
acquis en mode fixe, il est possible de calculer directement des écarts sous forme de distances
entre les points du nuage mobile et le maillage généré.
Une méthode tout à fait différente est développée par [Williams, 2012]. Elle aboutit à une
comparaison des coupes verticales 2D extraites depuis un nuage de points avec celles
mesurées à l’aide d’une station totale. Un carrefour a été choisi comme zone de test et quatre
profils en travers ont été disposés, un sur chaque aile du croisement. Puis des points
équidistants situés le long des profils ont été mesurés. Cette référence a permis de calculer et
de comparer des pentes correspondantes.
L’évaluation de l'exactitude étant fastidieuse, nous pouvons saisir pourquoi, grâce à quelques
approches mises en œuvre par les chercheurs cités ci-dessous. Il est indéniable que la
solution la plus répandue consiste à qualifier, sitôt après une acquisition, les relevés laser
mobiles. Néanmoins, la précision théorique est aussi abordée pour déterminer, par
l’intermédiaire des incertitudes, le facteur a priori affectant les nuages de points [Barber et
al., 2008], [Shaer, 2010], [Alshawa, 2010] et [Bitenc et al., 2011]. Puisque les erreurs
élémentaires de capteurs interagissent entre elles, la valeur finale suit alors la formule de
propagation d'erreurs. Comme nous l’observons dans le Chapitre 3 les sources d’erreurs liées
au fonctionnement d’un système mobile sont multiples. [Barber et al., 2008] concluent CHAPITRE 2. Acquisition et qualification de relevés laser
35
qu’elles proviennent principalement de la qualité du positionnement, mais aussi de la justesse
des scanners laser et enfin, de manière moins importante, de la synchronisation de ces
différentes données. Quant au récepteur GNSS, chaque point de la trajectoire reçoit une
estimation de qualité, caractérisant sa contribution à une erreur totale du système.
Concernant les scanners laser, à défaut de spécifications techniques suffisantes, fournies par
le constructeur et décrivant les éventuelles erreurs, il nous appartient d’opérer un
étalonnage. Dans le but de prévoir la précision des nuages de points LiDAR, un modèle de
propagation d’erreur a été proposé par [Shaer, 2010]. Il y dévoile quatorze états d’erreurs, à
savoir :
1) six erreurs de navigation – trois erreurs de positionnement en absolu, ainsi que trois
erreurs d’orientation, toutes estimées lors de la fusion GNSS/INS ;
2) six erreurs d’étalonnage – erreurs résiduelles liées à l’étalonnage de l’ensemble du
système dont trois décrivent les bras de levier et d’autres étant associées aux angles
boresight ;
3) deux erreurs internes de capteur laser – la précision des mesures d’angles et de
distances.
La transmission de toutes ces imprécisions suit la formule de géo-référencement direct (2.1)
afin de dériver la précision finale. Comme le souligne [Shaer, 2010], les études peuvent être
également complétées par une analyse d’influence de la géométrie du balayage sur la qualité
des nuages de points. Pour ce faire, nous prenons en compte deux critères : l’angle
d’incidence et la taille de l’empreinte laser. Étant donné que la qualité des relevés laser est
une accumulation d’erreurs aléatoires et systématiques propagées par le modèle de géoréférencement
et celles dues à l’analyse de géométrie, toutes ces composantes contribueront
à la valeur globale d’erreur. Cette constatation nous permet d’attribuer un indicateur de
qualité unique (nommé q-indicateur) à chaque point laser. La qualification des nuages de
points peut être désormais effectuée automatiquement durant l’acquisition (à la volée).
[Bitenc et al., 2011] cherchent, eux aussi, à vérifier la précision du système de cartographie
mobile terrestre. Leur démarche se traduit par une absence de données pouvant servir de
référence fiable, car les études ont été orientées vers la numérisation de dunes sans cesse
mouvantes. La procédure mise en œuvre, étant similaire à celle de [Shaer, 2010], fait appel
au modèle de géo-référencement direct. Nonobstant, elle se limite, telle que présentée, à
l’évaluation de la précision horizontale. Pareillement, les erreurs systématiques du système
ont été prises en compte ainsi que la géométrie de balayage performé.
2.4 Expérimentation
Comme nous venons de le constater, toutes les méthodes estimant l'exactitude, observées
dans la section précédente, visent à acquérir une référence plus précise que les données
étudiées. Cette solution prend du temps et semble être coûteuse, nécessitant aussi la
recherche de cibles suffisamment bien représentatives. Nous avons relevé ce défi en décidant
d’examiner la pertinence de quelques approches similaires à celles relevées dans la
littérature. Pour les besoins de nos analyses, nous avons voulu éviter la mise en place de
cibles et donc, nous nous sommes référés à des détails caractéristiques d’une scène conçue
par l’homme.
La zone de test a été choisie à Paris à proximité du Musée d’Orsay. La qualité du nuage de
points LARA3Dv2010_Orsay (Figure 2.7) acquis par notre plate-forme mobile pour laquelle :
la vitesse approximative était de 5km/h, la résolution des scanners SICK était de 0.25 degré
et sa fréquence de 18Hz, a été vérifiée. Comme l’affirme [Deschaud, 2010], la spécificité de
ce nuage est la suivante : la distance moyenne entre deux points voisins dans un profil est de
6.7 cm, tandis que celle entre points de profils successifs est égale à 7.4 cm. Le nuage est
alors hétérogène et localement anisotrope. En particulier, les distances d’un point à un autre 36
le plus proche varient entre 5 cm à 15 cm. Notre point de départ était l’évaluation qualitative
permettant d’observer si les relevés laser subissaient des déformations. Ensuite, l’exactitude
a été examinée à l’aide de deux références différentes : un levé topographique Orsay2011_topo,
et un nuage de points acquis en mode fixe Orsay2009_statique. Ces données ont été collectées
indépendamment après une acquisition mobile comme il a été décrit précédemment (2.2).
C'est pourquoi, dans cette section, nous détaillerons toutes les démarches effectuées, ainsi
que les avantages et inconvénients des techniques employées.
Comparaison avec le levé topographique
En raison du manque de géo-référencement – chaque jeu de données n’a pour référentiel
qu’un système local - l’estimation de qualité s’est donc limitée à l’exactitude relative. Les
levés topographiques ont été ajustés sur un nuage mobile à travers une transformation rigide
calculée à partir de trois points de contrôle observables dans les deux ensembles.
Dans un premier temps, les relevés laser mobiles ont été étudiés visuellement par rapport à
la coupe horizontale mesurée préalablement. Un profil correspondant, dont l’épaisseur était
suffisamment large pour inclure celui de référence, a été extrait du nuage de points. Nous
avons remarqué que nos données laser étaient suffisamment cohérentes même si elles étaient
localement entachées par certaines déformations ; c’est-à-dire, quelquefois étendues en
direction du véhicule, puis décalées (Figure 2.20). Cet état de fait est probablement dû aux
imperfections liées à l’implémentation du filtre de Kalman à l’étape de géo-référencement,
mais aussi aux capteurs de navigation de basse de gamme mise en place (notamment le
récepteur GPS mono-fréquence calculant la position sans corrections différentielles).
Figure 2.20 Coupe horizontale dans une superposition : levé topométrique (en rouge) –
nuage de points (en vert)
Pour compléter nos analyses, une évaluation quantitative a été faite à l’aide des points de
détails mesurés. Au lieu de nous appuyer sur les coordonnées, comme c’était ordinairement le
cas, nous avons pris en compte les distances mutuelles. La longueur de 43 tronçons reliant
les points entre eux sous différentes combinaisons était calculée. Les mêmes éléments ont été
manuellement retrouvés et mesurés dans le nuage de points mobiles. La comparaison
effectuée a démontré que l’exactitude de nos relevés laser mobiles, étant une moyenne des
différences de segments contrôlés, était de l’ordre de quelques décimètres. Les chiffres
obtenus ont révélé ainsi que les différences absolues ne dépassaient pas 20 cm pour 79% de
segments. CHAPITRE 2. Acquisition et qualification de relevés laser
37
Figure 2.21 Diagramme des différences de longueur de 43 segments de contrôle
La Figure 2.21 montre les erreurs obtenues en fonction de la longueur de segments
comparés. Leur grandeur a été différenciée par des couleurs évoluant avec un intervalle de
10cm. Nous pouvons alors constater que plus le tronçon est long, plus l’erreur mesurée est
importante, ce qui revient à dire que le nuage mobile est légèrement étiré. En dépit de cette
remarque, une différence de longueur égale ou inférieure à 10cm équivaut à une incertitude
avec laquelle nous distinguons les détails dans le nuage mobile, parce que sa résolution
moyenne était de 7cm. Quoi qu’il en soit, la sélection de points réalisée de manière interactive
demeure le point faible de cette méthode. Cette tâche est fastidieuse dans le cas de nuages de
points peu denses, et nécessite un temps de traitement conséquent. D’où aussi une source
importante d’erreurs, puisque la faible résolution de nuages de points empêche une
identification correcte de détails.
Recalage mobile-statique
En définitive, comme le suggère [Alshawa, 2010], un recalage rigide basé sur l’ICP a été
réalisé. Puisque cet algorithme ne permet pas d’aligner des nuages positionnés et orientés de
manière quelconque, comme c’est notre cas, nous avons d’abord recalé grossièrement les
deux relevés laser. Tout le traitement a été réalisé à l’aide de Cloud Compare v.2.5.1. Étant
donné que le nuage mobile étudié peut être localement déformé à cause d’une qualité
temporairement faible du système de positionnement, l’évaluation a été menée de deux
façons. Commençant par le recalage global de l’ensemble du nuage, nous avons obtenu une
distance moyenne de 18.5cm (calculée sur 26% de points) par rapport à la référence. Pour
contrôler la justesse de ce chiffre, quatre coupes transversales ont été créées à des hauteurs
différentes afin d’être visuellement vérifiées. Ainsi, une importante perte de qualité du nuage,
croissant avec la hauteur de plan sécant, a été notée. Des mesures prises manuellement ont
révélé que la distance entre deux nuages de points variait jusqu’à 28.5cm.
Figure 2.22 Sous-nuages extraits
-0,400
-0,300
-0,200
-0,100
0,000
0,100
0,200
0,300
0 20 40 60 80 100 120 140
Différence [m]
Longueur de segments [m]38
De ce fait, l’estimation itérative par morceau, ce qui ramène à découper le nuage de points en
six sous fragments comme l’illustre la Figure 2.22, a été effectuée. La comparaison, réalisée
séparément entre ces sous-nuages, a indiqué l’exactitude finale du nuage de points égale à
9.6cm (Tableau 2.2). Vu que la partie I était considérablement déformée, nous l’avons exclue
du processus de qualification.
Tableau 2.2 Distances moyennes calculées pour chaque sous-nuage
Jeu de données I II III IV V VI
Distance moyenne [cm]
pour 75% points
17.2 7.1 11.9 9.8 11.0 9.2
Moyenne [cm] 9.6
Pour conclure, l’utilisation du recalage permet d’évaluer rapidement l’exactitude relative des
données mobiles, particulièrement lorsqu'une référence précise est déjà disponible.
Néanmoins, si les nuages de points présentaient des déformations locales, dues à la dérive de
la centrale et au masquage GNSS, une application d’ICP provoquerait des déplacements
encore plus importants entre les données traitées. C'est pourquoi la valeur de distance
calculée n’exprimera correctement ni le shift entre les nuages ni l’échelle de ces déformations. 39
CHAPITRE 3
Erreurs relatives au système MMS
Sommaire :
3. Erreurs relatives au système MMS .................................................................................. 39
3.1 Analyse des erreurs liées à la cartographie mobile ........................................................... 40
3.1.1 Erreurs causées par le système de positionnement .................................................................. 40
3.1.2 Erreurs dues au capteur laser ....................................................................................................... 41
3.2 Amélioration des relevés laser mobiles ............................................................................... 43
3.2.1 Correction de la localisation en cours d’acquisition ................................................................. 43
3.2.2 Correction en post-traitement ...................................................................................................... 46
3.3 Étalonnage extrinsèque .......................................................................................................... 47
3.3.1 État de l’art sur l’étalonnage des excentricités linéaires ......................................................... 48
3.3.2 Étalonnage des systèmes embarqués de caméras ..................................................................... 49
3.3.3 Étalonnage des systèmes dotés de scanners .............................................................................. 51
3.4 Impact d’un faux étalonnage sur la géométrie du nuage ................................................. 54
3. Erreurs relatives au système MMS
Nous discutons, au sein de ce chapitre, de toutes les anomalies pouvant survenir lors du fonctionnement
d’un système MMS et entacher les données laser produites. Elles sont dues notamment aux capteurs
mal étalonnés, aux facteurs divers influençant la qualité de balayage laser et à l’étalonnage inexact de
l’ensemble du système. Il se peut aussi que le système de positionnement ne parvienne pas à acquérir une
localisation suffisante pour collecter des données précises au niveau du canyon urbain. En particulier,
les masques fréquents GNSS empêchent la bonne réception des signaux. Ces perturbations entraînent
une erreur absolue sur l’estimation de la trajectoire du véhicule qui n’est que partiellement compensée
par les informations de la centrale inertielle. De ce fait, un décalage (une dérive) entre la trajectoire
fournie par le système de positionnement et la trajectoire idéale est observé. Pour pallier cet
inconvénient, il existe un certain nombre de méthodes qui s’appliquent en temps réel ou lors de l’étape
de post-traitement. Elles visent à améliorer soit le trajet du véhicule, soit les données laser collectées.
Néanmoins, en raison du coût relativement élevé, la majorité des solutions apportées consiste à corriger
les nuages après l’acquisition, notamment par un recalage fondé sur l’ICP.
Étant donné qu’un faux étalonnage extrinsèque influencera la qualité de la localisation et par la suite
les relevés laser, nous donnons un aperçu des méthodes étalonnant le système intégral. Nous en
Résumé 40
ressortons que la plupart des approches nécessitent une zone de test adéquate, munie de cibles bien
reparties et mesurées précisément. Concernant les solutions appropriées lorsque des scanners de profil
2D sont embarqués, elles ne sont pas nombreuses et permettent surtout d’étalonner des systèmes
aéroportés ALS. Cependant, dans le cas des systèmes MLS dotés de scanners 2D placés latéralement,
nous constatons un manque de souplesse quand il s’agit de numériser un environnement plusieurs fois.
Un tel dispositif empêche le balayage multiple d’un même objet à partir de directions opposées. Par
conséquent, les méthodes conçues pour les systèmes ALS ne répondent pas aux exigences imposées par
les plates-formes terrestres. Pour combler cette lacune, les techniques appropriées doivent être avancées.
En dernier lieu, nous démontrons que les écarts d’angles boresight sont observables sur les arêtes
extraites, et donc ces dernières pourraient, en théorie, être utilisées pour étalonner le système.
3.1 Analyse des erreurs liées à la cartographie mobile
Nous venons de voir dans le chapitre précèdent que chacun des composants du système peut
contribuer à la qualité des nuages de points collectés. Parmi les erreurs les plus notables, ce
sont celles provenant du système de positionnement intégrant GNSS/INS/DMI. Les autres
sources d’anomalies, étant dans la hiérarchie sitôt après le GNSS, viennent du manque de
précision des points laser, c’est-à-dire qu’elles sont causées par des erreurs instrumentales
imputables au scanner laser lui-même, mais aussi à la nature de l’objet numérisé et à
l’environnement. Ces erreurs affectent les mesures angulaires et les distances, nous les
assimilons à celles connues par les tachéomètres. Elles peuvent être de types systématiques
et aléatoires. Enfin, de manière moins importante, les relevés laser mobiles sont entachés par
des erreurs de synchronisation de différents capteurs, et par de multiples imprécisions
survenues lors de leur étalonnage intrinsèque. L’étalonnage extrinsèque du système aussi ne
peut pas être négligé [Barber et al., 2008].
Dans cette section, les sources d’erreurs les plus fréquentes liées au fonctionnement du
système MMS, et par conséquent, pouvant empêcher la chaîne d’acquisition, vont être
présentées. Il s’agit des erreurs provoquées par le système de positionnement (3.1.1), aussi
bien que celles dues au scanner laser (3.1.2). La compréhension des relations entre
l’environnement et la grandeur d’erreur survenue est nécessaire pour quantifier la précision
des données.
3.1.1 Erreurs causées par le système de positionnement
Le système de positionnement est, parmi les autres capteurs, l’élément le plus prédisposé à
être affecté par des erreurs [Glennie et al., 2007]. Nous discuterons dans ce paragraphe des
problèmes typiques liés à son fonctionnement. La fusion multi-capteurs a pour finalité
d’optimiser la précision de la position calculée en profitant d’un capteur pour pallier aux
défauts des autres, notamment en recalant en permanence la dérivée de l’IMU par
l’information GNSS, voire de fournir une trajectoire même en l’absence de signal GNSS.
Pour mettre en évidence les erreurs propres aux capteurs, nous observerons deux
composants principaux du système : le positionnement par GNSS et la navigation inertielle
INS.
Dans le cas d’un système mobile de cartographie, le positionnement à corrections
différentielles dGPS se trouve être le plus répandu. Une telle solution permet, par défaut, de
réduire plusieurs erreurs inhérentes au système telles que celles d’horloges, d’éphémérides, la
propagation du signal dans l’ionosphère et la troposphère. Pourtant, la qualité de la position
demeure toujours fortement liée à la configuration des satellites, c’est-à-dire à leur
constellation. Des satellites uniformément répartis sont une situation préférable
contrairement à celle où ils se retrouvent tous dans la même portion du ciel. La dégradation
de la précision géométrique GDOP (Geometric Dilution Of Precision) est un indice quantifiant
cet impact. Il faut encore mentionner les problèmes des multi-trajets et ceux des masques CHAPITRE 3. Erreurs relatives au système MMS
41
GNSS, inextricablement liés à des canyons urbains. Ces derniers sont dus au blocage du
signal, engendrés par les arbres, les tunnels ou les hauts bâtiments. Tandis que les premiers
provoquent des erreurs dans la mesure de distance entre le satellite et le récepteur, pouvant
atteindre plusieurs mètres (mesures de pseudo-distance) ou quelques centimètres (mesures
de phase), les trajets multiples sont difficiles à éliminer puisque les conditions de réflexions
des signaux sur des surfaces ne sont pas les mêmes d’un site à l’autre [Abuhadrous, 2005].
La centrale inertielle sert en permanence au calcul de trajectoire. La navigation inertielle
étant un système autonome, son avantage est d’avoir une bonne précision à court terme, sans
aucune information extérieure. En revanche, ces capteurs sont peu fiables, s’il s’agit de
positionnement sur une longue période de temps. Cet état de fait est causé par trois
principales sources d’anomalies : des erreurs d’alignement initial (pour les angles roulis,
tangage et lacet), des erreurs de capteur inertiel (dérive de gyromètres, biais
d’accéléromètres) et de calcul [Titterton et Weston, 2004]. Toutefois, la question de la
précision de la centrale inertielle est bien plus complexe qu’il n’y paraît. Mais, les fabricants
n’exposent guère le modèle mathématique de calcul de la mécanisation et de la compensation
de l’INS.
En fin de compte, toutes les plates-formes mobiles se localisant grâce à des systèmes
hybrides GNSS/INS souffrent d’un biais observable entre les nuages de points redondants.
Les pertes temporaires du signal GNSS s’avèrent être la cause d’un décalage dans
l’estimation de la trajectoire du véhicule. Pareillement, les données laser récoltées avec un
système LiDAR aérien sont encombrées par des écarts planimétriques et altimétriques,
résultant, cette fois-ci, de la dérive (drift) de la centrale inertielle.
3.1.2 Erreurs dues au capteur laser
Plusieurs sources d’erreurs peuvent affecter les données acquises par un scanner laser seul.
De plus, elles varient d’un instrument à l’autre et dépendent de la qualité du dispositif et de
son étalonnage. Ce dernier ayant pour but de corriger les erreurs systématiques inhérentes
au système, l’étalonnage doit être régulièrement effectué et non seulement lors de la
première utilisation. Aussi, les spécifications techniques transmises par les constructeurs de
scanners doivent être vérifiées, puisqu’elles sont obtenues dans des conditions idéales de
mesures et ont tendance à être surestimées. Pour pouvoir estimer l’exactitude/la précision de
chaque point laser, il faut considérer l’ensemble des facteurs intervenants. [Steiger, 2005]
propose, conformément au schéma affiché par la Figure 3.1, de lister toutes les
caractéristiques importantes influençant la qualité des nuages de points. La discussion
exhaustive, concernant le principe du balayage laser terrestre, mais aussi toutes les sources
d’erreurs inhérentes au fonctionnement d’un scanner, est présentée par [Pawleta et Igielska,
2009], [Boulaassal, 2010], [Landes et Grussenmeyer, 2011] et [Landes et al., 2012].
Puisqu’un scanner laser effectue des mesures au même titre que le ferait un tachéomètre,
aussi leurs modèles s’avèrent relativement semblables. Plus précisément, il est préférable de
mettre en évidence deux caractéristiques – l’imprécision d’angles et de distance. Les deux
angles (vertical et horizontal) souffrent des erreurs typiques d’un tachéomètre comme
l’erreur de collimation horizontale, l’erreur d’index et l’inclinaison de l’axe vertical. Mais,
l’incertitude de la distance est indépendante de celle des angles, car le principe des mesures
de chaque grandeur est différent. Parmi ces erreurs, le facteur d’échelle et l’erreur de zéro
peuvent être cités. La qualification de la précision de mesure angulaire s’effectue en mesurant
de courtes distances verticales et horizontales entre les cibles déployées (p.ex. des sphères).
Celles-ci sont comparées ensuite aux mesures de référence obtenues grâce à des appareils
beaucoup plus précis. De son côté, l’exactitude de mesure des distances est aussi vérifiable.
Étant donné que le bruit affectant le nuage de points lui donne une certaine épaisseur, l’une
des façons de le mesurer consiste à balayer une cible plane orientée perpendiculairement au 42
scanner laser. L’exactitude sur la mesure de distance, exprimée en tant que l’écart-type, peut
ainsi correspondre à la dispersion des points autour du plan moyen.
Figure 3.1 Sources d’erreurs sur des mesures avec le scanner laser terrestre
*facteur valable uniquement pour le balayage laser statique
De surcroît, d’autres facteurs ayant un impact sur les points mesurés méritent d’être
également envisagés tels que la résolution spatiale, la portée (la distance minimale et
maximale à laquelle le scanner laser est capable de fournir des mesures fiables), la taille de
l’empreinte laser, l’impact de différentes propriétés des matériaux composant la surface, le
problème d’angle d’incidence et la rencontre par faisceau laser d’une arête (échos moyennés).
Plusieurs études concernant le comportement du faisceau laser sur les surfaces composées de
multiples matériaux ont été effectuées entre autres par [Boehler et al., 2003], [Hanke et al.,
2006], [Feng et al., 2008], [Hiremagalur et al., 2009], [Pawleta et Igielska, 2009] et
[Boulaassal, 2010], [Landes et al., 2012]. La caractéristique prise en compte était la couleur,
le type de matériel (papier, verre, bois, métal, crépis, pierre), son humidité et sa rugosité.
Différentes cibles ont été proposées (Figure 3.2) non seulement pour tester la performance
des scanners laser existants, mais aussi pour les comparer. Les résultats obtenus montrent
que l’élément influençant davantage la qualité est la réflectivité de l’objet à une longueur
d’onde et l’orientation de l’objet envers le capteur laser [Pesci et al., 2008]. Une source
d’erreurs significatives, à laquelle il nous faut faire attention, est la manière avec laquelle un
matériau numérisé renvoie la lumière laser. Tandis que le retour depuis les surfaces blanches
est fort, la quantité de lumière retournée par celles noires est beaucoup plus faible. Des
matériaux très réfléchissants tels que le marquage au sol, les diapositifs rétro-réfléchissants
peuvent produire aussi des effets supplémentaires comme la saturation et le flou lumineux CHAPITRE 3. Erreurs relatives au système MMS
43
(bloom effect) [Vosselman, 2010]. La saturation étant causée par un excès d’énergie renvoyée,
elle apparaît sous forme de points répartis le long de la ligne de visée. Cependant, le flou
lumineux se manifeste par un élargissement de l’objet [Williams, 2012]. Pour résumer, la
réflectance d’un objet (albédo) joue sur la quantité de lumière reçue par l’instrument après
réflexion, en lui permettant de faire la mesure. De manière générale, plus le signal
rétrodiffusé est faible (que ce soit par réflectivité faible du matériau ou bien encore par angle
d’incidence), plus l’observation sera bruitée. Les analyses de [Soudarissanane et al., 2009]
montrent que, dans un cas pratique, un angle d’incidence inférieur à 60 degrés prévaut sur la
qualité des nuages de points.
Figure 3.2 Exemple de cibles permettant de tester la performance du scanner laser
terrestre :a) Précision angulaire ; b) Angle d’incidence ; c) Échos moyennés – effet de bord
(edge effect) ; d) Résolution ; e) Réflectance [Boehler et al., 2003]
3.2 Amélioration des relevés laser mobiles
C’est sur cette base que nous observons une nécessité d’améliorer les résultats produits par
un système de cartographie terrestre MLS. Au regard des solutions apportées, conçues à cet
effet, il semble raisonnable de les élaborer en deux paragraphes. La section 3.2.1 se penchera
sur les approches visant à renforcer la précision du système de positionnement en temps réel.
Les techniques appliquées lors de l’étape de post-traitement seront discutées dans la section
3.2.2. Cependant, la problématique d’étalonnage extrinsèque est élaborée séparément (3.3).
3.2.1 Correction de la localisation en cours d’acquisition
Pseudolites (PL)
Puisque la qualité des données « mobiles » est déterminée par la précision du
positionnement, la performance de l’ensemble du système en dépendra aussi. Le système
intégré GNSS/INS joue un rôle important, mais en même temps, son fonctionnement peut
se voir affecté du fait des obstructions du signal GNSS dans un environnement urbain
(atténuations, masquages, trajets multiples). Aussi, un nombre suffisant de satellites dits
« visibles » ne peut pas être garanti partout. De plus, même si certains satellites, situés sur
l’horizon, sont censés être suivis, nous remarquons que leurs signaux sont entachés par un
bruit assez élevé. Une méthode tenant à déployer une constellation locale de satellites grâce
à une augmentation des niveaux de signaux GNSS a été mise au point. Son but est
d’améliorer la précision de la localisation, mais aussi de rendre accessible le signal GNSS en
intérieur (localisation en indoor). Il s’agit des pseudolites (pseudo-satellites), à savoir des
émetteurs terrestres de signaux dont le format est identique ou similaire à ceux émis par les
satellites. La portée de ces signaux est variable - elle dépend de leur puissance et de leur
utilisation. Le principe est de mettre en place, dans une zone dite de « contraintes » non
couverte par le GNSS, des transmetteurs permettant à un récepteur d’acquérir un nombre
suffisant de signaux et de calculer sa position 3D. Autrement dit, les émetteurs jouent
localement le rôle des satellites et leurs signaux sont traités de la même manière que ceux
des satellites. La Figure 3.3 illustre le principe de positionnement avec un réseau de
pseudolites (ܲܵ). 44
Figure 3.3 Positionnement des pseudolites en : a) indoor (Image reproduite à partir de
[Vervisch-Picois, 2010]) ; b) outdoor
Plusieurs équipes à travers le monde travaillent sur la localisation avec les pseudolites.
Parmi les derniers travaux concernant la localisation en indoor, nous pouvons citer ceux
présentés par [Vervisch-Picois, 2010], [Selmi, 2013]. Néanmoins, l’efficacité d’une telle
solution, c’est-à-dire la fusion GNSS/PL/IMU pour les besoins du système mobile terrestre
MMS a été aussi testée par [Wang et al., 2001], [Babu et Wang, 2009] et [GrejnerBrzezinska
et al., 2010]. Le concept de la mise en œuvre des pseudolites est toujours en cours
de développement, mais les résultats obtenus montrent déjà leur potentiel. [Ning et al.,
2007] affirment que les mesures effectuées à l’aide de pseudolites ont un facteur DOP
(Dilution of precision) réduit d’au moins 35%. En revanche, comme l’explique [Selmi, 2013],
la nécessité de synchroniser les pseudolites constitue la phase la plus coûteuse et la plus
complexe de cette technique.
Terrain Referenced Navigation (TRN)
Le Terrain Referenced Navigation System (TRN) sert à calculer la position de la plate-forme
en mouvement (avion, UAV, véhicule), en comparant sa position actuelle par rapport au sol,
sans recourir au GNSS dont le signal peut être brouillé par l’ennemi (application militaire),
ou voire tout simplement indisponible. Dans ce cas, il nous faut fournir des outils de
navigation alternative, lorsque le système GNSS n’est plus joignable. En l’absence de
données GNSS, la localisation d’un véhicule est habituellement réalisée en utilisant une
combinaison d’odométrie roue (DMI) et de capteurs inertiels. Par contre, une telle solution a
deux limitations principales : les centrales inertielles sont sujettes, au fil du temps, à la
dérive, et le DMI reste sensible aux dérapages et aux glissements de roues. De plus,
l’odométrie roue ne donne qu’une information 2D dans le plan de la route.
Grâce au TRN, la position et l’attitude sont déterminées, toutes deux étant un support à la
navigation inertielle. L’idée consiste donc à combiner la navigation inertielle avec les
informations provenant directement du terrain. La performance d’un tel système dépendra
de la qualité du capteur INS employé. Plus il est exact, plus précise sera la position calculée.
Il existe plusieurs approches permettant d’établir la navigation TRN y compris le filtre de
Kalman étendu (EKF), le filtre de Kalman inodore (UKF) ou le filtre particulaire [Lee et al.,
2013]. Des informations de la scène provenant des images/nuages de points sont employées CHAPITRE 3. Erreurs relatives au système MMS
45
afin d’estimer la trajectoire du véhicule, tout en se référant à des méthodes de l’odométrie
visuelle. Or, le déplacement relatif d’un capteur optique (caméra, télémètre laser) entre deux
points de vue sera déterminé à travers une analyse des images successives. Les méthodes
existantes visent à identifier les « features » (amers) sous forme de points, lignes ou surfaces
pour les mettre ensuite en correspondance. Cette tâche n’étant pas triviale, il existe plusieurs
techniques susceptibles d’être appliquées. Dans le cas de l’odométrie basée vision, le
mouvement est estimé à partir d’une séquence d’images après la mise en correspondance
robuste de points d’intérêts du type Harris [Harris et Stephens, 1988], SIFT (Scale-Invariant
FeatureTransform) [Lowe, 2004], ou SURF (Speeded Up RobustFeature). Aussi, l’algorithme
d’ICP (Iterative Closest Point) permettant de recaler toute sorte d’entités géométriques entre
elles (2D et 3D) peut être utilisé. Pour plus d’informations concernant l’odométrie 3D basée
LiDAR et vision, le lecteur pourra se référer à [Frémont, 2009]. Néanmoins, comme le
constatent [Toth et al., 2009], le rapport du TRN avec les applications de la cartographie
mobile est double :
1) La localisation précise en position et en orientation (en temps réel) se base sur
l’extraction de caractéristiques et elle dépend tout particulièrement de la capacité de
la procédure d’isolement des objets mobiles parmi ceux étant statiques. En effet, dans
un environnement routier, plusieurs objets sont en mouvement (piétons,
automobiles, cyclistes, motos, etc.) et conjointement avec la dynamique propre du
véhicule (accélération, décélération), ils constituent un challenge supplémentaire,
pouvant altérer la perception.
2) L’utilisation de données déjà existantes telles que des modèles numériques de terrain
(MNT), des données vectorielles et du SIG (Système d’Information Géographique) peut
indubitablement soutenir les processus d’extraction de caractéristiques.
D’après [Toth et al., 2009], l’utilisation du TRN présente plusieurs intérêts. Mais, il y a des
défis à relever pour rendre cette navigation opérationnelle dans des environnements
complexes de cartographie mobile. Tout d’abord, la grande quantité de données à traiter (Big
Data) reste un objet certain de préoccupation. Ensuite, le traitement en temps réel pose un
vrai problème tant en terme de capacité que de complexité d’espace numérisé contenant une
variété d’objets provenant de dynamiques différentes.
Toutefois, une solution semblable est aussi proposée par [Narayana, 2011]. Il emploie,
comme outil complémentaire à la localisation, des scanners laser de profil 2D. Son approche
peut être assimilée à la solution conçue pour la localisation en intérieur d’un robot ou d’un
véhicule autonome - connue sous le nom de cartographie et de localisation simultanées
(SLAM). L’ensemble des démarches mises en œuvre fait appel à l’odométrie basée laser,
puisque le déplacement relatif est mesuré par rapport à des propriétés invariables de
l’environnement balayé par scanner. Notamment les surfaces planes fortement présentes
dans les environnements aménagés par l’homme, sont utilisées pour en déduire un
mouvement en 3D.
Autres solutions moins complexes
Nous venons d’observer un exemple de solutions à l’aide de localisation qui s’avèrent assez
complexes lors de l’étape de l’implémentation. Alternativement [Zampa et Confortie, 2009],
font appel à une technique couramment utilisée. Il s’agit d’augmenter la précision de la
trajectoire à travers des stations de référence GNSS supplémentaires mises en place. De plus,
des points de contrôle déployés tous les 50 à 80 mètres le long du trajet servent
ultérieurement à corriger les relevés laser. Une approche tout à fait similaire a été aussi
décrite par [Gandofi et al., 2008], sauf que la position optimale des stations GNSS a été
retrouvée grâce à des « pré-acquisitions » réalisées quelques jours auparavant. En dépit de 46
tous les avantages de cette solution, l’emplacement des stations de contrôle au sol s’avère
très coûteux.
3.2.2 Correction en post-traitement
Le second groupe de techniques d’amélioration de performance de système mobile contient
des outils permettant la correction de données en post-traitement.
Les travaux de [Tournaire et al., 2006], [Ridene, 2010] et [Monnier et al., 2013] s’appuient
sur un recalage entre les données mobiles et les bases de données géographiques mieux géopositionnées
mais beaucoup moins détaillées. [Tournaire et al., 2006] améliorent l’étape de
géo-référencement du véhicule à l’aide de l’imagerie aérienne (résolution d’au moins 20cm).
Les informations 3D extraites des stéréos – paires sont fusionnées avec celles des
orthoimages. À cet égard, des marquages au sol, à savoir les passages piétons, ont été
détectés et reconstruits à partir de ces deux types de données image. Ensuite, les
coordonnées 3D des points extraits du marquage au sol ont été incorporées lors de la
triangulation photogrammétrique (Photogrammetry Bundle Adjustment) afin de corriger la
localisation absolue des images terrestres. [Ridene, 2010], quant à lui, examine des solutions
permettant de mettre en cohérence différents types de données. Il propose certains scénarios
de corrections de relevés laser mobiles par rapport à des données externes au système de
cartographie mobile (p.ex. nuage de points statique, modèle numérique de surface). Il s’agit
du recalage rigide de la famille ICP des données 3D. Enfin, le processus de [Monnier et al.,
2013] se base sur un recalage non rigide fondé, lui aussi, sur le principe d’ICP d’un point à
un plan. L’hypothèse que l’erreur de positionnement varie lentement, au fil du temps, de
façon non linéaire a été faite. Dès lors, la trajectoire de la plate-forme est déformée
itérativement, morceau par morceau, afin de minimiser la distance des points du nuage
mobile aux primitives planes du modèle. Ce dernier constitue une base de données
géographiques (2D ou 3D) composée de primitives ponctuelles (poteaux, repères de
nivellement, sommets d’objets polyédriques), linéaires (arêtes, cadastre, limites de trottoirs)
ou bien encore surfaciques (faces d’objets).
Nous pouvons aussi nous confronter aux méthodes semblables à celles de l’odométrie
visuelle, mais cette fois-ci, appliquées après les acquisitions. [Cazzaniga et al., 2007]
développent une solution s’inspirant de la photogrammétrie, particulièrement de la
stéréovision. Leur approche est assez limpide. Il s’agit de comparer la position de la caméra
calculée à partir des images stéréoscopiques avec celle prévue par le système de
positionnement GNSS/INS. Plus précisément, le but est d’évaluer les éléments d’orientation
externe (EOZ) déterminés indépendamment pour identifier et corriger les interruptions
temporaires dans la réception du signal GNSS. De même [Shi, 2008] suggère d’effectuer la
triangulation des images à partir des points de contrôle précis, extraits, cette fois-ci, à partir
des données fusionnées images/laser - afin d’améliorer la position et l’orientation de la
caméra.
[Yousif et al., 2010] étudient la validité de théorie de l’assimilation de [Reichle, 2008] pour
renforcer le positionnement du véhicule. Selon cette théorie, le processus mis en œuvre vise à
s’appuyer sur la corrélation existante entre deux observations différentes d’un phénomène de
manière à obtenir la meilleure estimation de l’état réel. C’est pourquoi deux nuages de points
acquis lors d’un trajet aller-retour au sein de la même zone sont intégrés.
[Alshawa, 2010] envisage une méthode radicalement différente. Un récepteur GPS de
« haute sensibilité » (HSGPS) est utilisé simultanément avec un GPS différentiel (dGPS). Ce
premier étant moins précis, il fournit, contrairement au dGPS, des informations en continu
sur la trajectoire. Pour pouvoir traiter une telle configuration, les trajets déterminés
indépendamment par deux récepteurs sont comparés. D’abord, l’écart entre ces échantillons
est réduit en appliquant, à des données moins précises, une transformation permettant de les CHAPITRE 3. Erreurs relatives au système MMS
47
faire coïncider avec celles ayant la précision plus élevée. Une fois les trajectoires fusionnées,
une courbe ajustant au mieux ces données, est retrouvée. La dernière étape nous amène à
interpoler des points du trajet.
Autre possibilité [Narayana, 2011] présente une méthode visant à corriger, par lissage des
données, la trajectoire enregistrée, puisqu’elle souffre de certaines erreurs provoquées par
des limitations de capteurs de positionnement. Il en conclut qu’une telle solution étant
insuffisante pour surmonter les problèmes dus aux lacunes GNSS, que celle-ci peut être
toutefois très utile pour corriger les sauts d'altitude et les anomalies d'azimut (lacet) de la
trajectoire enregistrée.
3.3 Étalonnage extrinsèque
L’étalonnage géométrique des systèmes mobiles basés sur LiDAR revient à estimer et à
éliminer les erreurs systématiques qui affectent les nuages de points collectés. Ces erreurs
sont causées par les biais de paramètres du système, notamment le biais des paramètres de
montage de capteurs (relations spatiales entre les modules), ainsi que par les incertitudes des
mesures d’angles et de distance inhérentes aux composantes du scanner utilisé [Habib et al.,
2011]. L’étalonnage dans le contexte des systèmes mobiles désigne alors deux pistes à
suivre : 1) l’étalonnage de chaque scanner laser (étalonnage intrinsèque) ; 2) l’étalonnage du
système intégral (étalonnage extrinsèque).
L’étalonnage extrinsèque contient des procédures nécessaires pour estimer les constantes de
calcul, à savoir la position et l’orientation des capteurs de perception (caméra, laser) dans le
repère lié à la centrale inertielle (b). Nous les exprimons par : trois composantes de
translation ݎ/௦
(excentricité linéaire entre le centre de l’unité inertielle IMU et le centre du
scanner), et trois en rotation ܴ௦
(matrice de boresight). Au-delà, nous pouvons mentionner
d’autres excentricités linéaires (bras de levier) entre les capteurs de localisation, à savoir la
distance ݎ/ீேேௌ
entre le centre de phase de l’antenne GNSS et le centre de masse de l’IMU,
et la distance ݎ/ெூ
entre le centre de l’IMU et l’odomètre. Lors de l’étape de géo –
référencement direct (formule 2.1), ces deux paramètres servent à calculer la trajectoire de la
plate-forme dans le repère local (M). L’étalonnage réalisé avec beaucoup de soin, est alors
indispensable pour, d’une part rendre le système opérationnel, d’autre part pour fournir des
données de qualité élevée. Sinon, chaque erreur commise dans l’étalonnage du système
intégral influencera la qualité de la localisation, et par suite les relevés laser.
Cette section donnera un aperçu des méthodes récentes d’étalonnage extrinsèque d’un
système mobile de cartographie, et expliquera brièvement leurs principes. Puisque les
translations peuvent être souvent déterminées par des mesures conventionnelles, nous
présentons l’une des solutions envisageables. Concernant les composantes en
rotation ൫݁ݔ, ݁ݕ, ݁ݖ൯ formant la matrice de boresight ܴ௦
, celles-ci doivent être déterminées
indirectement. Cette résultante est due au fait qu’il s’avère impossible de les mesurer en
utilisant des instruments employés habituellement pour les levés topographiques et
géodésiques. Il existe plusieurs approches permettant d’estimer des excentricités angulaires,
mais la majorité nécessite une zone de test munie de cibles uniformément réparties et
mesurées. Nous aborderons, au sein de cette section, les techniques existantes en les
regroupant en deux catégories : 1) celles dédiées aux systèmes basés sur les caméras (3.3.2) ;
2) celles appropriées aux systèmes embarqués des scanners laser (3.3.3). Ensuite (3.4), nous
présenterons une étude d’impact d’un étalonnage imprécis sur la géométrie des arêtes
extraites. Les notations employées ont été précédemment expliquées avec la Figure 2.3, dans
le Chapitre 2. 48
3.3.1 État de l’art sur l’étalonnage des excentricités linéaires
L’une des manières de connaître les excentricités linéaires est de les mesurer tout
simplement à l’aide des techniques traditionnelles (tachéomètre, récepteur GNSS, etc.). Une
seule condition requise est de pouvoir mener une observation directe des points
caractéristiques. Les deux cibles visées doivent alors être visibles et identifiables. Autrement,
l’étalonnage demeure assez compliqué à effectuer et les grandeurs ne pourront pas être
déterminées avec une précision suffisante.
La Figure 3.4 illustre une procédure concevable pour mesurer le bras de levier entre
l’antenne GNSS et la centrale inertielle. C’est une adaptation de l’approche discutée par
[Shear, 2010] et utilisée, par défaut, lors de l’étalonnage des systèmes aériens ALS.
Figure 3.4 Procédure pour déterminer le bras de levier entre les capteurs de localisation
Après avoir fait des mesures GNSS et tachéométriques, les translations ݎ/ீேேௌ
se calculent
comme suit :
ேேௌீ/ݎ
ൌ ܽோாி
െ ܴ
ܴெ
ேௌௌீ/ݎ
ெ (3.1)
où :
ܽோாி
: offset fourni par le constructeur en raison de l’impossibilité d’observer le centre de
l’IMU
ேேௌீ/ݎ
ெ : position de l’antenne GNSS déterminée dans le repère terrain (M) CHAPITRE 3. Erreurs relatives au système MMS
49
ܴ
: matrice de passage du repère lié à l’IMU (b) vers le repère véhicule (l), définie par trois
angles (roulis, tangage et lacet)
ܴெ
: matrice de rotation permettant un changement du repère véhicule (l) au repère terrain
(M), calculée selon la formule ܴெ
ൌ ሺܴ
ሻ௧ܴெ
Également, toutes les excentricités linéaires notamment ݎ/௦
et ݎ/ெூ
peuvent être spécifiées
à travers une telle procédure. Comme l’affirment [Ellum et El-Sheimy, 2002], [Shear, 2010]
et [Li-Chee-Ming et al., 2011], la principale limite de cette méthode est l’impossibilité à
observer directement les centres de capteurs. De ce fait, les bras de levier seront connus avec
une précision centimétrique. C’est pourquoi cette approche peut être parfois insuffisante et le
calcul des paramètres doit se faire d’une autre manière.
3.3.2 Étalonnage des systèmes embarqués de caméras
Les premiers systèmes mobiles de cartographie étaient conçus pour recueillir des
informations sur un environnement en se servant des images. Leur principe consistait à
adapter des algorithmes bien connus dans le domaine de photogrammétrie. Il s’agissait alors
de mettre en pratique une stéréoscopie permettant de reconstituer le relief de la scène à
partir d’images prises sous différents points de vue de l’objet. En conséquence, la question de
l’étalonnage des systèmes basés sur des caméras était largement discutée dans la littérature.
Excentricités angulaires
Afin d’identifier les excentricités angulaires, deux méthodes semblent être le plus souvent
évoquées [El-Sheimy, 2011]. La première possibilité nommée « 1-step » amène à incorporer
les trois paramètres de rotation ൫݁௫, ݁௬, ݁௭൯ (3.2) comme inconnues supplémentaires, dans un
ajustement par faisceaux, ou dans une compensation par moindres carrés.
ܴ௦
ൌ ܴ௭ሺ݁௭ሻܴ൫݁௬൯ܴሺ݁௫ሻ (3.2)
Une autre solution, plus répandue, est le procédé « 2-step ». Il comprend deux étapes
principales. Dans un premier temps, nous déterminons, pour chacune des images, deux
matrices de rotation :
1) ܴ
ெ du repère lié à la centrale inertielle (b) vers le repère terrain (M). Elle représente
les mesures de l’IMU effectuées lors de l’acquisition.
2) ܴ௦
ெ du cadre capteur (s) vers le repère terrain (M). Ses composants sont calculés par
une terra-triangulation assistée par GNSS.
Ensuite, les deux matrices, c’est-à-dire, celle dérivée de l’IMU et celle déterminée par
photogrammétrie, sont comparées selon la formule :
ܴ௦
ൌ ൫ܴ
ெሺݐሻ൯
ିଵܴ௦
ெ (3.3)
Pour chaque image prise, il en découle une matrice de boresight ܴ௦
. La moyenne de ses
éléments individuels correspond aux excentricités angulaires recherchées. Néanmoins, il faut
noter qu’il apparaît impossible de prendre la moyenne directement puisque la matrice de
rotation n’est probablement pas orthogonale. Elle doit être d’abord représentée par les
angles eulériens ou par les quaternions afin de pouvoir reconstruire la matrice de boresight
finale. 50
Bras de levier
Le classement des méthodes étalonnant les excentricités linéaires entre les caméras et le
centre de navigation ressemble à celui évoqué pour les excentricités angulaires. Se référant à
des techniques indirectes, ces paramètres sont calculés soit pendant l’ajustement :
௦/ݎ
ൌ ሺݔ௦
ெ, ݕ௦
ெ, ݖ௦
ெሻ் (3.4)
soit, pour chaque image ; la position dérivée par système intégré GNSS/INS/DMI sera
comparée avec celle fournie par la terra-triangulation :
௦/ݎ
ൌ ሺܴ௦
ெሻିଵ ∙ ൫ݎ/ீேௌௌ
ெ ሺݐሻ െ ݎ௦
ெ൯ (3.5)
Enfin, la moyenne de tous les paramètres obtenus décrira l’excentricité linéaire ݎ/௦
.
Aperçu des méthodes
Le Tableau 3.1 récapitule quelques approches récentes traitant du sujet de l’étalonnage. Leur
exactitude dépendra fortement de la zone de test qui doit être appropriée en vue d’utiliser
simultanément le positionnement par GNSS et la photogrammétrie.
Pour pallier le problème de blocage du signal GNSS, [Hassan et El-Sheimy., 2008]
suggèrent de placer sur un véhicule un prisme réflecteur et de le suivre avec une station
totale en utilisant le mode continu de mesure (tracking). Cette information constituera un
support au système de navigation inertielle travaillant de façon automne.
Tableau 3.1 Exemple de travaux étalonnant indirectement les deux types d’excentricités :
caméra/IMU
Auteurs Zone de test
Excentricité
linéaire
Excentricités
angulaires
[Li-Chee-Ming et al., 2011] Amers naturels Procédé « 2-step »
[Rau et al., 2011a] 67 cibles Nouveau procédé « 1-step » pour
l’étalonnage des systèmes multicaméras
[Rau et al., 2011b] Cibles déployées
sur les façades
Procédé « 2-step »
[Chen et al., 2013] Deux zones de
test, chacune
munie de points
de contrôle
Indoor-et-outdoor étalonnage
(procédé 2-step)
Les études comparatives entre les techniques existantes ont été effectuées par [Ellum et ElSheimy,
2003] et [Rau et al., 2011a]. Le Tableau 3.2 résume leurs observations, en
juxtaposant les avantages et les inconvénients propres à chaque méthode. CHAPITRE 3. Erreurs relatives au système MMS
51
Tableau 3.2 Synthèse des approches d’étalonnage
Méthode Avantage Inconvénient
Mesures conventionnelles
(bras de levier uniquement)
Indépendant de
l’ajustement
Observation ardue du centre
de capteurs
« 2-step »
prendre la moyenne des
résultats obtenus
simultanément par le système
hybride GNSS/INS et la
photogrammétrie
Conception simple, sans
modifications apportées au
modèle d’ajustement
Zone de test munie de cibles
précises et uniformément
réparties
« 1-step »
insérer des paramètres
d’étalonnage comme des
inconnus supplémentaires
dans un ajustement
Matrice de covariance
contenant une information
complète
La corrélation avec d’autres
paramètres implique que les
résultats peuvent ne pas être
fiables. Modifications
indispensables au niveau du
modèle mathématique.
L’étalonnage du système multi-caméras est aussi abordé par [Cannelle et al., 2012]. Leur
objectif est d’estimer, à la fois, les excentricités entre les caméras mises en place, ainsi que
celles existantes par rapport au système de positionnement GNSS/IMU. À cet effet, deux
méthodes sont discutées et comparées. La première, nommée « OFF-line », consiste à
étalonner séparément chaque caméra. Pour ce faire, une zone de test équipée de cibles 3D
dont les coordonnées sont connues avec la précision submillimétrique, servira de référence.
Ensuite, les paramètres pourront être déterminés en adaptant une méthode similaire à
l’ajustement par faisceaux. L’autre démarche est l’étalonnage « ON-line » qui s’avère une
solution entièrement automatique, ne nécessitant plus de points de contrôle. Il est fondé sur
les images prises durant l’acquisition à partir desquelles les points d’intérêt sont extraits et
appariés (p.ex. à l’aide de l’algorithme SIFT). Les tests effectués par les auteurs montrent
que les deux approches fournissent des résultats assez similaires. L’étalonnage dit « ONline
» est exact et efficace. Mais, il peut être peu fiable lorsqu’il est employé dans un
environnement empêchant une extraction de points d’intérêt (forêt, etc.).
3.3.3 Étalonnage des systèmes dotés de scanners
Les approches dédiées à l’étalonnage des systèmes dotés d’un LiDAR (MLS et ALS) peuvent
être appropriées, en fonction du type de scanner embarqué, soit pour un scanner à double
balayage (3D), soit pour un scanner de profil 2D. Cette section esquissera quelques travaux
se rapportant à ce sujet.
Tandis que les techniques conçues pour les scanners 3D s’inspirent de celles développées
pour les systèmes basés sur des caméras, la problématique d’étalonnage d’une plate-forme
MLS équipée des scanners 2D est assimilée à celle d’étalonnage d’un ALS. C’est dans cet
esprit que [Talaya et al., 2004] déploient des cibles réfléchissantes dont les coordonnées sont
connues. Ensuite, ils adaptent la technique similaire au procédé « 1-step » afin de déterminer
les excentricités linéaires et angulaires entre le scanner laser 3D et le système de
positionnement.
D’après [Chan et al., 2013], les techniques récentes d’étalonnage des excentricités angulaires
൫݁௫, ݁௬, ݁௭൯ peuvent être classifiées, compte tenu du principe d’estimation, en deux catégories :
1) l’estimation au sens des moindres carrés, fondée sur les primitives planaires introduisant 52
des contraintes lors de l’ajustement [Filin, 2003], [Skaloud et Lichti, 2006], [AtanacioJiménez
et al., 2011], [Glennie, 2012], [Chan et al., 2013] ; 2) le recalage par ICP
minimisant l’écart entre les points d’une surface (plane ou non plane) extraite à partir de
données laser redondantes [Rieger, 2010], [Habib et al., 2010], [Kumari, 2011]. Une autre
classification, répandue au sein de la communauté LiDAR, est donnée par [Habib et al.,
2011]. Ainsi, deux procédures sont distinguées : 1) system-driven (étalonnage) ; 2) data-driven
(ajustement des bandes). L’approche « system-driven » se réfère au modèle physique de
capteurs permettant d’effectuer des liens entre les mesures des dispositifs individuels d’un
système et les coordonnées terrain (M) des nuages de points générés. Vu que l’accès à des
données brutes peut être limité, le développement des méthodes « data-driven » utilisant
uniquement des coordonnées XYZ du nuage, est devenu nécessaire. Or, les effets des erreurs
systématiques sont modélisées par une transformation arbitraire entre les bandes LiDAR et
le repère de référence.
[Habib et al., 2010] et [Habib et al., 2011] proposent deux solutions alternatives pour
l’étalonnage des systèmes ALS. Elles étaient nommées respectivement : 1) Simplified Method ;
2) Quasi-rigorous Method. La première, étant une approche dite « data driven », requiert des
bandes parallèles LiDAR acquises au sein d’une zone avec un faible dénivelé. En revanche, la
seconde procédure, ne nécessitant plus le strict respect des plans de vol (bandes non
parallèles autorisées), exige des nuages de points horodatés, ainsi que des données de
navigation (uniquement la position de la trajectoire). Cependant, les deux algorithmes
minimisent les écarts entre les primitives correspondantes point/maillage triangulaire TIN
(Triangulated Irregular Network) afin de déterminer les paramètres d’étalonnage.
De son côté [Kumari, 2011], suggère une approche d’ajustement des bandes LiDAR
adjacentes, appropriée à des big data (données volumineuses) où les structures créées par
l’homme ne sont pas présentes. L’algorithme a besoin de données d’entrée (nuage de points
et trajectoire) et fournit des paramètres de transformation rigide en sortie. Pour ce faire, un
échantillon de points d’une bande LiDAR est mis en correspondance avec la surface de
l’autre la plus proche. L’ajustement des scans consécutifs se réalise à l’aide d’une méthode
similaire à l’algorithme ICP point à plan.
L’étalonnage d’un ALS est aussi une tâche entreprise par [Skaloud et Lichti, 2006]. Une
méthode rigoureuse basée sur des surfaces planes telles qu’un terrain de football, des toits
inclinés de bâtiments, est discutée. L’idée est d’estimer simultanément des excentricités
angulaires et des paramètres de plans à partir des primitives choisies, en ayant seulement une
connaissance a priori de leur forme (aucune information ni sur leur position, ni orientation
n’est demandée).
[Rieger et al., 2010] de Riegl GmbH présentent, pour étalonner un MLS, une procédure
basée sur l’algorithme d’ICP appliqué sur des primitives planaires extraites automatiquement
de nuages distincts. Il s’agit alors de choisir une zone de test contenant un nombre important
de surfaces planes (comme les façades de bâtiments) orientées diversement les unes par
rapport aux autres. Elles seront balayées plusieurs fois par un scanner à double balayage
(Riegl VZ-400). La direction de déplacement du véhicule aussi bien que l’angle de balayage
laser changent après chaque passage. L’extraction des angles ൫݁௫, ݁௬, ݁௭൯ s’effectue avec la
procédure appelée « boresight alignement and scan data adjustment », connue pour les
applications d’un ALS. Son principe repose sur le fait que les nuages collectés doivent
coïncider lors des acquisitions répétées d’un même objet, si les deux étalonnages extrinsèque
et intrinsèque sont justes. En supposant que les erreurs dues au scanner sont compensées,
nous constatons que plus la matrice de boresight est exacte, plus la différence entre ces nuages
est petite. Un faux étalonnage extrinsèque devrait donc entraîner un décalage entre les
surfaces balayées depuis les directions opposées de la plate-forme terrestre. Les tests réalisés
dévoilent que la méthode proposée requiert des nuages collectés sous de bonnes conditions CHAPITRE 3. Erreurs relatives au système MMS
53
de réception GNSS, car le résultat de l’estimation en dépendra. Par contre, l’applicabilité de
la méthode au regard des systèmes dotés d’un scanner 2D n’a pas encore été publiée. En
choisissant cette approche, il nous faudra aussi trouver une solution pour déterminer le bras
de levier ݎ/௦
.
Les démarches de [Chan et al., 2013] consistent à employer différentes primitives pour les
besoins de l’auto-étalonnage (self-calibration) d’un système MLS équipé de quatre scanners de
profil 2D (Riegl LMS-Q120i). Pour améliorer la procédure de l’estimation, ils suggèrent de
prendre en compte, en plus des plans, le modèle 3D de courbe caténaire. Ainsi, la formule
classique de géo-référencement et les modèles géométriques respectifs élaborent un modèle
fonctionnel d’étalonnage. Les trois composantes en rotation ൫݁௫, ݁௬, ݁௭൯, trois en translation
ሺ∆ݔ, ∆ݕ, ∆ݖሻ, aussi bien que les paramètres de modèles (quatre pour un plan, et trois pour une
caténaire) participent à l’ajustement fondé sur le modèle de Gauss-Helmert.
Cependant, il existe plusieurs travaux portant sur l’étalonnage d’une plate-forme équipée
d’un Velodyne [Atanacio-Jiménez et al., 2011], [Levinson, 2011], [Glennie, 2012], [Chan
et Lichti, 2013], [Zhu et Liu, 2013], [Wiart, 2013], [Elsberg et al., 2013]. Le Velodyne est
un scanner qui, selon le modèle, possède 32 ou 64 fibres laser alignées le long d’un axe. Un
tel dispositif positionné sur un système mobile permet une acquisition à 360° de l’espace.
[Atanacio-Jiménez et al., 2011] et [Glennie, 2012] apportent des méthodes d’étalonnage
extrinsèque et intrinsèque du Velodyne HDL-64E. L’ajustement, par la méthode des
moindres carrés, des primitives planaires fournit alors les valeurs recherchées.
Figure 3.5 a) Nuage de points captés par un Velodyne HDL-32E : a) faux étalonnage
extrinsèque ; b) après l’étalonnage extrinsèque [Wiart, 2013]
Dans la même veine [Wiart, 2013] discute des solutions appropriées lorsqu’un Velodyne
HDL-32E est monté sur un véhicule terrestre. Plusieurs méthodes automatiques de
recherche d’étalonnage extrinsèque, toutes faites par itération multi-échelle, ont été
analysées. Il s’agit de la méthode de Levinson [Levinson, 2011], et de deux nouvelles
approches développées par l’auteur : 1) l’algorithme de planéité qui amène à vérifier la
planéité locale dans un petit voisinage d’un point ; 2) l’algorithme Local – ICP Point-to-Plan
qui s’inspire de l’ICP. Ce genre de techniques ne nécessite ni cibles spéciales, ni de mesures
manuelles, évitant ainsi une tâche très fastidieuse. La démarche de Levinson utilise la
redondance d’information pour calculer la compacité du nuage de points, et ensuite
améliorer, par optimisation, l’étalonnage extrinsèque. Nous observons que plus l’étalonnage
extrinsèque est faux, plus le désordre (entropie) au sein du nuage de points est important 54
(Figure 3.5). L’hypothèse que le nuage de points d'une fibre forme, à condition que
l’étalonnage intrinsèque soit juste, des surfaces planes sur des objets plans, est devenue le
point de départ de la méthode de Levinson. Les tests effectués par [Wiart, 2013] ont montré
l’efficacité de cette approche, mais les résultats optimaux ont été obtenus pour des nuages
possédant certaines caractéristiques (p.ex. acquisition dans un virage). Deux autres
méthodes, c’est-à-dire l’algorithme de planéité et l’algorithme Local-ICP Point-to-Plan
permettent aussi d’estimer précisément les excentricités angulaires. En revanche, les
translations, comme avec la méthode de Levinson, sont très peu observables et doivent être
déjà connues. L’inconvénient majeur de ces solutions est le temps d’exécution qui empêche
l’étalonnage« ON-line ».
Enfin [Elsberg et al., 2013] mettent en avant une méthode permettant d’effectuer
simultanément un étalonnage intrinsèque et extrinsèque d’un scanner à double balayage
(Riegl VZ-400) positionné dans un SLAM. Leur approche n’exige pas non plus de mesures à
la main des points de contrôle ni de zone de test conçue à cet effet. Au contraire, ils
s’appuient sur une métrique de qualité calculée à partir de données laser, et sur la méthode de
Powell comme l’algorithme d’optimisation. Les points du nuage sont modélisés par une
fonction de répartition de probabilité ݀ሺ݈ሻ représentant la probabilité que l’emplacement ait
été déjà mesuré. Les erreurs d’étalonnage entraînent donc des surfaces apparaissant à
plusieurs positions. Étant la mesure de qualité, l’entropie de la probabilité ݀ሺ݈ሻ, augmente
avec ces erreurs et diminue considérablement lorsque le nuage est compact.
3.4 Impact d’un faux étalonnage sur la géométrie du nuage
Étant donné qu’un faux étalonnage extrinsèque introduit certaines déformations et que leur
impact est observable (Figure 3.6), il paraît intéressant de déduire, par l’analyse de la
structure des relevés laser, de vrais paramètres d’étalonnage. Nous examinons alors la
pertinence des lignes à étalonner le système intégral basé sur des scanners, qu’ils soient 2D
et 3D.
Figure 3.6 Impact de chacune des excentricités angulaires sur un profil laser : a) lacet ݁ݖ ; b)
tangage ݁ݕ ; c) roulis ݁ݔ (en vert - nuage généré pour l’un des angles faux ; en rouge - nuage
correct)
Pour comprendre l’impact des excentricités angulaires ܴ
௦ entre le capteur laser et la centrale
inertielle, nous régénérons des nuages acquis auparavant par notre prototype L3D2 équipé
de deux scanners SICK LMS 221. Nous introduisons de faux paramètres d’étalonnage
extrinsèque. La simulation est faite à l’aide du logiciel RTMaps. L’un de ses avantages CHAPITRE 3. Erreurs relatives au système MMS
55
principaux est certes la possibilité d’enregistrer des données datées et synchronisées de
manière à pouvoir effectuer un rejeu (replay) de ces dernières pendant des tests « hors
lignes ». En effet, cinq nuages de points sont obtenus après avoir modifié des angles
eulériens de la matrice de boresight selon les valeurs du Tableau 3.3. Les relevés laser ainsi que
les segments extraits (à la main sous MicroStation v8i SSE2 pour éviter des erreurs
possibles), au sein d’un petit fragment de la scène balayée, sont visualisés par la Figure 3.7.
Nous remarquons que les excentricités angulaires erronées ont une grande influence sur la
géométrie du nuage, et donc sur la qualité. De plus, si un seul angle boresight est incorrect,
l’écart de cet angle est aisé à observer. Une analyse plus approfondie nous permet de
retrouver ces valeurs numériques, en examinant des angles entre les arêtes correspondantes
(Figure 3.8).
Figure 3.7 Impact de faux étalonnage extrinsèque sur le nuage : a) Nuage correct ;
b)c)d)e) Nuages respectivement N1,N2,N3,N4 obtenus en prenant en compte les valeurs du
Tableau 3.3 56
Tableau 3.3 Angles d’Euler formant la matrice de boresight, prise en compte pour générer des
nuages de points
Nuage ݁௭ (lacet) [°] ݁௬ (tangage) [°] ݁௫ (roulis) [°]
Réf* -90.0000 0.0000 0.0000
N1 -90.0000 0.0000 10.0000
N2 -90.0000 10.0000 0.0000
N3 -80.0000 0.0000 0.0000
N4 -80.0000 10.0000 10.0000
*Nuage correct
En se basant sur les études effectuées, nous concluons que :
1) L’écart de lacet est visible sur les arêtes horizontales et à la fois perpendiculaires à la
direction de déplacement du système ;
2) L’écart de tangage est notable non seulement sur les segments verticaux, mais aussi
sur ceux horizontaux et perpendiculaires à la direction de la plate-forme ;
3) L’écart de roulis est identifiable dans les lignes verticales.
En revanche, si tous les angles sont biaisés, il faut trouver une façon de quantifier l’écart de
chacun des angles ൫݁௫, ݁௬, ݁௭൯.
Figure 3.8 Étude de l’impact des écarts d’excentricités angulaires sur la géométrie des lignes
En conclusion, l’utilisation d’arêtes extraites dans les nuages de points devrait permettre
l’étalonnage du système. 57
CHAPITRE 4
Extraction d’arêtes
Sommaire :
9. Extraction d’arêtes ............................................................................................................. 57
4.1 Méthode générale - vue d’ensemble ..................................................................................... 58
4.2 État de l’art sur l’extraction d’arêtes ................................................................................... 59
4.3 Segmentation en éléments plans - état de l’art .................................................................. 61
4.3.1 Segmentation par croissance de surface (régions) .................................................................... 62
4.3.2 Transformée de Hough 3D ............................................................................................................ 63
4.3.3 Algorithme de RANSAC ................................................................................................................ 65
4.4 Contribution à la détection de plans .................................................................................... 67
4.4.1 Motivation ......................................................................................................................................... 68
4.4.2 Extraction séquentielle de plans .................................................................................................. 69
4.4.3 Connectivité de plans basée sur la théorie des graphes ........................................................... 71
4.5 Méthode proposée d’extraction d’arêtes ............................................................................. 77
4.6 Exemples de résultats ............................................................................................................. 82
4.6.1 Détection de plans ........................................................................................................................... 82
4.6.2 Extraction d’arêtes .......................................................................................................................... 84
9. Extraction d’arêtes
Dans ce chapitre un état de l’art des algorithmes récents d’extraction d’arêtes et de détection de plans
dans le nuage de points est présenté. Pour satisfaire à nos exigences, à savoir, celles de recueillir des
éléments linéaires (arêtes de bâtiments) pouvant remplacer les points de contrôle employés
ordinairement, une méthode de détection des plis est proposée. Son idée repose sur l’intersection des
plans principaux extraits dans le nuage. La recherche des plans sécants consiste avant tout à analyser
l’angle d’intersection, ainsi que la distance réciproque entre toutes les combinaisons possibles de
segments plans. Enfin, seules les entités linéaires dont la longueur est supérieure à un seuil prédéfini
sont retenues.
Concernant la segmentation en éléments plans, qui est une phase déterminante, nous utilisons
l’estimateur de RANSAC pour détecter précisément les plans principaux de la scène. Mais, malgré tous
ses avantages, l’algorithme de RANSAC seul peut parfois donner des résultats erronés. Plus
précisément, il cherche « le meilleur plan » sans tenir compte de la particularité de l’objet. Par
Résumé 58
conséquent, les relations topologiques sont omises et les segments plans détectés ne coïncident pas
toujours avec la scène réelle du point de vue sémantique. C’est pourquoi nous avons renforcé
l’algorithme de RANSAC par une analyse des composantes connexes. Pour résoudre le problème de
connectivité de plan, une approche innovante basée sur la théorie des graphes est proposée. Nous
suggérons de systématiser, au sein du nuage, les relations entre les points en tenant compte de
l’information sur leur voisinage local. Le nuage est désormais considéré comme un graphe non orienté
défini par un ensemble de sommets ܸ et d’arêtes ܧ. Ensuite, la recherche des composantes connexes se
résume à déterminer tous ses sous-graphes connexes. Nous nous référons, au lieu d’employer l’un des
algorithmes récursifs d’exploration du graphe, à une décomposition de Dulmage-Mendelsohn. Enfin,
des résultats d’extraction d’arêtes sur quelques jeux de données sont illustrés.
4.1 Méthode générale - vue d’ensemble
En vision par ordinateur et tout particulièrement en traitement d’image, la détection de
différentes caractéristiques y compris des contours demeure un champ de recherche souvent
abordé. La représentation d’une image par des contours peut significativement réduire la
quantité des données et permet d’éliminer les informations jugées moins pertinentes, tout en
préservant les propriétés structurelles de l’objet. Il existe un grand nombre d’algorithmes de
détection, applicables à des images. Cependant, lorsqu’ il s’agit des nuages de points 3D, les
travaux relatifs à ce sujet ne sont pas nombreux, même si l’extraction des arêtes reste une
étape primordiale dans la modélisation tridimensionnelle.
Concernant l’extraction des arêtes, nous proposons une méthode de détection de plis, conçue
afin de diminuer l’influence de la densité de nuages de points sur le résultat final. Les
intersections réalisées entre les plans principaux, à savoir, entre les façades elles-mêmes,
mais aussi entre les façades et le sol, devraient répondre à nos besoins – fournir des entités
linéaires précises, servant, à leur tour, à la qualification des données laser, au recalage ou bien
encore à l’étalonnage. Du fait du manque, à notre connaissance, de description exhaustive de
ce genre d’algorithmes, nous expliquons, dans ce chapitre, toutes les démarches effectuées,
permettant d’extraire des droites d’intersection à partir de nuage de points.
Figure 9.1 Organigramme de l’approche d’extraction d’arêtes proposée
L’approche proposée comporte deux étapes cruciales, comme illustré par la Figure 9.1. Dans
un premier temps, le nuage est segmenté en éléments plans avec l’algorithme de RANSAC.
Nous procédons ensuite à une analyse des composantes connexes pour vérifier, de façon
robuste et précise, la connectivité et la sémantique des points formant chaque segment plan. CHAPITRE 4. Extraction d’arêtes
59
Nous obtenons alors un ensemble de segments plans ∏ accompagnés par les paramètres du
plan ajustant au mieux ces points. Nous entendons par le terme « segment plan » un
ensemble de points coplanaires à une tolérance près, et avec des limites bien définies.
Autrement dit, c’est un plan limité possédant une certaine épaisseur. Nous étudions ensuite
les relations de voisinage entre tous les segments plans détectés. Leur analyse va nous
amener à la reconstruction des arêtes ayant une longueur supérieure à une tolérance admise
ܶ௦.
Nos travaux se concentrent, dans un premier temps, sur la détection de plans indispensables
dans le processus d’extraction d’arêtes. Ce chapitre est structuré de la manière suivante.
Nous commençons par présenter l’état de l’art traitant de l’extraction d’arêtes (4.2) et de la
reconnaissance de plans (4.3) dans les nuages de points. Nous caractériserons quelques
méthodes, les plus souvent utilisées pour la segmentation des nuages 3D. En second lieu
(4.4), nous détaillerons notre approche de segmentation basée sur l’algorithme de RANSAC.
Comme la réalité n’est pas toujours compatible avec le modèle mathématique, nous
proposons d’intégrer une contrainte de connectivité entre les points constituant chaque sousnuage
(segment plan) extrait. Cette problématique étant déjà connue, nous développons une
solution alternative ne nécessitant plus de conversion d’un nuage 3D en une image 2D.
Ainsi, la perte possible d’information lors de la transformation du nuage, causée
habituellement par le nombre impropre de pixels par unité de longueur (résolution pix/m),
ne se produira jamais. De cette façon, les erreurs apparaissant quand différents objets
architecturaux de la scène se trouvent sur le même plan mathématique peuvent être
corrigées et les plans détectés correspondront aux façades réelles. Ensuite (4.5), nous
décrivons l’étape de recherche des intersections entre les segments plans. Par la suite (4.6),
nous montrerons l’efficacité de notre algorithme en illustrant les résultats obtenus sur
quelques nuages de points mobiles. Nous finirons par une brève discussion concernant les
points forts et faibles d’une telle approche.
4.2 État de l’art sur l’extraction d’arêtes
La majorité des méthodes visant à indiquer les zones contenant « des points candidats »,
c’est-à-dire les points situés à l’intersection de deux surfaces, consiste à calculer la normale
au point. Alternativement, il est possible de construire un maillage pour ensuite étudier la
normale de chaque triangle. Dès qu’un changement important dans la direction des normales
s’opère, l’existence d’une arête est perçue [Alshawa, 2006], [Demarsin, 2007].
Figure 9.2 Exemple de résultats intermédiaires d’extraction d’arêtes :a) façade triangulée ;
b) points de contours [Boulaassal, 2010] 60
Les travaux de [Boulaassal, 2010] visent à extraire des points de contour représentant les
deux types d’arêtes (Figure 9.2b). Dans son approche, quatre étapes essentielles se
distinguent : 1) la détection des plans ; 2) la triangulation de Delaunay ; 3) l’analyse de la
longueur des côtés des triangles ; 4) la vectorisation des contours. Les sommets, reliant les
côtés longs des triangles (marqués par un cercle vert dans la Figure 9.2a) dont la longueur
change brusquement, et est à la fois supérieure à un seuil fixé, seront considérés comme des
points de contour.
L’algorithme de [Wang et al., 2011] permet de détecter automatiquement, dans le nuage de
point mobile, des ouvertures sous forme de fenêtre et de porte. Il s’appuie, lui aussi, sur la
détection préalable des façades de bâtiments. Ensuite, le voisinage local de chaque point du
nuage est examiné suivant deux directions : verticale et horizontale. Pour faciliter cette
tâche, un paramètre connu a priori, notamment celui de l’écartement entre deux fenêtres
voisines, est pris en compte.
Dans le même contexte [Tuttas et Stilla, 2011] détectent des fenêtres dans les nuages acquis
par un système mobile aéroporté ALS. Ces données d’entrée se caractérisent par une faible
densité (seulement 5 points par m2). Leur approche est basée sur deux hypothèses :
1) Le faisceau laser passe toujours à travers les vitres des fenêtres. C’est pourquoi la
présence des fenêtres peut être assimilée à des points se trouvant derrière la façade
principale ;
2) Toutes les fenêtres sont disposées de manière régulière.
Afin d’extraire des points notablement éloignés et situés derrière la façade, les distances
entre tous les points du nuage et le plan approximant sont calculées. La dernière phase
consistera à faire une corrélation entre deux images : celle créée à partir des points détectés
lors de l’étape précédente et un marqueur (motif linéaire) horizontal ou vertical.
Cependant [Soria-Medina et al., 2011] cherchent à extraire des éléments d’une façade en
s’appuyant non seulement sur l’information géométrique, mais aussi sur l’intensité. Les
démarches proposées font référence à des outils dédiés au traitement d’image 2D. Ils
proposent alors une solution intégrant l’algorithme des K-moyennes (K-means) et les
opérateurs de la morphologie mathématique afin d’extraire des contours.
Un autre point de vue est envisagé par [Bienert, 2008]. Une méthode de détection des arêtes
dans un nuage de points dense est proposée. Son idée repose sur le lissage du nuage avec un
élément structurant. En effet, la position de chaque point est recalculée à partir de son
voisinage. Ensuite, tous les points englobés par cet élément structurant participeront à
l’ajustement d’une droite.
Nous venons de voir que la plupart des algorithmes d’extraction de segments, dédiés au
nuage de points, permettent de détecter des points de contour appartenant potentiellement à
l’arête. Néanmoins, il faut souligner qu’une telle entité linéaire peut être loin de la
représentation de l’arête réelle. Les points du nuage seront d’autant plus proches de l’arête
que la résolution du balayage effectué est petite. Mais, les tests des télémètres laser
démontrent qu’il est très difficile, voire impossible, de mesurer précisément des bordures
d’un objet, en raison de la diffraction subie par le faisceau laser à cet endroit [Kilmkowska et
Wrobel, 2006]. L’une des pistes d’amélioration du processus d’extraction s’oriente vers la
fusion des informations liées aux points 3D avec celles des images. L’utilisation conjointe de
ces deux types de données est examinée entre autres par [Yong et Huayi, 2008], [Wang et
al., 2013] et [Wang et al., 2014]. Les résultats obtenus mettent en évidence les avantages de
cette solution. CHAPITRE 4. Extraction d’arêtes
61
4.3 Segmentation en éléments plans - état de l’art
Le traitement des relevés laser en vue de leur reconstruction fait l’objet de très nombreux
travaux. La reconnaissance de différentes surfaces est considérée comme un problème de
segmentation. Son objet est de séparer des formes de l’environnement en fonction de leur
homogénéité, étant vérifiée au regard de la position des points, de la courbure, de la planéité
ou de la direction de normale. Elle constitue également l’une des premières étapes de la
modélisation tridimensionnelle puisque son but est de faciliter l’interprétation ultérieure des
données.
Les méthodes existantes de la segmentation des nuages 3D s’inspirent, en général, des
approches largement connues en vision par ordinateur. Le problème se réduit souvent à
l’analyse de l’image de profondeur obtenue par la projection de nuage de points sur un plan
image, où la valeur du pixel correspond à la distance du point au plan [Hernandez et
Marcotegui, 2008], [Serna et Marcotegui, 2013]. D’après [Boulaassal, 2010], les
algorithmes de segmentation dédiés aux relevés laser peuvent être regroupés en deux
catégories. La première famille, bénéficiant des relations de proximités et de similitude,
comprend des approches fondées sur la fusion notamment la segmentation par croissance de
surface, la segmentation par division-fusion (split-and-merge), ou bien encore la segmentation
par profils de balayage. Le second groupe adapte les techniques de reconnaissance
automatique de formes. Celles-ci étant plus robustes, elles ne peuvent être employées qu’afin
de subdiviser le nuage en primitives géométriques définies par l’ensemble de paramètres. Il
s’agit des modèles 3D a priori tels que la sphère, le plan, le cône, ou le tore. Les techniques
les plus utilisées font appel à la transformée de Hough [Hough, 1962] ou à l’algorithme de
RANSAC (RANdom SAmple Consensus) de [Fischler et Bolles, 1981]. Les deux approches
s’avèrent particulièrement robustes au bruit, entachant les nuages de points.
La détection de plans ou l’approximation par un plan s’avère un problème spécifique de la
segmentation de données 3D permettant de séparer une scène complexe en deux parties : les
zones planes et non planes. Durant ces dernières années, plusieurs méthodes d’extraction de
plans ont été proposées. Un aperçu de quelques techniques est donné par [Vosselman et al.,
2004].
Les travaux de [Bauer, 2005] et [Boulaassal, 2010] s’appuient sur l’utilisation de
l’algorithme de RANSAC dans le but de détecter les façades de bâtiments à partir du nuage
de points dense. Cependant, plusieurs améliorations de cet estimateur ont été apportées afin
de l’optimiser et de le rendre encore plus efficace et fiable. [Delmerico et al., 2011] et
[Awwad et al., 2011] proposent de prendre en compte des normales en chaque point. De
même [Bretar et Roux, 2005] détectent les plans de toits dans les nuages de points aériens à
l’aide de l’algorithme ND-RANSAC (Normal Driven RANSAC). À cet effet, ils calculent les
normales au point. Puis, le tirage aléatoire d’un échantillon minimal composé de trois points
ayant les vecteurs normaux d’orientation identique est effectué. L’approche de [Yang et al.,
2010] consiste à diviser un nuage de points en petits blocs. Ensuite, une méthode combinant
l’algorithme de RANSAC avec la longueur de description minimale MDL (Minimum
Description Length) est exécutée au sein de chaque sous-nuage de points. La tâche de ce
dernier est de vérifier le nombre de plans retrouvés, étant entendu que ce nombre varie, d’un
bloc à l’autre, de zéro à trois plans. En même temps [Gallo et al., 2010] développent un
algorithme appelé CC-RANSAC dont l’idée repose sur la recherche de la composante
connexe la plus grande dans l’image de profondeur.
De leur côté [Tasha-Kurdi et al., 2007], [Borrmann et al., 2011] et [Borowiec, 2012]
emploient la transformée de Hough 3D comme un outil de détection des plans.
Les méthodes de [Deschaud, 2010], [Jarzabek-Rychard et Borkowski, 2010] et [Tuttas et
Stilla, 2010] sont fondées sur un algorithme de croissance de surface. L’idée consiste
toujours à identifier tout d’abord des régions graines et de les faire croître selon certaines 62
conditions comme nous l’expliquerons dans le paragraphe 4.3.1. Son avantage principal est
d’être rapide lorsqu’il y a de nombreux petits plans à extraire. Sinon, lors de détection des
plans grands (par exemple les plans de taille d’une façade) l’algorithme tend à être plus en
plus lent [Deschaud, 2010].
Parmi les travaux portant sur la détection des toits de bâtiment dans les données laser
aéroportées, nous pouvons remarquer un certain nombre d’études comparatives. [JarzabekRychard
et Borkowski, 2010] analysent les résultats obtenus avec la croissance de surface et
l’algorithme de RANSAC. Ils en concluent que ce dernier est plus efficace pour la
segmentation de modèles peu compliqués. En revanche, il est plus susceptible d’unir des
points situés sur le même plan mathématique, mais appartenant, en réalité, à différentes
structures architecturales. Dans ce même contexte [Tarsha-Kurdi, 2008] améliore
l’algorithme de RANSAC pour le comparer, par la suite, avec la transformée de Hough. Il
constate que l’algorithme de RANSAC est plus adapté aux données 3D, tant en termes de
traitement que d’insensibilité au bruit.
Pour tirer profit des deux méthodes de segmentation, [Tuttas et Stilla, 2013] proposent une
approche de détection de façades en deux étapes : le traitement grossier et fin. Dans un
premier temps, la segmentation par croissance de surface basée sur deux critères (seuil de
normale et de distance) est effectuée. Ensuite, chaque plan est analysé afin de vérifier s’il doit
être subdivisé en plusieurs segments plans. Le plan final est retrouvé avec l’algorithme de
RANSAC. Pareillement [Oehler et al., 2011], emploient la transformée de Hough combiné
avec l’algorithme de RANSAC. D’abord, les normales sont calculées et la pré-segmentation
est réalisée avec la transformée de Hough. Puis, l’algorithme de RANSAC est directement
employé sur les segments plans détectés auparavant.
Finalement [Borowiec, 2008], s’appuie, afin de détecter de toits, sur une approche basée sur
l’algorithme de division-fusion.
L’étude des travaux actuels révèle que la majorité des approches optent pour la détection de
plans dans le nuage de points à l’aide de l’algorithme de RANSAC, de la transformée de
Hough, ou éventuellement de la croissance de surface. C’est pourquoi nous détaillerons dans
cette section les principes de fonctionnement propres aux techniques susmentionnées.
4.3.1 Segmentation par croissance de surface (régions)
La segmentation par croissance de surface est conceptuellement une adaptation, dans l’espace
Թଷ, d’une méthode de croissance de régions. Son objectif est d’isoler des zones les plus
homogènes possibles, tout en respectant des conditions arbitraires imposées. Nous
distinguons deux étapes principales de l’algorithme :
1) Trouver les points de départ – régions graines (seed) ;
2) Rassembler des points/pixels voisins entre eux suivant les critères prédéfinis
Or, cette méthode consiste à faire progressivement grossir les régions autour de leurs points
de départ. Les zones grandissent alors par incorporation des points les plus similaires.
L'agglomération des points n'exploite aucune connaissance a priori du nuage ou du bruit qui
le dégrade. La décision d’intégrer à la région un point voisin repose sur un seul voire deux
critères tels que la proximité des points (seulement les points proches peuvent être ajoutés),
la planéité locale (la distance orthogonale du point au plan doit être inférieure à un seuil
fixé), le champ de vecteurs normaux (les angles entre la normale du plan et les normales de
tous les points voisins appartenant au plan doivent être inférieurs à un seuil choisi)
[Vosselman et al., 2004]. Par conséquent, les variantes se distinguent surtout par la manière
de sélectionner des plans initiaux et par les critères de croissance définis. Le choix des
régions graines est la phase la plus critique de l’algorithme puisqu’elle joue sur la qualité des
résultats obtenus et sur le temps de calcul. CHAPITRE 4. Extraction d’arêtes
63
4.3.2 Transformée de Hough 3D
La transformée de Hough [Hough, 1962] est un outil de reconnaissance de formes basé sur
une connaissance a priori. Cette méthode fait partie de la famille des algorithmes de votes.
Elle est souvent utilisée dans la détection de lignes 2D (en analyse d’images). Mais,
l’extension à d’autres primitives géométriques représentées par une fonction mathématique
simple (par exemple plan, cercle, ellipse) ou à des espaces de dimension quelconque est aussi
possible.
Cas 2D - ligne
Afin d’expliquer le principe de la transformée de Hough, nous commençons par un exemple
typique – une ligne 2D.
Figure 9.3 Correspondance géométrique entre l’espace cartésien (à gauche) et l’espace
paramétrique de Hough (à droite) (Illustration reproduite à partir de [Poncelet et Cornet,
2010])
Étant donné une droite notée ݕ ൌ ݉ݔ ܾ (où m : coefficient directeur et b : ordonnée à
l’origine) dans l’espace Euclidien, il nous faut, conformément à l’idée de Hough, changer
l’espace de représentation de cette droite et l’exprimer désormais par ܾ ൌ െ݉ݔ ݕ. Nous
obtenons l’équation d’une droite passant par un point ሺ݉, ሻ dans l’espace de paramètres
(l’espace de Hough). Cette forme la plus classique, servant à représenter la droite, n’est
cependant pas sans problème, car les droites verticales et horizontales auront des valeurs
infinies pour m et b. Pour pallier cet inconvénient, il est donc préférable d’exploiter les
coordonnées polaires (l’équation normale) d’une droite au lieu de sa formulation cartésienne
(9.1) [Duda et Hart, 1971]. 64
(9.1) ߠ݊݅ݏݕ ߠݏܿݔ ൌ ߩ
où :
ߩ : distance de la ligne à l’origine
ߠ : angle (l’orientation du vecteur normal de la droite depuis l’origine)
Cas 3D - plan
Le même principe s’applique à la détection de plans. Chaque plan de l’espace Euclidien est
défini par la formulation normale donnée par :
(9.2) ߮݊݅ݏݖ ߮ݏܿߠ݊݅ݏݕ ߮݊݅ݏߠݏܿݔ ൌ ߩ
La Figure 9.4 explique la notation employée dans l’équation (9.2).
Figure 9.4 Formulation normale d’une droite
De manière analogue, les trois paramètres ሺߠ, ߮, ߩሻ définissent l’espace de paramètres.
Chaque point ሺߠ, ߮, ߩሻ de cet espace correspondra à un plan de l’espace cartésien et vice
versa. Étant donné un point quelconque du plan ∏, tous les plans auxquels ce point
appartient doivent être trouvés.
Figure 9.5 Espace de paramètres : a) Sinusoïde 3D calculée à partir d’un point de l’espace
cartésien ; b) Transformée de Hough de trois points et le point d’intersection (carré noir)
[Borrmann et al., 2011] CHAPITRE 4. Extraction d’arêtes
65
En traçant ces points dans l’espace de Hough, une courbe sous forme d’une sinusoïde 3D est
obtenue (Figure 9.5a). Par conséquent, un plan passant par ܰ points est, dans l’espace de
paramètres, le point d’intersection de ܰ sinusoïdes (Figure 9.5b). Finalement, le pic de
l’accumulateur correspond à un maximum de points dans un même alignement. Plus des
courbes se coupent en un même point de l’espace de paramètres, plus des points
appartiennent au plan détecté. La transformée de Hough cherche à trouver le meilleur plan
qui est perçu comme celui contenant un nombre maximal de points. De ce fait, le plan
optimal n’est pas calculé au sens des moindres carrés.
4.3.3 Algorithme de RANSAC
L’algorithme de RANSAC [Fischler et Bolles, 1981] est très largement utilisé dans le
domaine de la vision par ordinateur pour l’estimation des paramètres. Son avantage est d’être
robuste et rapide, même en présence d’observations aberrantes. L’une de ses applications est
la détection, de manière interactive, de plans. [Zuliani, 2012] rapporte que cet estimateur
résiste très bien à la présence de données non valables (outliers) en supportant jusqu’à 50%
d’erreurs grossières. Cette marge rend, de ce fait, la méthode particulièrement intéressante
pour traiter les nuages de points contenant pourtant des mesures bruitées.
Son principe est simple : il s’agit toujours de sélectionner au hasard un nombre minimum de
données afin de calculer les paramètres d’un modèle mathématique, puis d’identifier parmi
toutes les données, celles ayant une chance raisonnable d’appartenir à ce modèle. Le
processus étant itératif, il s’arrête lorsque l’on trouve un sous-ensemble de points le plus
nombreux.
Deux phases essentielles de l’algorithme de RANSAC peuvent être distinguées. La première
nommée « Initialisation » consiste à tirer aléatoirement un nombre minimum de points (un
quorum) ܵ parmi ܰ points de l’ensemble. Un plan est défini par quatre paramètres, dont trois
ሺߠଵ, ߠଶ, ߠଷሻ étant indépendants, sont les composantes de la normale au plan et ߠସ est la
distance du plan à l’origine. Alors, l’échantillon minimal contiendra trois points ܵ ൌ
ሼଵ, ଶ, ଷሽ à partir desquels tous ces indices seront déterminés. Nous désignons par ܯሺߠሻ le
modèle mathématique du plan défini de la manière suivante :
ܯሺߠሻ ൌ ሼߠଵஸஸସ ∈ Թ: ߠଵݔߠଶݕߠଷݖߠସ ൌ 0ሽ (9.3)
La seconde étape « Test », exécutée après le calcul du modèle, vérifie un score, perçu
généralement comme le nombre de points ajustant au mieux le plan. Nous considérons qu’un
point quelconque appartient au plan, si et seulement si, il est situé à une distance inférieure à
une tolérance prédéfinie ߜ.
Nous introduisons les termes inhérents à l’utilisation de RANSAC. On appelle désormais EC
« Ensemble de Consensus » (Consensus Set), l’ensemble de points satisfaisant au modèle prédéfini
auparavant par un quorum de points. On note Card(EC) le nombre de points valables (inliers).
(9.4) ൟߜ ሻ൯ߠሺܯ ,ெ൫݁ :ܰ ∋ ൛ ሻ ൌܥܧሺ݀ݎܽܥ
Dans la formule (9.4) l’écart entre le point p et le modèle ܯሺߠሻ se calcule de la manière
suivante :
,ሺݐݏ݅݀ ≝ ሻ൯ߠሺܯ ,ெ൫݁
∗ሻ (9.5)
où
∗
symbolise la projection orthogonale du point p sur le modèle ܯሺߠሻ. 66
Les deux phases sont répétées ܰ௧ fois. À ce moment, le plan est retenu s’il contient
suffisamment de points, c’est-à-dire si le nombre de points Card(EC) appartenant au
« meilleur modèle » est le plus grand (Figure 9.6).
Figure 9.6 Vue de profil de la zone d’épaisseur ߜ contenant les points valables (vert)
satisfaisants au modèle défini par un quorum de points (rouge)
L’estimation du nombre d’itérations qui permettrait d’interrompre l’algorithme reste une
question délicate. L’algorithme de RANSAC, dans sa version de base, vise à garantir un
nombre optimal de tirages indispensables pour estimer le meilleur plan avec une probabilité
ܲ. En admettant que ܹ désigne la probabilité de choisir, à chaque itération, un point valable,
la probabilité que les trois points du quorum appartiennent tous au plan final est de ܹଷ. De
ce fait, il y a une probabilité égale à ሺ1െܹଷሻ qu’au moins un de ces points ne fasse pas partie
des points valables. Nous pouvons relier les probabilités ܲ et ܹ avec le nombre d’itérations
ܰ௧ par l’équation suivante :
ሺ1െܲሻ ൌ ሺ1െܹଷሻேೝ ⇔ ܰ௧ ൌ ݈݃ሺ1െܲሻ
݈݃ሺ1െܹଷሻ
(9.6)
La formule (9.6) démontre qu’afin de déterminer le nombre d’itérations, la connaissance de ܲ
et ܹ est primordiale. Le choix de ces valeurs se fait de manière empirique. La probabilité ܲ
est choisie de préférence élevée ሺܲ 0.95ሻ. Quant à la valeur ܹ, elle doit être estimée en
fonction des données. Cette probabilité, pour un seul point, est exprimée par : CHAPITRE 4. Extraction d’arêtes
67
ܹ ൌ
ሻܥܧሺ݀ݎܽܥ
ሺܰሻ݀ݎܽܥ
(9.7)
Il est difficile de choisir dûment la probabilité ܹ car souvent nous ne connaissons pas le
nombre de points valables restant dans le nuage de points. L’algorithme est ainsi initialisé en
utilisant une estimation grossière de ܹ, ce qui augmente le risque d’accepter un nombre
inapproprié d’itérations.
Pour surmonter cet inconvénient, une version adaptative de RANSAC a été développée par
[Hartley et Zisserman, 2003]. L’idée consiste à sélectionner dynamiquement le nombre de
tirages à réaliser, en adaptant la valeur ܹ grâce au cardinal de l’ensemble de consensus
trouvé. En d’autres termes, le nombre maximal d’itérations sera mis à jour avant le
démarrage de la prochaine sélection d’un quorum de points. L’avantage principal d’un tel
raisonnement est d’être plus efficace et de réduire considérablement le temps de calcul.
4.4 Contribution à la détection de plans
Pour notre application, nous souhaitons pouvoir détecter de grands plans (plans principaux)
tels que les façades des bâtiments, le sol, tout en étant suffisamment rapide. L’analyse de
l’état de l’art, nous a encouragé de choisir l’estimateur de RANSAC comme l’algorithme de
base puisqu’il paraît le plus robuste pour traiter de nombreux points. Nous implémentons sa
version adaptative décrite dans la section précédente et caractérisée par [Zuliani, 2012]. La
segmentation en segments plans s’effectue de manière séquentielle. Une fois un plan détecté,
les points qui lui appartiennent sont retirés du nuage. L’algorithme s’interrompt lorsqu’il n’y
a plus de données à classer, ou lorsque les points restants ne permettent pas d’obtenir de
segment plan contenant un nombre suffisant de points, ou bien encore quand le nombre de
plans désirés ܰ a été retrouvé.
Sachant que les segments plans obtenus à l’aide de l’algorithme de RANSAC ne peuvent pas
toujours coïncider avec la scène réelle du point de vue sémantique, il nous faut aussi prendre
en compte les relations topologiques entre les points formant un plan. Nous avons donc
enrichi l’algorithme de RANSAC d’une analyse des composantes connexes. La problématique
de connectivité a été largement étudiée en traitement d’images 2D. Elle vise à vérifier si
deux pixels sont voisins et s’ils respectent, en même temps, une condition arbitraire par
exemple l’égalité des niveaux de gris. En conséquence, nous pouvons nous en inspirer pour
incorporer une contrainte de connectivité entre les points formant un segment plan. Dans cet
esprit [Boulaassal, 2010] et [Gallo et al., 2010], transforment un plan 3D détecté par
l’algorithme de RANSAC en une image 2D. Le passage est réalisé par la projection des
points du nuage sur le plan moyen. Cette étape nécessite de choisir soigneusement la
résolution de l’image créée (le nombre de pixels par unité de longueur) afin d’éviter les
problèmes d’échantillonnage. Des valeurs trop larges ou trop petites ne permettront pas
d’étudier la connectivité de pixel. La séparation ultérieure des différentes régions consiste à
calculer la différence entre les valeurs de pixels voisins.
Étant donné que la conversion en image peut être une source importante d’erreurs, nous
avons proposé un algorithme fonctionnant directement sur des nuages de points. Il fait appel
aux éléments de la théorie des graphes et attend seulement quelques paramètres initiaux
pour s’exécuter. Ainsi, nous structurons les nuages, et effectuons une décomposition de
Dulmage–Mendelsohn [Dulmage et Mendelsohn, 1958] aboutissant à décomposer de façon
unique un graphe biparti non orienté en composantes connexes. Ce premier est défini grâce à
l’analyse du voisinage de chaque point du nuage. Nous systématisons les points du segment
plan, étant naturellement désordonnés, en les représentant par un ensemble de sommets
(points) ܸ et d’arêtes ܧ établissant les relations topologiques entre ces sommets. 68
L’extraction de segments plans est menée en deux étapes comme l’illustre la Figure 9.7.
Nous présenterons dans le paragraphe 4.4.2 l’algorithme de RANSAC tel qu’il est
implémenté. Ensuite, nous discuterons des principes de notre méthode de détection de
composantes connexes basée sur la théorie des graphes (paragraphe 4.4.3).
Figure 9.7 Schéma global de l’algorithme d’extraction de segments plans implémenté
4.4.1 Motivation
Un plan est une entité fondamentale à deux dimensions et nous l’imaginons comme une
feuille d’épaisseur nulle qui s’étend à l’infini. Cependant, les plans extraits à partir du nuage
de points n’ont pas forcément ces deux caractéristiques. D’une part, nous devons prendre en
compte la troisième dimension – l’épaisseur provenant principalement du comportement du
faisceau laser sur différentes surfaces. D’autre part, un plan quelconque approximant une
façade, un trottoir ou une route a des limites bien définies. Mais, l’estimateur de RANSAC
fournit un plan illimité, rassemblant tous les points qui appartiennent à un même plan
mathématique.
Figure 9.8 Détection de trois plans successifs par RANSAC. Une couleur correspond à un
plan CHAPITRE 4. Extraction d’arêtes
69
La Figure 9.8 montre trois plans successifs extraits à partir du nuage mobile
Stereopolis2009_Soufflot avec cet algorithme. Les deux façades (marquées en orange), étant en
réalité séparées, ont été classifiées comme une seule entité planaire. De plus, nous observons
de nombreuses régions éparpillées autour des régions principales qui ne devraient pas être
intégrées au modèle final.
Nous visons à supprimer ces petits plans pouvant fausser les résultats du traitement
ultérieur, notamment l’extraction d’arêtes basée, par défaut, sur les plans. Étant donné que
nous cherchons à conserver les plans les plus précis possibles et reconstruisant correctement
la scène réelle, il nous semble primordial d’effectuer une analyse du nombre d’entités
constituant le segment plan et d’en conserver une seule partie – celle ayant l’aire la plus
grande. La Figure 9.9 illustre le plan détecté via l’algorithme de RANSAC et celui que l’on
souhaiterait extraire. C’est pourquoi nous proposons une extraction innovante des
composantes connexes dédiée au nuage. Il s’agit d’étudier le voisinage de points pour s’en
servir lors de l’extraction des composantes connexes.
Figure 9.9 Exemple d’erreurs de connectivité : plan détecté (à gauche) ; plan recherché (à
droite)
4.4.2 Extraction séquentielle de plans
L’inconvénient majeur de l’algorithme de RANSAC classique est la détection d’une forme
unique. Pour y remédier, l’une des stratégies à envisager consiste à l’implémenter dans un
mode séquentiel. L’idée de cette approche nous amène à retirer du nuage les points valables
appartenant au segment plan détecté au préalable. Cette opération est de nouveau appliquée
sur les points restants jusqu’à ce que le nombre prédéfini de plans ܰ ait été extrait ou
jusqu’à ce qu’il n’y ait plus de points permettant une détection de surfaces désirées.
Du fait de la présence de bruit ߪ provenant de l’état d’objet balayé par scanner, sa couleur,
nature et rugosité (voir le Chapitre 3), les nuages de points ont habituellement une épaisseur
non négligeable. C’est pourquoi l’ajustement de plans s’effectue avec une certaine souplesse.
La sélection du seuil ߜ – la zone tampon autour du plan moyen, joue un rôle important au
niveau de la stabilité de l’algorithme de RANSAC puisqu’il peut provoquer des problèmes de
sous-segmentation et de sur-segmentation (Figure 9.10). La valeur de ce seuil ߜ doit être
fixée en tenant compte des caractéristiques du nuage comme sa densité et son degré de 70
bruitage. Ainsi, elle a tendance à être égale à l’épaisseur du nuage de points brut – sans
filtrage préalable.
Figure 9.10 Impact du choix du seuil ߜ sur les résultats de détection des plans :
a) Segmentation avec un seuil faible (0.03m) ; b) Segmentation avec un seuil élevé (0.15m)
D’après [Hartley et Zisserman, 2003] suivis par [Zuliani, 2012], le seuil ߜ peut se calculer
en supposant que tous les points suivent une distribution normale autour du plan moyen.
Nous faisons l’hypothèse que les nuages sont entachés par un bruit gaussien ߟ~ܰሺ0, ܫߪሻ pour
ߟൌെ∗. La valeur ߜ relie désormais, avec une probabilité ܲ, l’erreur générée par les points
valables affectés par le bruit ߪ. L’épaisseur de la zone de tampon δ se calcule de la manière
suivante :
ܨఎටߪൌߜ
ఞమ
మ
ିଵሺܲሻ (9.8)
où :
ܲ : probabilité considérée (ܲ 0.95)
ܨ
߯2
2
െ1 : valeur de la fonction de répartition de la loi chi-2 ሺ߯݉
2 ሻ à m ൌ 2 degrés de liberté
(Tableau 9.1)
ߪ : degré de bruitage
Tableau 9.1 Table de distribution ߯2
2 selon la valeur de probabilité P
Degré de
liberté P=0.900 P=0.950 P=0.975 P=0.990 P=0.999
2 4.605 5.991 7.378 9.210 13.861
Si nous souhaitons récupérer 99% des points d’un plan, nous avons P=0.99, et donc
ܨ
߯2
2
െ1ሺ0.99ሻ ൎ 9.21. L’analyse du Tableau 9.1 permet de constater que plus la valeur de la
probabilité ܲ est proche de l’unité, plus le seuil ߜ est important et, que l’épaisseur de la zone
tampon augmente. Le modèle risque, en réalité, de contenir beaucoup de points aberrants. En
outre, une probabilité ܲ trop petite génère un seuil insuffisant, et les points potentiellement
valables sont susceptibles d’être exclus du modèle.
Dans notre approche, nous avons employé la formule (9.8), au lieu de définir la tolérance de
distance maximale, pour tester l’appartenance des points au plan. Un point est considéré
comme valable si l’écart au carré entre ce point et le plan est inférieur à ߜ2
. Plus précisément,
le test statistique se fait de la manière suivante :
൝
ሻ൯ߠሺܯ ,൫ܯ݁ ݅ܵ
2
2ߜ
݊݉ܽݐ ݁݊ݖ ݈ܽ ݏ݊ܽ݀ éݑݐ݅ݏ ݈ܾ݈݁ܽܽݒ ݐ݊݅
ሻ൯ߠሺܯ ,൫ܯ݁ ݅ܵ
2
2ߜ
ሻ ݁ݏ݅݉݀ܽ ݁ܿ݊ܽݎé݈ݐ ݏݎ݄ሺ ݐ݊ܽݎݎܾ݁ܽ ݐ݊݅
(9.9) CHAPITRE 4. Extraction d’arêtes
71
Cette solution avec un degré de bruit ߪ associé au nuage est censée estimer une valeur
optimale du seuil ߜ. Nous avons implémenté l’algorithme de RANSAC dans la version cidécrite
(voir aussi le pseudo-code 4.1 dans l’Annexe E). Pour la détection de plans, nous
avons besoin en entrée d’un nuage de points ܰ relativement homogène. Néanmoins, il faut
noter que l’utilisation de cet estimateur implique un réglage de trois paramètres : ܲ, ߪ et
éventuellement un nombre de plans désiré ݈ܰ. Le symbole ܲ correspond à la probabilité
d’avoir les points correspondants au plan, tandis que la valeur ߪ est l’écart-type des distances
calculées par rapport au plan. Ces deux indices sont d’ores et déjà nécessaires pour
déterminer la valeur du seuil ߜ. Elle est alors assimilée à la distance maximale point –
modèle, et elle représente l’épaisseur du segment plan à extraire. En sortie, nous obtenons
des sous-ensembles de points formant des plans ∏ et leurs paramètres associés
ሺߠ1, ߠ2, ߠ3, ߠ4ሻ.
4.4.3 Connectivité de plans basée sur la théorie des graphes
Une fois le segment plan détecté, nous procédons à l’analyse des composantes connexes ܥܥ,
c’est-à-dire de toutes les parties surfaciques constituant cette entité. Le terme connectivité
dérive de la notion de voisinage. On dit que deux points de l’espace sont connectés s’ils
appartiennent à la même composante. Quant au critère de décision permettant de distinguer
les points voisins, il s’appuie sur le calcul de distance qui sera ensuite confronté avec un seuil
prédéfini ߩ (distance maximale). En effet, il s’agit de vérifier si un plan se constitue en un seul
« morceau ». Nous entendons par « connectivité » du plan sa continuité spatiale – le segment
plan doit constituer une entité contigüe et non pas un ensemble de surfaces séparées par des
vides comme le montre la Figure 9.9. Sinon, chacun de ses éléments est l’une des
composantes connexes.
La Figure 9.11 illustre notre raisonnement. D’abord, un segment plan est extrait via
l’algorithme de RANSAC tel qu’il est présenté dans la section 4.4.2. Ensuite, nous étudions
les relations de voisinage entre chaque point du sous-nuage. Dès que toutes les composantes
connexes sont déterminées, leurs surfaces sont calculées et comparées les unes par rapport
aux autres. Puis, la partie dont l’aire est la plus importante sera retenue, tandis que les points
des autres régions seront réintégrés dans le nuage pour participer à la recherche ultérieure
de meilleurs plans.
Figure 9.11 Correction d’extraction du plan : a) Premier plan détecté via l’algorithme de
RANSAC ; b) Étiquetage des composantes connexes ; c) Segment plan retenu après
intégration du critère de connectivité
Afin de résoudre le problème de connectivité, le nuage de points ܰ est traité comme un
graphe non orienté pour lequel tous ses sous-graphes ܩ′
seront recherchés. À ce stade, il
nous faut rappeler que nous travaillons directement sur les données laser 3D. Nous
constatons que les points appartiennent à la même composante connexe, si est seulement si,
il existe au moins un chemin reliant n’importe quel couple de points de cette composante. 72
Nous distinguons deux phases dans notre approche de détection de composantes connexes
d’un segment plan (Figure 9.12) : 1) la recherche du voisinage de chaque point du nuage en
respectant les seuils renseignés avec la construction d’une liste de paires de points (sommets)
de telle sorte que chaque paire correspondra à une arête au sens de la théorie des graphes ;
2) l’étiquetage des composantes connexes.
Figure 9.12 Organigramme de l’algorithme d’extraction de composantes connexes
Structuration du nuage de points
Concernant la théorie des graphes, un graphe simple non orienté ܩ ൌ ሺܸ, ܧሻ est défini par la
donnée d’un ensemble de sommets ܸ et d’un ensemble d’arêtes ܧ ⊆ ሼሺݑ, ݒሻ: ݑ, ݒ ∈ ܸ, ݑ ് ݒሽ.
En d’autres termes, un graphe est constitué de sommets ܸ, dont certains sont reliés par des
arêtes, si est seulement si, ces sommets sont adjacents les uns par rapport aux autres (Figure
9.13ab). Si un graphe est non orienté, dans ce cas-là, la relation binaire entre les sommets est
symétrique (si ݑ→ݒ alors ݒ→ݑ). On utilise la notion « ordre du graphe » pour décrire le
nombre de sommets de ce graphe. Un sous-graphe d’un graphe ܩ est défini comme un
′ܩ graphe
composé de certains sommets de ܩ, ainsi que de toutes les arêtes reliant ces
sommets dans ܩ :
′ܩ :ܩ ⊇ ′ܩ
′ܸ൫݄݁ܽݎ݃
′ܧ ,
(9.10) ܧ ∋ ′ܧ ݐ݁ ܸ ∋ ′ܸ ܿ݁ݒܽ ൯
D’un point de vue pratique, le processus de recherche des composantes connexes d’un graphe
non orienté quelconque aboutit à trouver ses sous-graphes connexes maximaux. Dans ce
contexte, « connexe » signifie qu’il existe une suite d’arêtes permettant d’atteindre ݒ à partir
.ݑ de
Pour systématiser les relations entre les points d’un nuage, il est possible de les représenter
sous forme d’une matrice d’adjacence servant ordinairement à caractériser des graphes non
orientés. Il s’agit de la matrice symétrique ܣሺܩሻ de dimension ܰൈܰ (ܰ – nombre de points
du nuage) de telle sorte que ܣሺܩሻ ൌ ൫ܽ൯: 1 ݅, ݆ ܰ. S’il existe une arête (en terme des
graphes) entre deux points i et j, alors ݆ܽ݅ est égal à l’unité, sinon on lui attribue une valeur
égale à zéro. L’inconvénient majeur d’une telle représentation des nuages de points est que
l’on a besoin d’une énorme quantité de mémoire pour son stockage. Cependant, tous les
graphes peuvent être classés en deux catégories : les graphes denses et creux (sparse). Ces
derniers contiennent beaucoup moins d’arêtes que le nombre de sommets au carré ሺ|ܧ|
|ܸ|
2ሻ. Or, la construction de matrice d’adjacence est superflue pour ce type de graphes. Elle
ne peut pas être aussi applicable à des nuages de points.
L’idée de notre approche consiste à créer plutôt une liste d’adjacence (liste de successeurs)
puisque c’est une représentation alternative de la matrice d’adjacence. En fait, elle comprend,
pour chaque point (sommet), une liste de sommets voisins à celui étant examiné (Figure
9.13c). Pour ce faire, il faut mettre en œuvre un algorithme de recherche de voisinage local
comme nous l’expliquerons plus loin. Son choix va imposer un mode de création des
connexions entre les points du nuage et donc, un nombre d’arêtes obtenues en dépendra.
Tous les points relativement proches de celui analysé seront reliés par une arête adéquate. CHAPITRE 4. Extraction d’arêtes
73
Figure 9.13 Représentation d’un nuage de points : a) Nuage de points de départ ; b) Graphe
non orienté ; c) Liste d’adjacence
Voisinage local
Au regard de récentes publications, deux définitions de voisinage local s’avèrent plus
répandues [Rabbani et al., 2006]. La première, utilisée par [Castillo et Zhao, 2009], amène à
prendre un échantillon, autour d’un point, composé des k voisins les plus proches k-NN
(k-Nearest Neighbors) selon une distance à définir. La métrique peut être donnée par la
distance Euclidienne, de Manhattan ou autre. En outre, la recherche des k-NN est souvent
optimisée à l’aide de différentes stratégies de partitionnement de l’espace comme l’arbre kd
(kd-tree) ou un octree. L’inconvénient majeur de cette technique est de dépendre de la densité
du nuage. En admettant un nuage peu dense, le k-ème point peut être très éloigné du point
envisagé et ne devrait pas être considéré comme voisin. En revanche, le fait d’être
indépendant de la distance rend cette méthode plus avantageuse pour certaines applications.
La seconde approche, employée entre autres dans les travaux de [Deschaud, 2010], mieux
adaptée aux données de densité élevée, consiste à percevoir comme voisins tous les points
inclus dans la sphère de rayon ߩ. Un tel raisonnement permet d’être partiellement
indépendant de la répartition des points. Par contre, cette méthode nécessite que la densité
du nuage reste assez homogène. Sinon, le voisinage va inclure trop de points dans les régions
denses et pas suffisamment de points dans celles ayant une densité faible. Dans le même
esprit [Lari et al., 2011] proposent un algorithme similaire dont l’idée consiste à établir le
voisinage de chaque point par l’intermédiaire d’un cylindre adaptif, tout en prenant en
compte la densité locale et la tendance de surface.
L’analyse de nos relevés laser mobile, en terme de répartition de point, confirme que les
points au sein du nuage ne sont pas uniformément répartis sur la surface balayée. En effet,
l’espacement entre les points n’est pas constant – il augmente avec la distance croissante
objet-scanner. De plus, nous observons qu’il varie suivant deux directions. La distance entre
deux points voisins en profil laser est plus petite que celle mesurée dans le sens de la
direction de la plate-forme. Cette première va dépendre de la résolution angulaire du scanner
laser, tandis que l’emplacement entre les profils laser change du fait de la vitesse du véhicule
et de la fréquence du scanner.
En fin de compte, nous avons décidé d’unir les deux premières définitions et de déterminer le
voisinage local comme un échantillon inclus dans la sphère de rayon ߩ, mais en même temps
de limiter le nombre de points autorisés à ݇. Dans ce cas, nous pouvons tirer profit des deux
techniques. Le voisinage établi au sein des régions sur-densifiées ne sera jamais trop chargé,
et celui créé pour les zones sous-densifiées ne contiendra pas de voisins inexacts. 74
Étiquetage des composantes connexes
Une fois le voisinage de chaque point du nuage établi, la matrice creuse A contenant une liste
de toutes les paires est créée. L’étape précédente étant primordiale, nous pouvons procéder à
l’extraction des composantes connexes à partir d’un graphe ܩ.
Figure 9.14 a) Graphe non orienté ; b) Trois composantes connexes détectées
L’une des façons de faire consiste à appliquer l’algorithme de parcours en profondeur DFS
(Depth First Search) [Sarni et Lemarchand, 2011], [Corman et al., 2001]. C’est un algorithme
de recherche explorant un chemin « à fond », sommet par sommet, jusqu’à ce que l’on ne
puisse plus avancer dans le graphe. Nous associons donc à un point de départ et à chacun des
sommets visités lors de l’exploration, un même numéro de composante connexe. Après cette
recherche deux cas peuvent se présenter :
1) Tous les sommets du graphe ont été atteints. Alors, le graphe est connexe et nous
obtenons une seule composante connexe ;
2) Certains sommets n’ont pas été visités et, par conséquent, nous relançons
l’algorithme à partir de l’un d’entre eux, en incrémentant l’indice de composante
connexe.
Nous continuons ainsi tant qu’il subsiste des sommets non explorés. La Figure 9.14 illustre
un exemple de résultats obtenus grâce à cet algorithme. Alternativement, il est possible
d’employer l’algorithme de parcours en largeur BFS (Breadth First Search) qui réalise le
parcours itératif d’un graphe en utilisant un fil. Il diffère du DFS par le fait qu’il liste d’abord
les sommets voisins du point examiné pour ensuite les explorer un par un.
Ces deux solutions paraissant être coûteuses en temps de calcul, nous proposons de nous
référer à une méthode plus efficace, rapide et facile à implémenter. Il s’agit d’appliquer l’un
des algorithmes classiques de la théorie des graphes notamment la décomposition de
Dulmage-Mendelsohn, notée la DM-Décomposition [Dulmage et Mendelsohn, 1958] de la
matrice non carrée A formée au préalable. Celle-ci consiste à permuter les colonnes Q et les
lignes P de la matrice creuse A (beaucoup plus grande que dense) représentant le graphe afin
d’obtenir la forme bloc triangulaire inférieur (9.11).
ܣሺܲ, ܳሻ ൌ ൦ܣଵଵ
0
0
0
ଵଶܣ
0
0
0
ଵଷܣ
ଶଷܣ
0
0
ଵସܣ
ଶସܣ
ଷସܣ
ସସܣ
൪ (9.11)
où : les sous-matrices ܣ12, ܣ23, ܣ34 sont carrées avec une diagonale entièrement non nulle. CHAPITRE 4. Extraction d’arêtes
75
En d’autres termes, nous allons partitionner les lignes ܮ (respectivement, les colonnes ܥ) en
trois sous-ensembles ce qui revient à partitionner la matrice ܣ en neuf blocs, dont trois vont
s’avérer être nuls (Figure 9.15). Pour rappel, chaque entrée non-nulle de la matrice creuse ܣ
représente une arête du graphe. Une telle matrice rectangulaire décrit naturellement un
graphe biparti non-orienté où il y a deux types de nœuds, les sommets « lignes » ܮ et les
sommets « colonnes » ܥ. Nous effectuons, pour mettre sous forme triangulaire par bloc la
matrice d’adjacence ܣ, la décomposition de Dulmage – Mendelsohn. Son idée consiste à
calculer un couplage maximum (matching) ܯ dans le graphe, c’est-à-dire, un sous-ensemble
des arêtes le plus grand possible tel qu’elles n’aient aucun sommet en commun [Cormen et
al., 2001].
௩ܥ ௦ܥ ܥ
A B ܯ ܮ
ܮ௦ 0 ܯ௦ C
ܮ௩ 0 0 ܯ௩
Figure 9.15 Décomposition canonique de la matrice d’adjacence ܣ
Nous introduisons, conformément à [Pothen et Fan, 1990], la terminologie suivante. Étant
donné un couplage ܯ, un sommet insaturé n’appartient à aucune arête du couplage. Une
chaîne alternée est un chemin dans le graphe qui ne repasse pas deux fois par le même
sommet, et dont une arête sur deux appartient au couplage. Une chaîne alternée est dite
augmentante si elle relie deux sommets insaturés. Sur cette base, nous constatons qu’un
couplage est maximal, si est seulement si, il n’existe pas de chaîne alternée augmentante
relativement à ܯ.
Une fois le couplage maximum calculé, le graphe ܩ est alors partitionné comme suit :
ܮ௩ : sommets de ܮ accessibles par une chaîne alternée depuis un sommet insaturé de ܮ ;
ܮ : sommets de ܮ accessibles par une chaîne alternée depuis un sommet insaturé de ܥ ;
ܥ௩ : sommets de ܥ accessibles par une chaîne alternée depuis un sommet insaturé de ܮ ;
ܥ : sommets de ܥ accessibles par une chaîne alternée depuis un sommet insaturé de ܥ ;
ܮ௦ ൌܮെ ሺܮ௩ ∪ ܮሻ
ܥ௦ ൌܥെ ሺܥ௩ ∪ ܥሻ
Comme l’affirme [Bouillaguet, 2011], il est aussi démontrable que :
1) Tous ces ensembles sont deux-à-deux disjoints ;
2) Le couplage relie les lignes de ܮ௩ à des colonnes de ܥ௩ et respectivement les lignes de
ܮ à des colonnes de ܥ. Par conséquent, |ܮ௩| |ܥ௩| et |ܮ| ൏ |ܥ| ;
3) Le couplage relie parfaitement les lignes de ܮ௦ aux colonnes de ܥ௦. Il en découle que
|ܮ௦| ൌ |ܥ௦|.
4) Dans le graphe de départ il n’y a pas d’arêtes entre ܥ et ܮ௦, ni entre ܥ et ܮ௩, ni entre
ܥ௦ et ܮ௩.
Pour mieux illustrer la DM-Décomposition d’une matrice ܣ, nous présentons le résultat
obtenu avec la fonction dmperm (accessible sous Matlab et implémentée aussi dans notre
algorithme) sur le nuage de la Figure 9.9a. Ainsi, la permutation des lignes ܲ et des colonnes
ܳ transforme la matrice d’adjacence ܣ en forme illustrée par la Figure 9.16. 76
Figure 9.16 DM-Décomposition sur données réelles
Ensuite, les indices de points ܦܫܺ du nuage ܰ appartenant à la même composante connexe
sont déterminés de la manière suivante :
ܦܫܺ ൌ ܲሺݎሺ݅ሻ: ݎሺ݅1ሻ െ 1ሻ (9.12)
où :
ܲ : liste permutée de colonnes
ݎ : vecteur indiquant les limites de blocs pour la décomposition
‖ݎ‖ െ 1 : nombre de composantes connexes retrouvées
Figure 9.17 Composantes connexes extraites à l’aide de l’algorithme proposé. Paramètres
fixés : R=0.10m, k=25, ܰ݉݅݊=0. Une couleur correspond à une composante.
L’étiquetage des composantes connexes se fait de façon itérative, en incrémentant la valeur ݅
jusqu’à ce que l’on atteigne le nombre de régions recherchées. À ce stade, nous pouvons
introduire une contrainte concernant le nombre minimal de points ܰ݉݅݊ formant la CHAPITRE 4. Extraction d’arêtes
77
composante connexe. Tous les sous-ensembles ne satisfaisant pas aux exigences sont
immédiatement rejetés. La Figure 9.17 présente les résultats d’étiquetage de composantes
connexes en tenant compte de la décomposition effectuée (Figure 9.16).
Surface d’un sous-ensemble de points
Dès que toutes les composantes connexes sont extraites, nous calculons leurs surfaces. Nous
entendons par ce terme l’aire de l’enveloppe convexe 2D (convex hull) englobant l’ensemble
fini de points d’une composante. Nous cherchons ainsi le contour du plus petit polygone
fermé et convexe délimité par tous les points (Figure 9.18).
Le calcul de l’enveloppe convexe se fait à l’aide du plan moyen Π sur lequel les points de la
région sont projetés. Plusieurs algorithmes de complexité diverse ont été développés pour
résoudre un tel problème notamment : la marche de Jarvis (Gift wrapping algorithm) [Jarvis,
1973], le parcours de Graham (Graham’s scan) [Graham, 1972], l’heuristique de AklToussaint,
ou le diagramme de Voronoï. Nous avons employé la bibliothèque CGAL
(Computational Geometry Algorithms Library) mettant à disposition l’algorithme Quickhull de
[Bykat, 1978]. Finalement, l’aire de l’enveloppe convexe représente la taille de la
composante connexe. Nous conservons uniquement, cette composante dont la surface est la
plus importante. Les autres points reviennent au nuage pour participer de nouveau à la
recherche d’un segment plan par l’algorithme de RANSAC.
Figure 9.18 Aire du segment plan
Le pseudo-code 4.2 (Annexe E) présente notre approche d’analyse de composantes connexes
telle qu’elle est décrite dans cette section. Trois paramètres sont attendus en entrée
notamment le rayon de sphère ߩ et la valeur ݇ afin d’établir le voisinage du chaque point du
nuage. Optionnellement, le nombre minimal de points ܰ݉݅݊, peut être pris en compte afin de
définir la taille de la plus petite composante connexe autorisée.
4.5 Méthode proposée d’extraction d’arêtes
Une fois tous les plans principaux détectés, nous procédons à extraire les segments de ligne.
Nous cherchons à retenir uniquement les arêtes réelles figurant dans la scène. Étant donné
que lors du processus de segmentation des surfaces planes décrit ci-dessus nous bénéficions
non seulement d’un ensemble de modèles de plans ∏, mais aussi des sous-ensembles de
points - segments plans (ܵܲ), le processus d’identification d’arêtes est assez aisé (Figure
9.19). Quant à l’ensemble ∏, il est défini de telle sorte que chacun de ces éléments soit
caractérisé par un vecteur directeur ݊݅ et un point ܣ݅ (par lequel le plan ∏i passe). Par
conséquent, la droite d’intersection ܫ entre deux plans ∏j et ∏k peut être facilement 78
retrouvée. Le vecteur directeur ݑሬԦ de cette ligne est le produit vectoriel de deux vecteurs
normaux :
ݑሬԦ ൌ ݆݊ ሬሬሬԦ ൈ ݊݇ ሬሬሬԦ (9.13)
Figure 9.19 Segments plans extraits par RANSAC
Néanmoins, à cette étape deux questions doivent se poser : 1) Quels segments plans de
l’ensemble ∏ sont sécants ?; 2) Comment définir les extrémités du segment de ligne
résultant de cette intersection ? Pour répondre à ces interrogations, nous proposons une
méthode qui s’attache à analyser toutes les combinaisons possibles des plans afin de dissocier
ceux étant voisins. La Figure 9.20 contient le schéma complet de l’approche discutée.
Figure 9.20 Procédure proposée d’extraction d’arêtes CHAPITRE 4. Extraction d’arêtes
79
Premier rejet des paires de plans – analyse de l’angle
Dans un premier temps, l’angle ߚ entre toute paire candidate de plans est calculé, ainsi que le
poids ܳ – critère de la qualité de cette intersection. Les deux valeurs peuvent être quantifiées
en considérant les vecteurs normaux ݆݊ et ݊݇ des deux plans étudiés.
Du point de vue géométrique, la norme de leur produit vectoriel se définit comme :
‖ݑሬԦ‖ ൌ ฮ݊ఫ ሬሬሬԦฮ ∙ ‖݊ሬሬሬሬ
(9.14) |ߚ݊݅ݏ| ∙ ‖Ԧ
Puisque les deux vecteurs sont unitaires (la norme est égale à l’unité), le poids ܳ peut se
calculer de la manière suivante :
ܳ ൌ ‖ݑሬԦ‖ଶ ൌ ݏ݅݊ଶߚ (9.15)
Il est évident que l’intersection est la meilleure si l’angle est droit. Or, le poids ܳ associé
doit être égal ou proche de l’unité. Si ܳ est petit, alors la longueur du vecteur ݑሬԦ est faible et,
par conséquent, la droite d’intersection est mal définie. De même, l’intersection n’existe pas,
si deux plans sont parallèles (ܳൌ0). L’analyse des poids ܳ nous permet de réduire la taille
de l’ensemble contenant des paires « potentielles » de plans. Dans ces conditions, lors du
premier rejet, nous ne conservons que les paires dont le facteur ܳ est supérieur à ܶொ. La
valeur ܶொ a été fixée à 0.5, ce qui revient à dire que nous ne prenons en considération que les
paires de plans se coupant sous l’angle de 45° à 135°. Toutefois, rien n’empêche d’accroître
les exigences envers les intersections recherchées et d’augmenter la limite basse ܶொ.
Deuxième rejet des paires de plans – analyse de la distance
L’étape suivante nous amène à vérifier la distance ݀ entre les paires restantes et à garder
uniquement celles composées par les plans voisins. Considérant deux segments plans chacun
doté d’un sous-ensemble de points valables ܵܲ et ܵܲ isolé lors de la segmentation, mais
aussi l’équation du plan approximant ∏j et ∏k passant par ce nuage (Figure 9.19), nous
pouvons vérifier leur distance réciproque. Nous calculons simplement les distances
Euclidiennes les plus courtes des points du nuage ܵܲ au plan ∏K et vice versa (9.16). Il en
résulte que les distances minimales ݀1 et ݀ଶ, sont requises afin de pouvoir juger si les plans
sont suffisamment proches l’un de l’autre. Les segments plans sont considérés comme
adjacents, si est seulement si, la distance ݀ définie comme ݀ ൌ ݉݅݊ሺ݀ଵ, ݀ଶሻ est proche de zéro,
avec une certaine tolérance.
݀1 ൌ min
݆∈Յ ൛݀൫݆ܵܲ, ∏݇൯:݆ ∈ ሺ1, ܰሻൟ ݀2 ൌ min
݇∈Յ ቄ݀ ቀܵܲ݇, ∏݆
ቁ :݇∈ ሺ1, ܯሻቅ (9.16)
pour ܰ,ܯ : nombre de points respectivement dans les sous-nuages ܵܲ et ܵܲ.
Cette condition de proximité étant primordiale, elle peut être toutefois insuffisante dans
certains cas. La Figure 9.21 illustre un exemple particulier où les deux segments plans ܵܲ et
ܵܲ (violet et vert) sont loin d’être sécants, alors que la distance ݀ est égale à zéro. De ce fait,
ils sont censés aboutir à une droite d’intersection. Nous souhaitons reconstruire fidèlement
les arêtes existantes dans le nuage et éviter de créer ce genre de faux segments. 80
Figure 9.21 Exemple d’appariement devant être rejeté
Troisième rejet – analyse des extrémités des segments
Pour remédier aux faux appariements, nous examinons la longueur et les extrémités des
segments obtenus par cette intersection. Sachant que les paires « candidates » parallèles ont
déjà été rejetées, nous déterminons la droite ܫ entre deux plans sécants, de sorte que
∏ ∩ ∏ ൌ ܫ, à l’aide de la formule (9.13).
Ensuite, les points ܵܲ et ܵܲ situés à une distance inférieure à une tolérance prédéfinie
ܶௗ sont projetés sur cette droite. Plus précisément, les points se trouvant autour de leur ligne
d’intersection servent à identifier les extrémités d’arête de pli. De cette façon, deux segments
de ligne ܵ et ܵ sont retrouvés puisque chaque nuage a des limites différentes (Figure 9.22).
La dernière étape – l’analyse de la position spatiale des extrémités appartenant aux segments
d’intersection créés ܵ et ܵ, permet de mettre de côté les paires de plans indûment classées et
d’établir la longueur de l’arête finale. Nous ne conservons que les paires de plans dont
l’intersection aboutit à deux segments se chevauchant au moins partiellement. L’étude de la
position relative de ces segments colinéaires est menée en analysant la distance entre leurs
milieux (ܯ, ܯሻ, ainsi que leurs longueurs (ܮ, ܮ). Trois cas peuvent se présenter :
1) L’un des segments est complètement inclus dans l’autre (Figure 9.23a) : ฮܯܯฮ
หܮ⁄2 െ ܮ⁄2ห. En conséquence, la longueur de l’arête créée correspond au plus court
segment ;
2) Les segments se chevauchent partiellement (Figure 9.23b) : หܮ⁄2 െ ܮ⁄2ห ൏
ฮܯܯฮ ൏ หܮ⁄2 ܮ⁄2ห et donc la longueur de l’arête retenue est exactement la
même que celle de la zone de chevauchement ;
3) Les segments sont disjoints (Figure 9.23c) : ฮܯܯฮ หܮ⁄2 ܮ⁄2ห alors l’arête
n’existe pas et la paire de plans est supprimée. CHAPITRE 4. Extraction d’arêtes
81
Figure 9.22 Droite d’intersection entre les plans ∏j et ∏k et les extrémités de segments ܵ et
ܵ
Sachant que nous cherchons à extraire les segments les plus longs possible, nous pouvons,
optionnellement, prendre en compte une contrainte ܶ௦, c’est-à-dire la longueur minimale
d’une arête recherchée. Dès lors les arêtes trop petites seront exclues des résultats.
Figure 9.23 Relations spatiales entre les extrémités de segments ܵ et ܵ : a)b) arête retenue ;
c) arête rejetée 82
Le pseudo-code 4.3 (Annexe E) détaille notre algorithme d’extraction d’arêtes de pli. Nous
avons besoin en entrée de segments plans (ܵܲ) isolés lors de la segmentation ainsi que les
paramètres de plan (∏i) approximant chaque sous-ensemble de points. Nous obtenons, à la
sortie, un ensemble d’arêtes ܵܦ de longueur supérieure à ܶ௦.
4.6 Exemples de résultats
L’algorithme d’extraction d’arêtes discuté dans ce chapitre a été testé avec plusieurs nuages
de points, qu’ils soient mobiles ou statiques. Nous présentons dans cette partie quelques
résultats finaux (4.6.2), ainsi que ceux intermédiaires concernant la détection de segments
plans (4.6.1). Sachant que notre algorithme a été développé entièrement sous Matlab,
inadapté pour traiter de gros nuages de points, nous ne renseignons pas le temps de calcul
(étant assez conséquent en Matlab). Mais, on parle d'environ 50 minutes (sous Intel Core x2
T7600 2.33GHz/4 Go Ram/Win7 64bits) en ce qui concerne les résultats illustrés par la
Figure 9.25 (au total 265 266 points ont été traités).
4.6.1 Détection de plans
La Figure 9.24 montre soixante plans successifs extraits pour un fragment du nuage de
points Stereopolis2009_Soufflot. Les valeurs de tous les paramètres nécessaires pour faire
fonctionner notre algorithme sont listées au-dessous de l’image. Nous remarquons que le
plan perpendiculaire au sens du déplacement du véhicule, couvrant une superficie assez
grande, n’a pas été retrouvé. Cet état de fait est dû à l’angle d’incidence du faisceau laser qui
était important, et influençait le taux de bruit entachant les données élevées. En outre, la
position de la façade vis-à-vis de la tête du scanner fait que peu de profils laser l’interceptent.
La distance moyenne entre les profils consécutifs est donc faible. Nous dénombrons environ
15 lignes sur 5m linéaires de mur, ce qui donne localement une ligne sur 30cm. Nous
pourrions ipso facto mettre en doute le fait que ces points forment un plan satisfaisant aux
exigences imposées. Quant aux autres plans, nous observons le phénomène de sursegmentation
se dévoilant quand les surfaces uniformes en réalité sont segmentées en au
moins deux plans distincts.
Figure 9.24 Détection de plans - Stereopolis2009_Soufflot. Paramètres fixés : σ=0.015m,
P=0.99, ܰ=60, R=0.30m, k=25, ܰ=100. Une couleur correspond à un plan (points non
segmentés en noir) CHAPITRE 4. Extraction d’arêtes
83
La Figure 9.25 illustre les plans extraits à partir du nuage Riegl2012_Slomniki se
caractérisant d’un faible taux de bruit. Les résultats sont corrects, mais le problème de sursegmentation
apparaît toujours, surtout lors de la segmentation du sol.
Figure 9.25 Détection de plans – Riegl2012_Slomniki. Paramètres fixés : σ=0.01m,
P=0.99, ܰ=16, R=0.200m, k=25, ܰ=200. Une couleur correspond à un plan (points non
segmentés en noir)
D’autres types de problèmes rencontrés lors de l’utilisation de l’algorithme de RANSAC sont
montrés par la Figure 9.26. Elle illustre la recherche du premier plan dans le nuage de points
mobile. Les études étaient menées sur les données brutes. Le plan mis en évidence était pour
l’estimateur la meilleure solution en raison de la forte accumulation des points acquis durant
l’arrêt forcé de la plate-forme. Pour pallier ces fausses détections, l’étape de prétraitement
des données laser paraît indispensable – le débruitage, la décimation ou bien encore la
contrainte de distance minimale entre les points voisins. 84
Figure 9.26 Exemple de problèmes survenus lors de la détection des plans via RANSAC (en
rouge les points appartenant au premier plan détecté). Nuage de points du système L3D2
Nous pouvons constater que l’algorithme de RANSAC est sensible à la densité des nuages de
points. Par contre, il fournit de très bons résultats, en peu de temps, si le nuage est
homogène et sa densité élevée. L’approche proposée d’analyse de composantes connexes
vérifie correctement la connectivité du segment plan. Néanmoins, elle exige un temps
considérable afin de trouver le voisinage local de chaque point, ce qui est son seul point
faible. L’accélération de recherche des voisins faite par un arbre kd ou un octree, au lieu d’un
parcours linéaire, serait appréciée. L’un des futurs travaux sera de tester sa robustesse par
rapport aux autres méthodes d’extraction des composantes connexes, notamment les
algorithmes récursifs d’exploration de graphe (DFS, BFS), ou bien encore la solution
d’analyse du voisinage à l’aide d’image 2D.
4.6.2 Extraction d’arêtes
La Figure 9.27 illustre des résultats d’extraction d’arêtes dans le nuage de points acquis par
les systèmes mobiles. Tandis que la Figure 9.28 montre les segments extraits à partir du
nuage Sulpice2013_statique. Notre algorithme arrive à détecter correctement toutes les arêtes,
mais leur précision et le nombre dépendra fortement des segments plans pris en compte. Dès
lors, l’algorithme choisi de segmentation prédéterminera la complétude et la qualité de la
solution. CHAPITRE 4. Extraction d’arêtes
85
Figure 9.27 Arêtes extraites à l’aide de l’algorithme proposé (Tseg=2.000m).
a) Riegl2012_Slomniki ; b) Stereopolis2009_Soufflot
Figure 9.28 Arêtes extraites à l’aide de l’algorithme proposée (Tseg=1.000m) :
Sulpice2013_statique
a)
b) 87
CHAPITRE 5
Qualification à partir d’entités linéaires
Sommaire :
5. Qualification à partir d’entités linéaires ........................................................................ 87
5.1 Problématique .......................................................................................................................... 87
5.1.1 Comment mesurer la distance entre deux segments dans l’espace ? .................................... 88
5.1.2 Contraintes ........................................................................................................................................ 90
5.2 Mesure de distance proposée ................................................................................................. 91
5.2.1 Distance de Hausdorff ..................................................................................................................... 92
5.2.2 Matrice de similarité ....................................................................................................................... 94
5.2.3 Mise en correspondance ................................................................................................................. 96
5.3 Résultats et évaluation ........................................................................................................... 99
5.3.1 Données expérimentales ................................................................................................................ 99
5.3.2 Évaluation de l’algorithme d’appariement ............................................................................... 100
5.3.3 Exactitude et précision ................................................................................................................. 105
5. Qualification à partir d’entités linéaires
Dans ce chapitre, une nouvelle approche de qualification de relevés laser mobiles, son implémentation et
les résultats sont présentés. Celle-ci, basée sur les arêtes, semble être efficace et tout particulièrement
pour les besoins d’évaluation des nuages dont la densité faible empêche une identification précise des
points de contrôle. Adressée principalement à des zones urbaines, riches en primitives linéaires, notre
méthode délivre une mesure de qualité en s’appuyant sur la distance modifiée de Hausdorff (LHD).
La mise en correspondance de segments homologues, menée simultanément, joue un rôle crucial et, par
conséquent, elle doit être fiable. Nous proposons alors un algorithme entièrement automatique,
consistant à analyser la similitude entre les arêtes extraites de données mobiles et celles de référence. Sa
valeur, recueillie par la matrice de similarité, est déterminée en tenant compte de la distance et de
l’angle. Enfin, nous testons la robustesse d’un tel algorithme d’appariement, et qualifions les relevés
laser mobiles en termes d’exactitude et de répétabilité.
5.1 Problématique
Dans le dessein de développer une méthode de qualification de relevés laser mobiles acquis
dans un environnement urbain, nous proposons une approche basée sur les entités linéaires.
Celles-ci, représentant des intersections entre des plans principaux modelés dans le nuage,
Résumé 88
peuvent être extraites à l’aide de l’algorithme présenté dans le Chapitre 4. Ensuite, la
technique mise en œuvre se résume à une comparaison de deux ensembles de segments. Le
premier ensemble Test, contenant des droites à qualifier, sera confronté avec le second
nommé Model. Ce dernier, considéré désormais comme référence, se compose des segments
plus précis provenant, entre autres de levés topographiques, de nuages de points collectés en
mode fixe, mais aussi d’autres bases de données, qu’elles soient 2D ou 3D. Notre solution,
contrairement à celles envisagées par les méthodes se référant aux points de contrôle, vise à
diminuer les problèmes liés à l’identification correcte de cibles correspondantes. Toutes les
démarches détaillées au fur à mesure dans ce chapitre ne nécessiteront plus l’intervention
d’opérateur. L’appariement des segments s’effectue automatiquement, en examinant la
similitude des droites. Grâce à la comparaison des segments entre eux, il est possible de
repérer les entités linéaires Model (M) identiques ou très proches de celles de l’ensemble Test
(T). Mais, cette tâche devient encore plus complexe, quand on présume que le nombre de
segments peut varier d’un ensemble à un autre, et que leur longueur ne sera pas forcément la
même. En outre, nous observons également des droites pour lesquelles aucun homologue
n’existe dans l’ensemble de référence (Figure 5.1). Ce constat est dû au fait que le processus
d’extraction des segments peut engendrer des phénomènes de sur-segmentation et de soussegmentation.
Figure 5.1 Exemple d’arêtes à comparer : a) segments ܶ݁ݐݏ ; b) segments ܯ݈݀݁ ; c) les deux
ensembles superposés
Dans ce chapitre, une méthode de qualification sera présentée (Section 5.2), ainsi que les
résultats obtenus. Aussi, l’algorithme de mise en correspondance des segments 3D sera
examiné par rapport à la vérité-terrain (Section 5.3). Pour compléter ces analyses, l’impact
du décalage réciproque entre les segments étudiés sur la robustesse de l’algorithme
d’appariement sera vérifié. Une fois le couplage créé, nous proposerons d’évaluer les nuages
de points en termes d’exactitude et de précision (répétabilité). C’est pourquoi la distance
moyenne calculée à partir de segments, étant la distance modifiée de Hausdorff LHD (Line
Hausdorff Distance), servira à noter les nuages. Finalement, les avantages et les inconvénients
d’une telle procédure de qualification de relevés laser seront mis en avant.
5.1.1 Comment mesurer la distance entre deux segments dans l’espace ?
L’utilisation des arêtes, au lieu des points de contrôle, pour les besoins de qualification, exige
d’élaborer une métrique qui permettrait de comparer deux ensembles d’entités linéaires.
Certes, nous ne pouvons plus nous référer uniquement aux extrémités, puisque les segments
correspondants ne sont pas censés ni partager les mêmes coordonnées ni avoir la même
longueur. L’une des façons de faire peut être de définir la moyenne des distances ݀ calculées
entre les segments homologues provenant de différentes sources. La plupart des méthodes
abordant cette question s’appuient sur le calcul de la distance Euclidienne. Nous pouvons
aboutir à différentes variantes, comme l’illustre la Figure 5.2, visant, par exemple, à
déterminer la distance minimale, la distance entre les milieux de segments correspondants
(ܯ, ܯொ), ou leurs extrémités (ܲ, ܲଵ, ܳ, ܳଵ). CHAPITRE 5. Qualification à partir d’entités linéaires
89
Figure 5.2 Définition de la distance entre deux segments 3D : a) Distances déterminées
entre les extrémités ; b) Distance calculée entre les milieux ; c) Distance perpendiculaire
d’une extrémité de segment à l’autre segment ; d) Distance minimale ;
En considérant la distance ݀ entre les extrémités des segments (Figure 5.2a), nous calculons
tout simplement les distances d’un point 3D à l’autre :
݀ሺܲ, ܳሻ ൌ ඨ ൫ܲ െ ܳ
൯
ଶ ଷ
ୀଵ
݀ሺܲଵ, ܳଵሻ ൌ ඨ ൫ܲଵ െ ܳଵ
൯
ଶ ଷ
ୀଵ
(5.1)
Sachant que les coordonnées du milieu d'un segment sont les demi-sommes de chacune des
coordonnées des extrémités, nous introduisons, de manière similaire (formule (5.1)), la
distance ݀ calculée, cette fois-ci, entre les milieux respectifs (Figure 5.2b).
De même, nous pouvons envisager la distance des extrémités du premier segment (ܲ, ܲଵ) par
rapport à la droite ܮ passant par le second segment, et vice versa (Figure 5.2c). Il s’agit alors
de la distance minimale d’un point à une droite ܮ, mesurée suivant la formule ci-dessous :
݀ሺܲଵ, ܮሻ ൌ ฮܳܲଵ ሬሬሬሬሬሬሬሬሬԦ˄ݒԦฮ
‖Ԧݒ‖
(5.2)
pour la droite ܮ définie par un point ܳ et un vecteur ݒԦ non nul. L’indice ˄ symbolise le
produit vectoriel de deux vecteurs.
Dans tous les cas mentionnés, l’étape dernière nous amène à prendre la moyenne ou le
minimum des distances ݀ obtenues.
Cependant, la formulation de la distance minimale entre deux segments n’est pas aisée
(Figure 5.2d). Aussi, elle ne peut pas être confondue avec la distance minimale entre les
droites traversant ces segments puisque ces valeurs sont souvent différentes (Figure 5.3). Or, 90
le point d’une ligne désigné comme le plus proche de l’autre ligne peut ne pas être situé sur
la partie de droite délimitée par deux points fixes (extrémités).
Figure 5.3 a) Distance entre deux droites; b) Distance entre deux segments de droite
[van Verth et Bishop, 2008] avancent une solution de [Sunday, 2001] permettant de
résoudre cette tâche. Étant donné que la distance entre deux objets géométriques ܲ et ܳ est
définie comme la distance entre deux points quelconques ∈ܲ et ݍ∈ܳ (5.3), le problème se
résume toujours à trouver ces points minimisant la distance ݀.
݀ሺܲ, ܳሻ ൌ min
ఢ,ఢொ ݀ሺ, ݍሻ (5.3)
Quant à la distance entre deux segments, nous l’assimilons au calcul de la distance d’une
ligne à l’autre. Nous représentons le segment ܵଵ ൌ ሾܲ, ܲଵሿ par l’équation paramétrique de
droite ܮଵ: ܲሺݏሻ ൌ ܲ ݏሺܲ െ ܲଵሻ ൌ ܲ ݑݏሬԦ et le segment ܵଶ ൌ ሾܳ, ܳଵሿ comme ܮଶ: ܳሺݐሻ ൌ ܳ
ݐሺܳ െ ܳଵሻ ൌ ܳ ݒݐԦ pour 0 ݏ, ݐ 1. Ainsi, nous cherchons, pour ܮଵ et ܮଶ, les paramètres ݏ
et ݐ de telle sorte qu’ils décrivent la position des points les plus proches ܲሺݏሻ et ܳሺݐሻ. Une
seule différence réside dans le fait que la recherche de ces points est restreinte à l’intervalle
défini par les extrémités de chacun des segments. Finalement, la distance minimale entre
deux segments ܵଵ et ܵଶ correspond à la norme du vecteur ݓሬሬሬሬሬ
Ԧ dont les coordonnées sont
données par les points ܲሺݏሻ et ܳሺݐሻ.
݀ሺܵଵ, ܵଶሻ ൌ ‖ݓሬሬሬሬሬ
Ԧ‖ ൌ ‖ܲሺݏሻ െ ܳሺݐሻ‖ (5.4)
En minimisant la norme de ݓሬሬሬሬሬ
Ԧ nous arrivons à déterminer les paramètres ݏ et ݐ. La
description plus exhaustive de cette approche fait partie de l’Annexe A.
5.1.2 Contraintes
Afin d’être en mesure de vérifier la qualité (l’exactitude et la précision) à partir des segments
de droite, la distance réciproque ݀ሺݐ, ݉ሻ entre eux doit être définie de manière à refléter leur
véritable éloignement. Cependant, les approches listées auparavant ne sont pas suffisamment
robustes pour nos applications puisqu’elles n’envisagent ni orientation de droites ni situation
où les segments se chevauchent seulement partiellement. Nous en avons pour preuve
quelques exemples présentés par la Figure 5.4. Nous y voyons clairement que, dans certains
cas, les distances déterminées ne restituent pas de vraies relations mutuelles entre les
segments. Ainsi, pour les droites quasiment parallèles (Figure 5.4a,b), cette valeur peut être
importante, et inversement, les deux segments orientés différemment (Figure 5.4c,d,e)
peuvent être classés comme relativement proches (distance faible, voire égale à zéro). CHAPITRE 5. Qualification à partir d’entités linéaires
91
Figure 5.4 Exemples générant des calculs de distances erronés : a) Distances déterminées
entre les extrémités ; b) Distance calculée entre les milieux ; c) Distance perpendiculaire
d’une extrémité de segment à l’autre segment ; d)e) Distance minimale ;
Afin de surmonter ce genre d’inconvénients [Gao et Leung, 2002] suivis par [Chen et al.,
2003] ont proposé une approche dédiée à la comparaison des segments 2D extraits à partir
des logos (images). Nous nous en sommes inspirés pour notre méthode en l’adaptant à un
espace tridimensionnel. Dès lors, la distance entre les segments 3D ralliera l’écartement,
mais aussi l’angle formé entre chaque paire de droites homologues. La section suivante
abordera en détail ce sujet.
5.2 Mesure de distance proposée
La Figure 5.5 présente un aperçu général des étapes de calcul constituant l’approche
proposée. Dans un premier temps, la similarité entre toutes les combinaisons possibles de
droites, provenant de deux ensembles ܶ (ܶ݁ݐݏ) et ܯ (ܯ݈݀݁), sera notée sous forme d’un score
݀ሺݐ, ݉ሻ. Celui-ci étant le coefficient de la matrice de similarité, il fera, par la suite, l’objet
d’une étude particulière. Sa valeur servira à vérifier si les deux segments sont suffisamment
similaires pour être appariés, et s’ils sont susceptibles d’être employés pour déterminer la
distance moyenne – notre mesure de qualité. Étant donné que seuls les segments quasiparallèles
peuvent être appariés, on se devra de prendre en compte l’orientation et la position
des segments pour calculer chaque score ݀ሺݐ, ݉ሻ. Le paragraphe 5.2.2 se penchera sur ce
sujet.
Passons à présent à la mise en correspondance des segments. Nous devons trouver le moyen
permettant de conclure que les deux entités comparées sont semblables. Nous mémoriserons
uniquement les paires dont les scores sont jugés négligeables, c’est-à-dire, inférieurs ou
égaux à un seuil que l’on s’est fixé automatiquement en fonction de valeurs ݀ሺݐ, ݉ሻ
sélectionnées. Toutes les paires retenues formeront ensuite la matrice binaire de
correspondance ݎܥ, systématisant les interactions entre les éléments linéaires de deux
ensembles étudiés ܶ݁ݐݏ et ܯ݈݀݁.
Une fois l’appariement retrouvé, nous déterminerons l’écartement des données traitées. Cette
mesure, étant la distance modifiée de Hausdorff LHD (Line Hausdorff Distance), évaluera,
d’une manière objective, l’exactitude du relevé laser en calculant sa distance par rapport à la
référence. Également, la qualification de la précision deviendra possible à réaliser, sous
réserve que des nuages redondants soient collectés au sein de zones d’intérêt. Comme nous 92
l’expliquerons plus loin, toutes les opérations seront menées dans deux sens : l’ensemble ܶ݁ݐݏ
sera comparé avec le ܯ݈݀݁ et vice versa. Par conséquent, deux matrices de correspondance
seront obtenues, ainsi que deux distances relatives de Hausdorff OLHD (Oriented Line
Hausdorff Distance).
Figure 5.5 Calcul de distance entre segments : algorithme proposé
5.2.1 Distance de Hausdorff
En géométrie, la métrique de Hausdorff est un outil de détermination de la proximité de deux
sous-ensembles de points dans un espace fini. Cette mesure de similarité naturelle est très
utilisée pour le traitement d’image. Elle permet de qualifier les dissemblances entre les
formes, de numériser une image ou bien encore de reconnaître une forme. Nombreux sont les
chercheurs faisant appel à cette métrique par exemple [Huttenlocher et al., 1993],
[Grussenmeyer et al., 1994], [Abbas et al., 1995], [Choi et al., 2001], [Gao et Leung, 2002],
[Chen et al., 2003], [Benhabiles et al., 2009], [Wang et Tan, 2012], [Gao et al., 2012].
Contrairement à la majorité des méthodes d’analyse de forme, la distance de Hausdorff ne
requiert pas de mise en correspondance explicite des points ܶ݁ݐݏ et ܯ݈݀݁.
Considérant deux ensembles de points ܶ ൌ ൛ݐଵ, ݐଶ,…,ݐൟ et ܯ ൌ ൛݉ଵ, ݉ଶ,…,݉ൟ, la distance de
Hausdorff (ܪ) est la distance maximale de deux quantités : ݄ሺܶ, ܯሻ et ݄ሺܯ, ܶሻ (5.5).
ܪሺܶ, ܯሻ ൌ ݉ܽݔ൫݄ሺܶ, ܯሻ, ݄ሺܯ, ܶሻ൯ (5.5)
Ces deux composants, nommés distances relatives de Hausdorff, n’ont quasiment jamais la
même valeur (Figure 5.6). La distance de Hausdorff n’est pas alors symétrique (݄ሺܶ, ܯሻ ്
݄ሺܯ, ܶሻ). La première distance ݄ሺܶ, ܯሻ est le maximum parmi toutes les distances ݀ሺݐ, ݉ሻ,
calculées entre chaque point d’un sous-ensemble ܶ et un autre point le plus proche de
l’ensemble ܯ (5.6). La seconde ݄ሺܯ, ܶሻ, est définie pareillement, mais en direction de calcul
opposée. Quant à ݀ሺݐ, ݉ሻ, c’est une distance quelconque – généralement exprimée en tant que
distance Euclidienne. Cependant, rien n’empêche l’utilisation des autres métriques telle que la
distance de Manhattan par exemple.
݄ሺܶ, ܯሻ ൌ max
௧∈்
min
∈ெ
݀ሺݐ, ݉ሻ (5.6) CHAPITRE 5. Qualification à partir d’entités linéaires
93
Figure 5.6 Définition de la distance de Hausdorff entre deux polygones
Nonobstant [Dubuisson et Jain, 1994] définissent 24 formes différentes de la distance de
Hausdorff, dont une version modifiée MHD (Modified Hausdorff Distance). La principale
différence réside dans la façon de définir la distance relative ݄ሺܶ, ܯሻ qui sera désormais
calculée comme suit :
݄ሺܶ, ܯሻ ൌ 1
ܰ௧
ሻܯ ,ݐሺ݀
௧∈்
(5.7)
où :
ܰݐ : nombre de points dans l’ensemble ܶ
Il s’agit de la moyenne de toutes les distances minimales obtenues. Ainsi, chaque point de
l’ensemble a un impact sur la valeur finale. Ce même constat ne peut s’observer lorsque la
distance classique de Hausdorff est employée, même si les points sont assez proches les uns
des autres. Cette définition non seulement ne néglige donc aucun des points, mais encore,
selon les études complémentaires effectuées par [Benhabiles et al., 2009], elle donne de
meilleurs résultats que la définition de Hausdorff classique. En d’autres termes, la distance de
Hausdorff définie par les équations (5.5) et (5.6) est censée être très sensible aux points
aberrants. Par conséquent, quelques points aberrants, même un seul, peuvent
considérablement perturber le calcul. Néanmoins, il faut souligner que sa valeur n’est pas
une distance à proprement parler, car elle ne vérifie pas le principe d’inégalité triangulaire.
Line Hausdorff Distance comme mesure d’écartement entre deux jeux de
segments
La définition de la distance modifiée de Hausdorff telle quelle n’est pas appropriée pour les
besoins de comparaison des entités linéaires, puisqu’elle ne prend pas en compte l’orientation
de celles-ci [Gao et Leung, 2002]. Un exemple de problèmes rencontrés est illustré par la
Figure 5.7. Il en ressort très clairement que la distance renvoyée par la Figure 5.7a peut être
identique à celle calculée entre les segments 3 et 4 (Figure 5.7b). Cependant, les droites sur
la Figure 5.7a, dans la perception humaine, sont plus proches que ces deux dernières. De
même, en analysant à l’aide de la distance de Hausdorff les segments présentés par la Figure
5.7c, nous comparerons l’extrémité de la partie la plus haute de 7 avec la ligne 5, tandis que
celle la plus basse avec la ligne 6. Cette démarche n’est pas correcte puisque la droite 7 doit
être intuitivement perçue comme une seule entité, et sa distance mesurée par rapport, soit au
segment 5, soit au segment 6. 94
Figure 5.7 Exemple de problèmes liés à la distance modifiée de Hausdorff appliquée à des
lignes (Image reproduite à partir de [Gao et Leung, 2002])
Afin de faire face à toutes ces contraintes [Gao et Leung, 2002] ont proposé, pour l’imagerie
2D, une extension de la distance introduite par [Dubuisson et Jain, 1994] applicable, cette
fois-ci, à des droites. La distance directe OLHD (Oriented Line Hausdorff Distance) se calcule
de la manière suivante :
ܱܦܪܮሺܶ, ܯሻ ൌ 1
∑ೕ∈ெ ܮೕ
ೕܮ
݀൫ݐ, ݉൯
ೕ∈ெ
(5.8)
où :
݆݉ܮ
: longueur du segment de l’ensemble Model (référence)
݀൫ݐ, ݉൯ : distance entre deux segments
Une telle solution, fondée sur la moyenne pondérée, semble plus robuste lorsque les
segments plus longs sont privilégiés.
Cette définition est devenue le point de départ pour notre approche de qualification basée sur
les entités linéaires. Afin qu’elle soit capable de décrire l’exactitude et la précision de données
étudiées, elle doit être modifiée. Ceci est dû au fait que nous voulons insister sur le fait que la
distance de Hausdorff représente un chiffre aisé à interpréter, nous permettant de connaître
l’écartement réel entre les segments examinés. Or, les distances directes ܱܦܪܮሺܶ, ܯሻ et
ܱܦܪܮሺܯ, ܶሻ seront déterminées, selon la formule (5.9), à partir de segments couplés et
ordonnés par la matrice de correspondance Cor que nous détaillons plus loin (paragraphe
5.2.3)
ܱܦܪܮሺܶ, ܯሻ ൌ 1
∑ೕ∈ெ ܮೕ
ೕܮ
݀൫ݐ, ݉൯
ሺ,ሻ∈
(5.9)
5.2.2 Matrice de similarité
L’étape cruciale de l’algorithme de qualification proposé consiste à créer une matrice de
similarité, dont chaque coefficient ሺ݅, ݆ሻ indiquera un score (une distance) ݀ሺݐ, ݉ሻ attribué à
une paire étudiée. L’objectif consiste à analyser toutes les combinaisons possibles de
segments entre deux jeux. La matrice de similarité de taille ሺ, ݍሻ, déterminée par le nombre
d’éléments dans les ensembles respectifs ܶ݁ݐݏ et ܯ݈݀݁, est obtenue selon la formule cidessous
: CHAPITRE 5. Qualification à partir d’entités linéaires
95
݀൫ݐ, ݉൯ ൌ ටܹ ∙ ቀ݀ఈ൫ݐ, ݉൯ቁଶ
ቀ݀ூூ൫ݐ, ݉൯ቁଶ
ቀ݀⟘൫ݐ, ݉൯ቁଶ (5.10)
Le score ݀൫ݐ, ݉൯ étant la mesure de similitude, représente, en pratique, « l’effort » nécessaire
pour superposer deux segments quelconques : l’un provenant de l’ensemble ܶ et l’autre de ܯ.
Sa valeur intègre : la distance angulaire ݀ఈሺݐ, ݉ሻ, la distance parallèle ݀ூூሺݐ, ݉ሻ et la distance
perpendiculaire ݀⟘ሺݐ, ݉ሻ. La constante ܹ, étant choisie empiriquement, permet de mieux
mettre en évidence l’éventuelle divergence d’orientation des droites. Plusieurs tests ont été
réalisés pour choisir la valeur optimale de ce poids. Nous en ressortons que le poids ܹ égale
à 10 donne le meilleur résultat, c’est-à-dire, il facilite nettement l’analyse ultérieure de la
matrice de similarité notamment lors de la recherche du seuil approprié. De plus, il n’affecte
pas de manière importante la distance angulaire, puisque sa valeur, pour les droites
quasiment parallèles, reste toujours pratiquement nulle.
La Figure 5.8 présente toutes les distances que nous définissons pour mesurer la
dissemblance entre les segments 3D. La distance angulaire ݀ఈሺݐ, ݉ሻ se calcule de la manière
suivante :
݀ఈ൫ݐ, ݉൯ ൌ ݉݅݊ ቀ||ܮ௧
ೕܮ|| ,||
||ቁ ∙ ݏ݅݊ߙ൫ݐ, ݉൯ (5.11)
où
: angle d’intersection de deux droites ݐ et ݉ ;
௧ܮ
,ܮೕ : longueur respective des segments ݐ et ݉.
Figure 5.8 Mesure de déplacement de la droite : a) Distance angulaire ; b) Distance
parallèle ; c) Distance perpendiculaire
Puisqu’en réalité, aucune paire de segments n’est jamais totalement parallèle, nous effectuons
une rotation de chaque droite ܶ݁ݐݏ autour de son milieu. Cette étape est indispensable pour
obtenir une orientation cohérente des entités linéaires et pour calculer, par la suite, les deux
distances manquantes : parallèle et perpendiculaire. Le calcul de la distance parallèle (Figure 96
5.8b) exige une étude des extrémités de deux segments. Nous assimilons ce problème à
l’analyse des positions relatives de deux cercles circonscrits à ces segments (comme dans le
chapitre précédent – voir la Figure 4.22). Leurs centres respectifs ܯ௧ et ܯ (milieux de
segments) ainsi que les rayons ܴ௧ ൌ ܮ௧/2 et ܴ ൌ ܮ/2 seront étudiés. Plus précisément, il
faut chercher si les deux cercles se croisent. Pour ce faire, le segment ܶ݁ݐݏ est projeté sur la
droite ܯ݈݀݁. Il n’y aura donc aucun point, ou alors un ou deux points d’intersection de
cercles qui permettent de distinguer deux cas :
1) L’un des segments est complètement inclus dans l’autre, ou bien ils sont tangents
intérieurement, alors ‖ܯ௧ܯ‖ |ܴ௧ െ ܴ|. En conséquence, la distance parallèle
݀ூூ൫ݐ, ݉൯ est nulle ;
2) Les segments se chevauchent partiellement (|ܴ௧ െ ܴ ൏ ‖ܯ௧ܯ‖ ൏ ܴ௧ ܴ|), ou ils
sont disjoints (|ܯ௧ܯ| ܴ௧ ܴ), ou bien encore ils sont tangents extérieurement
(|ܯ௧ܯ| ൌ ܴ௧ ܴ). Alors la distance parallèle ݀ூூ൫ݐ, ݉൯ ൌ ݉݅݊ሺ݀ܫܫଵ, ݀ܫܫଶሻ (Figure
5.8c). Autrement dit, sa valeur correspondra au déplacement minimal nécessaire pour
superposer soit les extrémités droites, soit les extrémités gauches de deux segments
appariés.
En résumé, la distance parallèle se calcule selon la formule ci-dessous :
ݐ݉ ݑ ݉ ݐ ݅ݏ ൯ൌ൜0݉ ,ݐூூ൫݀
ݐ݊݁݉݁ݎݐݑܽ ଶሻܫܫ݀ ,ଵܫܫ݀ሺ݊݅݉
(5.12)
Finalement, la distance perpendiculaire ݀⟘൫ݐ, ݉൯ est tout simplement la distance minimale
entre deux droites parallèles ܦ௧ et ܦ. Soit la droite ܦ௧ passant par ܯ௧ et de direction de
vecteur ܸ௧ ሬሬሬԦ, et la droite ܦ passant par ܯ et de direction ܸሬሬሬሬԦ. La distance est alors égale à :
݀⟘൫ݐ, ݉൯ ൌ ݇
ฮܸ௧ ሬሬሬԦ˄ܸሬሬሬሬԦฮ
(5.13)
où ݇ est le produit mixte de trois vecteurs ൣ ܯ௧ܯ ሬሬሬሬሬሬሬሬሬሬሬሬԦ, ܸ௧ ሬሬሬԦ, ܸሬሬሬሬԦ൧ (déterminant de la matrice formée
par les trois vecteurs).
5.2.3 Mise en correspondance
Dès que la matrice de similarité est créée (Figure 5.9a), nous procédons à l’analyse de celle-ci
pour fixer un seuil ߜ, nécessaire dans le processus de rejet des paires erronées et de mise en
correspondance des segments. Bien entendu, les correspondances recherchées ne seront
quasiment jamais de 1 à 1, mais plutôt de 1 à plusieurs, de plusieurs à 1, voire de 1 à nul. Afin
d’établir la valeur appropriée du seuil, nous commençons par un appariement préliminaire de
segments ܵ. Cette étape nous amène à apparier, à chaque droite de l’ensemble T, un
homologue le plus semblable de ܯ, c’est-à-dire, le segment le plus proche au sens de la
distance ݀ሺݐ, ݉ሻ. La tâche est aisée à remplir, puisque l’on peut toujours relier deux segments
entre eux, même si leur score est significatif et même si la paire formée de cette manière
n’existe pas en réalité (Figure 5.9b). CHAPITRE 5. Qualification à partir d’entités linéaires
97
Figure 5.9 Estimation des correspondances : a) Matrice de similarité ; b) Appariement
préliminaire ܵ (carrés blancs)
Se fondant sur cet appariement grossier ܵ, la recherche d’un seuil optimal se limite à
l’analyse des différences entre les distances associées aux paires sélectionnées.
Figure 5.10 Recherche du seuil ߜ
La soustraction membre à membre des valeurs ݀ሺݐ, ݉ሻ d’une telle suite ܵ est exécutée deux
fois. Nous partons d’abord des distances classées selon un ordre ascendant ce qui amène à
créer une nouvelle liste des valeurs Diff1 - première dérivée (courbe verte sur la Figure 5.10).
L’opération est effectuée encore une fois, mais cette fois-ci, pour les termes du suite Diff1.
Comme résultat, nous obtenons une courbe violette (Figure 5.10). Le premier pic (parmi les 98
valeurs Diff2 – deuxième dérivée) ayant la hauteur supérieure à la sensibilité admise
(U=0.5m) et détecté à l’aide d’une fonction localisant des maxima locaux, désigne l’indice du
couple de segments dont le score sera admis comme le seuil de couplage ߜ. Cette procédure
étant conçue pour les échantillons importants (nombre de paires ܰ supérieur à 10), nous
envisageons aussi une solution pour les cas ne remplissant pas cette condition. L’équation
(5.14) résume la façon de calculer le seuil ߜ, quel que soit le nombre de paires traitées.
ߜൌቐ ݉ܽݔሺܵሻ ܥܽݎ݀ሺܦ݂݂݅ଵ ൏ ܷሻ ൌܰെ1
ᇱ݊ ݈݈ܽܿ ݉ݑ݉݅ݔܽ݉ ݈݁ ݅ݏ ߪé݀݅ܽ݊݁ሺܵሻ 2݉
10 ܰ ˄ ݏܽ ݁ݐݏ݅ݔ݁
ݐ݊݁݉݁ݎݐݑܽ ܷ ଶሻ݂݂݅ܦሺ݈݈ܽܿ ݉ݑ݉݅ݔܽ݉ ݎ݁݅݉݁ݎ ݈݁
(5.14)
Dans le cas des échantillons petits, mais aussi ceux pour lesquels aucun maximum local
n’existe, deux résolutions du problème sont envisagées :
1) Toutes les paires de l’appariement préliminaire ܵ sont correctes et donc les
différences successives Diff1 sont négligeables (inférieures à ܷ). Le seuil ߜ sera la
valeur maximale parmi toutes les distances ݀ሺݐ, ݉ሻ ordonnées par la suite ܵ ;
2) L’existence de paires aberrantes au sein de l’ensemble ܵ est constatée et le seuil ߜ est
fixé comme la médiane de celui-ci, agrandie ensuite par une tolérance de 2ߪ. Ainsi,
toutes les valeurs inférieures ou égales à la médiane sont mises de côté, pour
participer au calcul du σ représentant l’écart –type de leur moyenne.
Une fois le seuil retrouvé, la matrice de correspondance ݎܥ est générée comme suit :
ݎܥ ൌ ൛ሺ݅,݆ሻ ∈ Յଶ: ∀൫ݐ ∈ ܶ, ݉ ∈ ܯ൯, ݀൫ݐ, ݉൯ ߜൟ (5.15)
Figure 5.11 Matrice de correspondance : a) ܶ݁ݐݏ → ܯ݈݀݁ ; b) ܯ݈݀݁ → ܶ݁ݐݏ
En d’autres termes, le seuillage de la matrice de similarité fournit un appariement définitif. Il
convient de rappeler que la procédure décrite ci-dessus est menée dans deux sens, surtout
pour des raisons de contrôle, mais aussi pour remplir les conditions imposées par la CHAPITRE 5. Qualification à partir d’entités linéaires
99
définition de la métrique de Hausdorff. En effet, deux matrices de correspondance sont
indépendamment déterminées, en supposant pour la seconde fois que l’ensemble ܶ݁ݐݏ est la
référence (Figure 5.11). Dès lors, les distances directes ܱܦܪܮሺܶ, ܯሻ et ܱܦܪܮሺܯ, ܶሻ peuvent
être calculées entre les segments grâce à la formule (5.9). Quant à la distance indirecte
(LHD), elle est obtenue à l’aide de l’équation (5.5).
5.3 Résultats et évaluation
Dans cette partie, nous validerons notre méthode de qualification des relevés laser mobile.
Nous commencerons par vérifier l’algorithme de mise en correspondance des segments,
puisqu’il influencera les résultats finaux (Paragraphe 5.3.2). Pour ce faire, les données réelles
seront employées. Trois critères : l’exactitude, la sensibilité et la spécificité nous permettront
de noter l’algorithme développé. L’appariement créé sera confronté avec la vérité-terrain.
Ensuite nous compléterons les analyses effectuées par une étude de l’impact d’éloignement
réciproque des nuages sur l’appariement des segments. En dernier lieu (Paragraphe 5.3.3),
nous qualifierons les relevés laser, en termes d’exactitude absolue et de précision
(répétabilité).
5.3.1 Données expérimentales
Figure 5.12 Zone de test : a) Prise de vue de la zone avec les trajets de la plate-forme
superposés ; b) Vue de dessus des relevés laser mobiles acquis
La zone de test est située à Paris, à proximité du croisement des rues du Vieux-Colombier et
Madame. Le choix de ce carrefour s’explique non seulement par la forte présence de façades
orientées différemment (la multitude d’arêtes), mais aussi par sa diversité. Il contient des
espaces « dégagés », ainsi que ceux considérés comme très problématiques du point de vue
des acquisitions mobiles. La géométrie des rues (canyons urbains souvent à sens unique) et
les bâtiments de hauteur importante rendent les conditions de réception du signal GNSS
particulièrement difficile. Ceci nous a permis d’acquérir des données mobiles de qualité
différente. Des relevés laser y ont été collectés par le système mobile Stéréopolis II d’IGN100
dans la configuration décrite dans la section 2.1.3. Quelques passages de la plate-forme ont
été réalisés dans ce périmètre comme on peut l’observer dans la Figure 5.12. En revanche,
pour les besoins de l’analyse, seulement trois nuages de points S1, S2 et S3 ont été employés.
Figure 5.13 Segments extraits à partir des nuages mobiles (les couleurs de segments
correspondent aux différents passages de la plate-forme - Figure 5.12
Les intersections entre les plans principaux (arêtes de pli) ont été retrouvées, constituant une
base exhaustive à tester. Dans le cas des nuages mobiles, la géométrie de balayage
(seulement le sol et le rez-de-chaussée de bâtiments constitué, en général, des devantures de
magasins, ont été balayés) nous a obligés à extraire manuellement les arêtes (Figure 5.13).
La détection précise de plans verticaux était impossible due au taux de bruit important.
Quant à la référence, nous employons le nuage Sulpice2013_statique (voir la Figure 2.21 dans
la Section 2.2) à partir duquel les arêtes (ܨ) ont été extraites avec l’algorithme proposé au
sein du Chapitre 4 (Figure 4.27).
5.3.2 Évaluation de l’algorithme d’appariement
Appariement des segments
Au premier abord, la mise en correspondance réalisée à travers l’approche développée a été
comparée avec la vérité-terrain. De ce fait, la capacité de l’algorithme à prédire si une paire
existe a été mesurée. À chaque fois, une matrice de confusion a été créée afin d’observer le
nombre de paires de segments : 1) correctement appariées VP (Vrais Positifs) ; 2)
correctement rejetées VN (Vrais Négatifs) ; 3) mal identifiées FP (Faux Positifs) ; 4) omises
FN (Faux Négatifs). La Figure 5.14 visualise un exemple de résultats de la mise en
correspondance des segments réalisée entre le nuage mobile (S3) et celui statique (F).
Sur cette base, trois critères servant à noter notre algorithme d’appariement, largement
employés en statistique, ont été définis de la manière suivante :
ݔܧܽܿݐ݅ݑݐ݀݁ ൌ ሺܸܲ ܸܰሻ/ሺ∙ݍሻ (5.16)
ܵ݁݊ݏܾ݈݅݅݅ݐé ൌ ܸܲ/ሺܸܲ ܨܰሻ (5.17)
ܵé݂ܿ݅݅ܿ݅ݐé ൌ ܸܰ/ሺܸܰ ܨܲሻ (5.18) CHAPITRE 5. Qualification à partir d’entités linéaires
101
Figure 5.14 Comparaison avec la vérité-terrain : a) ܶ݁ݐݏ → ܯ݈݀݁ ; b) ܯ݈݀݁ → ܶ݁ݐݏ
Le Tableau 5.1 résume les valeurs obtenues pour les données réelles, séparément pour
chaque direction de calcul, et accompagnées par la distance ܱܦܪܮ. Il en ressort que
l’appariement réalisé entre les segments est suffisamment exact (les valeurs de tous les trois
critères définis sont élevées).
Tableau 5.1 Validation de l’algorithme de mise en correspondance (T-ܶ݁ݐݏ, M-ܯ݈݀݁)
Nombre de
segments
N
Exactitude
[%]
Sensibilité
[%]
Spécificité
[%] OLHD[m]
Test
(p)
Model
(q) T→M M→T T→M M→T T→M M→T T→M M→T
S1-S2 36 28 11 99.8 99.8 100.0 91.7 99.9 99.8 0.518 0.472
S1-S3 36 41 29 99.5 99.5 93.1 93.1 99.7 99.7 0.302 0.297
S2-S3 28 41 12 99.7 99.7 91.7 91.7 99.8 99.8 0.481 0.560
S1-F 36 64 21 99.6 99.6 85.7 95.2 99.7 99.6 0.671 0.656
S2-F 28 64 22 99.3 98.9 90.9 90.9 99.4 99.0 1.104 1.257
S3-F 41 64 24 99.7 99.5 91.7 91.7 99.7 99.6 0.563 0.657
Moyenne 99.6 92.3 99.7
La probabilité que l’algorithme dissocie correctement les vraies paires parmi toutes les
combinaisons possibles (exactitude) est élevée et oscille autour de 99.6%. En moyenne, 92.3%
des paires (voir la sensibilité) ont été retrouvées, indépendamment de l’éloignement de deux
ensembles de droites, ܶ݁ݐݏ et ܯ݈݀݁. Quant à la probabilité de dénombrer les appariements
erronés, elle peut être décrite comme faible. Puisque la spécificité atteint moyennement un
niveau de 99.7%, le nombre de FP constitue 0.3% de tous les VN. Par contre, le taux de FP
(détection d’une paire inexistante) paraît dépendre de la distance réciproque entre les
segments de deux jeux traités. En réalité, cet impact sur l’écartement se traduit par une
augmentation du nombre de droites couplées qui, dans le cas étudié, sont enrichies par 73% 102
de paires de plus pour une distance ܦܪܮ égale à 1.257m. D’un point de vue pratique, les
segments très proches de l’ensemble ܶ݁ݐݏ seront appariés à un même élément de ܯ݈݀݁, car
leur distance est suffisamment petite. Notamment, comme le montre la Figure 5.15a (à
gauche), un grand décalage horizontal ݀ܲ exerce une influence sur le seuil ߜ devenant plus
grand. Les segments 17-18 et 15-16 seront ipso facto couplés avec les segments 47-48 et 5-6
respectivement, même si en réalité, leur homologue n’existe pas. Ceci est dû au fait que les
distances ݀ሺݐ, ݉ሻ calculées sont inférieures au seuil fixé. Pour y remédier, nous pouvons
imaginer deux solutions. La première consisterait à introduire une contrainte de couplage.
Nous autorisons une correspondance unique entre deux segments. Néanmoins, le processus
d’appariement nécessite que l’on affronte un phénomène de sur-segmentation. Les segments
n’auront que très rarement une seule entité correspondante. Un autre défaut, une telle
restriction dévoilera un accroissement du nombre de FN (non-détection d’une paire présente)
et par conséquent, la probabilité d’identification correcte des paires existantes de segments
(sensibilité) baissera. La seconde solution envisageable amènerait à rapprocher des segments
avant de démarrer l’algorithme de mise en correspondance (voir le Chapitre 6).
Figure 5.15 Exemple d’erreurs de mise en correspondance : a) FP ; b) FN
La Figure 5.15b illustre un autre problème noté lors du couplage d’entités linéaires. Le
segment 51-52 n’a pas pu être apparié avec le segment 29-30, du fait de la distance parallèle
݀ூூ supérieure au seuil ߜ. Nous avons aussi observé que, dans certains cas particulier, le poids
ܹ introduit (voir la formule (5.10)) pour mettre en évidence l’orientation incompatible des
droites peut être parfois insuffisant. Comme le présente la Figure 5.15a (à droite), le segment
33-34 a été apparié avec le segment 25-26 à cause de la distance ݀ୄ très petite et de celle ݀ூூ
étant nulle, par-devers les orientations différentes.
Impact de l’écartement entre les ensembles Test et Model
Après avoir effectué ces analyses, nous voyons que la mise en correspondance semble
dépendre du décalage réciproque des segments. Plus les ensembles à comparer sont proches
l’un de l’autre, plus le résultat sera précis. CHAPITRE 5. Qualification à partir d’entités linéaires
103
Figure 5.16 Exemple des résultats obtenus à partir de S1 et F (une seule direction de calcul)
en fonction de la distance LHD : a) Distance faible ; b) Distance importante 104
Dans un premier temps, nous avons vérifié cette propriété à l’aide de données réelles S1 et F
(originales, ensuite décalées). Deux cas sont illustrés : a) la distance réciproque ܦܪܮ entre les
ensembles est égale à 0.803m (Figure 5.16a) ; b) la distance est de 8.734m (Figure 5.16b).
Nous observons, à cause de l’écartement notable, que les scores ݀ሺݐ, ݉ሻ attribués aux paires
présentes sont à peu près de la même grandeur que ceux caractérisant les paires erronées.
Dès lors, il est impossible d’entreprendre correctement une classification. Le seuil fixé est
suffisamment important pour que les paires présentes soient détectées, par contre, il laisse
également incorporer des paires erronées (FP).
Figure 5.17 Problèmes d’appariement dus à l’écartement de segments Test (bleu) et Model
(rouge) : a) Segments proches ; b) Segments Test déplacés T=[0.0m, 5.5m] ; c) Segments
Test déplacés T=[5.5m 0.0m] ; d) Segments Test déplacés T=[5.5m, 5.5m]
Tableau 5.2 Matrices de similarité créées à partir des segments illustrés par la Figure 5.17
(sens de calcul ܶ݁ݐݏ → ܯ݈݀݁)
a) δ=0.33m b) δ=3,72m
0.28* 10.37 14.98 8.95 15.53 10 5.78 10.28 12.05 3.46* 10.05
13.50 0.32* 8.96 13.39 15.30 11 15.88 3.19* 4.32 12.16 11.42
9.53 8.82 10.09 0.32* 6.47 12 15.03 9.25 10.08 5.82 1.86*
17.89 4.10 0.32* 12.72 9.98 13 21.98 9.04 4.34 14.96 9.45
1 2 3 4 5 1 2 3 4 5
4.91* 12.60 17.55 9.97 16.82 10 7.58 12.53 15.13 5.60* 11.94
13.72 5.82 12.09 13.47 15.63 11 16.07 5.82* 9.20 12.25 11.87
10.91 11.68 13.88 4.83* 9.53 12 15.94 12.01 13.87 7.56 7.24
17.76 4.28* 5.82 12.46 9.98 13 21.88 9.13 7.26 14.74 9.45
c) δ=5.12m d) δ=7.09m CHAPITRE 5. Qualification à partir d’entités linéaires
105
L’origine de ce problème réside dans la matrice de similarité elle-même dont l’analyse, en
présence du décalage significatif, ne permet plus de restituer de vraies relations entre les
segments. Par l’intermédiaire du Tableau 5.2 (matrices de similarité) associé à la Figure 5.17,
nous fournissons un exemple justifiant nos conclusions. Pour simplifier notre expérience,
nous n’envisageons alors que le cas 2D.
Le déploiement des segments sur la Figure 5.17a permet, sans aucun doute, de constater
(visuellement) que les entités linéaires doivent être appariées de la manière suivante : 10-1,
11-2, 12-4, 13-3, nul-5. Aussi, les scores ݀ሺݐ, ݉ሻ attribués à ces paires par notre algorithme
sont moindres et le seuil δ=0.33m dissocie les paires de la même manière. Nonobstant, cette
certitude disparaît quand les segments sont de plus en plus éloignés (Figure 5.17b,c,d). Nous
les relions désormais d’une autre façon en tenant compte de la contrainte de choisir les paires
ayant la distance réciproque la plus petite, et les directions conformes. Les carrés gris du
Tableau 5.2 représentent l’appariement préliminaire ܵ, sur lequel notre algorithme
d’appariement va s’appuyer afin de calculer le seuil ߜ. Les paires retenues après le seuillage
sont marquées par un astérisque (*). Par conséquent, le résultat de mise en correspondance
effectuée par notre algorithme est suivant :
1) Figure 5.17a :VP=4, VN=16, FP=0, FN=0 ;
2) Figure 5.17b :VP=1, VN=14, FP=2, FN=3 ;
3) Figure 5.17c : VP=2, VN=15, FP=1, FN=2 ;
4) Figure 5.17d : VP=1, VN=14, FP=1, FN=3 ;
Au vu de ces résultats, nous constatons que l’algorithme fournit l’appariement adéquat à
l’emplacement actuel des segments. En souhaitant trouver des segments homologues parmi
deux ensembles éloignés, il faut se rendre compte que cette tâche peut être irréalisable.
Néanmoins, pour nos applications, c’est-à-dire l’appariement des segments lors de leur
qualification, cette remarque n’est pas trop pertinente. Premièrement, les nuages de points
ainsi que les données de référence sont géopositionnés dans un référentiel commun. En
second lieu, l’exactitude des systèmes mobiles récents est loin d’être métrique. C’est pourquoi
la contrainte de distance réciproque faible entre deux ensembles d’arêtes sera toujours
satisfaite. La mise en correspondance peut ainsi être précisément effectuée. Sinon, faute de
précision requise, il sera nécessaire de rapprocher des données avant d’exécuter l’algorithme
de couplage.
5.3.3 Exactitude et précision
Passons à présent à la qualification des relevés laser mobiles à l’aide des arêtes extraites.
Nous employons deux critères :
1) l’exactitude absolue calculée par rapport à la référence précise (données statiques) ;
2) la précision consistant à comparer plusieurs passages de la plate-forme mobile (S1-
S2, S1-S3, S2-S3).
Le Tableau 5.1 récapitule les distances relatives de Hausdorff (ܱܦܪܮ) déterminées pour les
deux sens de calcul : en comparant d’abord les entités linéaires ܶ݁ݐݏ (S1, S2, S3) entre elles –
mêmes, et ensuite avec celles de référence (F). À chaque fois, la valeur maximale ܦܪܮ décrit,
selon le cas, soit l’exactitude, soit la précision des données étudiées. Les tests effectués
montrent que, dans les zones urbaines, la précision du système mobile examiné est de 0.30m.
Cependant, une précision plus faible a été constatée lors de comparaison avec le passage S2.
Or, ce nuage a été très probablement affecté par une mauvaise qualité des mesures GNSS.
Cette hypothèse a pu être vérifiée par l’exactitude dont la valeur était égale à 1.257 m. En
revanche, dans les autres cas, l’exactitude absolue est d’environ 0.70m. Le Tableau 5.3
récapitule les valeurs de distance indirecte de Hausdorff ሺܦܪܮሻ retenues et décrivant la
qualité des données traitées. Aussi, le temps d’exécution CPU sous Matlab est renseigné. 106
Même si l’algorithme exige d’être encore optimisé, le temps de calcul est de l’ordre de
quelques secondes.
Tableau 5.3 Mesure de qualité :distance de Hausdorff retenue
Nombre de
segments
N LHD[m] CPU* [s]
Test
(p)
Model
(q)
S1-S2 36 28 11 0.518 1.39
S1-S3 36 41 29 0.302 1.99
S2-S3 28 41 12 0.560 1.54
S1-F 36 64 21 0.671 3.11
S2-F 28 64 22 1.257 2.36
S3-F 41 64 24 0.657 3.51
* Intel Core x2 T7600 2.33Ghz / 4Go Ram / Win7 64bits
Il convient aussi de souligner, que la distance moyenne évaluant la qualité des nuages à
partir des segments non seulement représente l’exactitude, mais aussi l’erreur survenue lors
de la procédure d’extraction d’arêtes. Cette dernière est propre à l’algorithme employé.
Quant à la distance de Hausdorff ܦܪܮ, ses autres propriétés seront encore abordées au
Chapitre suivant.
Notre algorithme de qualification est décrit par le pseudo-code 5.1(Annexe E). Son but est de
fournir une mesure de qualité ܦܪܮ, ainsi qu’une matrice binaire de correspondance ݎܥ entre
deux ensembles de segments. Nous obtenons également deux distances relatives de
Hausdorff : ܱܦܪܮ்ெ et ܱܦܪܮெ், une pour chaque direction de calcul. Nous nous en servons
pour contrôler la justesse de l’algorithme d’appariement. Si leurs valeurs diffèrent
significativement, il en résulte que la mise en correspondance n’est pas correcte. Il est donc
recommandé de changer, dans un premier temps, la sensibilité ܷ de la fonction de recherche
des maxima locaux (par défaut ܷ ൌ 0.5) puisqu’elle décide du seuil ߜ. L’algorithme attend en
entrée que l’on saisisse une liste de coordonnées des extrémités de segments ்ܺ௦௧ et ܺௌ
dans le format ሾܰݎ, ܺ, ܻ, ܼሿ. 107
CHAPITRE 6
Recalage à partir d’entités linéaires
Sommaire :
6. Recalage à partir d’entités linéaires ............................................................................. 107
6.1 Introduction ............................................................................................................................ 108
6.2 État de l’art du recalage rigide ........................................................................................... 109
6.2.1 Mise en correspondance automatique ....................................................................................... 109
6.2.2 Classification des méthodes existantes de recalage ................................................................ 111
6.2.3 Aperçu des méthodes basées sur les entités linéaires ............................................................ 113
6.3 Recalage basé-lignes : caractérisation des méthodes ..................................................... 115
6.4 Évaluation des méthodes présentées ................................................................................. 116
6.4.1 Données pour les expérimentations .......................................................................................... 117
6.4.2 Algorithmes implémentés ............................................................................................................ 118
6.4.3 Outils d’évaluation ........................................................................................................................ 118
6.4.4 Résultats – recalage des données bruitées ............................................................................... 119
6.4.5 Impact du bruit sur la distance de Hausdorff ........................................................................... 122
6.5 Approche proposée : RLMR-FMII2 ................................................................................... 124
6.5.1 Recalage grossier – principe ....................................................................................................... 126
6.5.2 Évaluation avec données simulées ............................................................................................. 127
6.5.3 Tests sur données réelles ............................................................................................................. 130
6. Recalage à partir d’entités linéaires
Dans ce chapitre un état de l’art de techniques de recalage rigide basé sur les entités linéaires est
effectué. Trois méthodes d’estimation sont choisies et examinées avec des données simulées, afin de
vérifier leur robustesse et leur précision vis-à-vis notre problématique. Au vu des analyses effectuées,
l’une des méthodes existantes est adaptée à nos besoins, puis renforcée d’un algorithme permettant
parallèlement la mise en correspondance. Sachant que notre technique d’appariement impose une
contrainte – la distance réciproque des segments doit être assez faible, nous procédons d’abord à
rapprocher des arêtes pour faciliter et améliorer leur couplage ultérieur. Nous proposons une chaîne
complète nommée ܴܯܮܴ െ ܫܫܯܨଶ comprenant le recalage grossier (utilisation complémentaire de
l’algorithme de RANSAC et celui de ܫܫܯܨଶ) et un recalage fin (raffinement des segments approchés
par le ܫܫܯܨଶ). Finalement, la performance d’une telle procédure est évaluée avec des données simulées
et réelles.
Résumé 108
6.1 Introduction
La consolidation des nuages de points a pour but d’assembler des données devant servir à la
reconstruction tridimensionnelle d’environnements et de base à des études géométriques.
L’existence de zones d’ombre dues à la complexité des formes numérisées ainsi qu’aux
artefacts (voitures, piétons ou autres obstacles) présents sur la zone durant l’acquisition se
manifeste par un accroissement du nombre de stations du scanner laser fixe – les poses
[Landes et al., 2011]. Lorsqu’il s’agit d’un robot mobile se mouvant, les nuages de points
consécutifs contiennent toujours une même partie de l’environnement, mais avec des points
de vue différents. Ces données doivent être mises en cohérence pour en déduire le
déplacement relatif. Aussi, pour les zones d’intérêts numérisées deux ou plusieurs fois, au fil
du temps, la question de la consolidation se pose. D’autre part, pour des plates-formes
aériennes ou terrestres se localisant grâce à des systèmes hybrides IMU/GNSS, nous
observons un biais entre les nuages de points distincts. Alors, dans le cas de la cartographie
terrestre des zones de taille allongée (cartographie des corridors) les pertes du signal GNSS
apparaissent sous la forme d’un décalage de la trajectoire estimée. Enfin, tous les relevés
acquis par scanner laser aérien ALS sont encombrés par des écarts planimétriques et
altimétriques causés, cette fois-ci, par la dérive de la centrale.
Quel que soit le moyen de collecter les données, tous les relevés laser doivent être affinés
dans un système de référence commun, autrement dit consolidés (recalés). La solution au
problème de calage se réduit à déterminer une bonne transformation géométrique (rigide ou
non rigide), applicable aux données. Le référentiel commun est arbitrairement choisi parmi
l’un des nuages de points. Par essence, le recalage rallie trois problématiques : 1) la
reconstruction des primitives facilement identifiables dans la scène balayée ; 2) la mise en
correspondance et la planification de la stratégie des manipulations sur des entités couplées ;
3) la résolution du système de contraintes amenant à estimer les paramètres optimaux de
passage d’un repère à un autre – généralement un vecteur de translation ܶ ൌ ൣܶ௫, ܶ௬, ܶ௭൧ et
une matrice de rotation ܴଷ௫ଷ.
Nous nous concentrons, dans le cadre de notre travail, sur le recalage rigide de relevés laser
issus du système mobile de cartographie. Deux tâches principales sont à réaliser. D’une part,
l’intégration « multidonnées » visera, à améliorer le géo-référencement absolu, ainsi qu’à
incorporer d’autres types de données, externes au système d’acquisition, mais fournissant
souvent des informations complémentaires. Cependant, le principe du co-recalage de relevés
sera de rechercher à assembler, de manière relative, ces différents nuages acquis lors de
plusieurs passages. Son inconvénient principal réside dans le fait qu’aucune information
extérieure ne corrige le cumul des erreurs, si bien que l’exactitude du calcul final ne peut pas
être calculée. Rappelons que les entités géométriques choisies sont des segments de droite
(arêtes de pli), car les nuages de points bruts (sans traitement), avec lesquels nous
travaillons, peuvent empêcher la reconnaissance précise des points de contrôle, même sous
forme de cibles placées volontairement dans la scène.
Dans ce chapitre, on s’attardera, dans un premier temps (Section 6.2), sur un état de l’art des
techniques de recalage et d’appariement des entités linéaires. Puis (Section 6.3), trois
approches d’estimation des paramètres de pose à partir des lignes 3D seront présentées en
détail notamment : EIGEN [Zhang et Faugeras, 1991], ICL (forme ICP) [Alshawa, 2006]
et FMII [Kamgar-Parsi et Kamgar-Parsi, 2004]. Ces algorithmes ont été implémentés et
examinés avec des données simulées afin de vérifier leur robustesse, la résistance au bruit et
l’exactitude des résultats obtenus vis-à-vis de notre problématique (Section 6.4). C’est sur
cette base qu’une chaîne complète, nommée ܴܯܮܴ െ ܫܫܯܨଶ (Robust Line Matching and
Registration – FMIIଶ) permettant un recalage qui s’appuie sur l’appariement des primitives
linéaires, a été proposé (Section 6.5). La mise en correspondance s’effectue à l’aide de
l’algorithme présenté dans le Chapitre 5. Néanmoins, cette méthode requiert que les deux CHAPITRE 6. Recalage à partir d’entités linéaires
109
ensembles de segments à apparier soient relativement proches l’un de l’autre. Sinon,
l’appariement n’est qu’approximatif. Nous proposons, par conséquent, de rapprocher d’abord
les entités linéaires dans l’intention d’améliorer et de faciliter leur couplage ultérieur. Cette
étape étant réalisée par une approche couplant RANSAC et ܫܫܯܨଶ amène à trouver un
échantillon optimal à partir duquel les paramètres de recalage grossier seront calculés
(Paragraphe 6.5.1). Ensuite, la mise en correspondance explicite des segments sert à un
recalage fin, possible grâce à l’algorithme ܫܫܯܨଶ étant la version modifiée de ܫܫܯܨ. Nous
présenterons, à la fin du chapitre, l’analyse qualitative et quantitative des résultats obtenus
avec une telle procédure.
6.2 État de l’art du recalage rigide
Dans cette partie, le premier paragraphe (6.2.1) fera un bref état de l’art de divers
algorithmes d’appariements des entités linéaires. Puis, nous passerons à présenter une
classification des méthodes de recalage (6.2.2), pour finalement décrire quelques techniques
de minimisation des contraintes à partir des lignes, visant à déterminer les paramètres de
transformation rigide (6.2.3).
6.2.1 Mise en correspondance automatique
La raison principale pour laquelle le recalage est difficile vient du fait que les appariements,
c’est-à-dire les vraies associations entre les primitives extraites, sont inconnus. La mise en
correspondance de plusieurs éléments, reconstruits depuis des nuages de points distincts, est
une tâche cruciale puisqu’elle établit un système de contraintes à minimiser lors de
l’estimation des paramètres de pose (Figure 6.1). La convergence de l’algorithme de recalage
dépendra alors directement de ces associations. En d’autres termes, l’exactitude des
appariements créés, se manifestant par un nombre de paires erronées ou manquées,
influencera la qualité des paramètres déterminés.
Figure 6.1 Exemple de mise en correspondance entre deux nuages de points à partir de
descripteurs [Latulippe, 2013]
Considérant une technique itérative avec une présence de mauvais appariements, dans le
meilleur des cas, on ralentit sa convergence, et dans le pire de cas, on cause sa divergence.
Par conséquent, avec un algorithme comme ICP (Iterative Closest Point) (expliqué en 6.2.2), on
n’est jamais certain d’arriver à une solution optimale, car ces associations sont seulement
approximatives. Ainsi, lorsque l’écartement entre deux nuages est grand au départ, cet
algorithme reste facilement bloqué dans un minimum local. Pour remédier à ce problème,
l’une des idées serait de développer des méthodes permettant d’estimer des correspondances
avant de réaliser le recalage global. Ce résultat peut être atteint, comme expliqué par
[Latulippe, 2013], à l’aide d’un descripteur, à savoir un ensemble de valeurs caractéristiques,
attribué à un point et décrivant la géométrie locale autour de lui. Il existe de nombreuses
approches qui incorporent une étape d’extraction de points d’intérêt, auxquels sont ensuite 110
attribuées les valeurs de description. Ces dernières sont calculées à partir des coordonnées
(X,Y,Z) de ce point et de ses voisins. Nous pouvons citer, par ordre chronologique, quelques
types de descripteurs, applicables aux nuages de points par exemple : la variation de la
courbure ; les moments invariants ; les spin images ; les points fingerprints ; les shape
contexts 3D ; le SIFT (Scale-Invariant Feature Transform) ; les PFH (Point Feature
Histograms) ; les FPFH (Fast Point Feature Histograms) ; les SHOT (Signature of Histograms
and Orientations), etc. [Tangelder et Veltkamp, 2008] et [Latulippe, 2013].
Mise en correspondance des segments de ligne
Nous nous intéressons à réaliser le recalage par l’intermédiaire des entités linéaires 3D
appariées au préalable. Néanmoins, les travaux traitant de ce problème n’exposent presque
jamais la question de la mise correspondance, en supposant que celle-ci soit déjà établie. Pour
satisfaire ces besoins, un nombre de techniques d’appariement a été développé. La plupart des
revues liées à ce sujet dévoilent que les algorithmes utilisés se heurtent aux difficultés
suivantes : la sur-segmentation des segments et le bruit. Nous détaillerons dans cette section
quelques méthodes récentes d’estimation de correspondances. Une étude montre que la
distance Euclidienne « classique » peut toutefois ne pas être suffisante pour créer un
appariement relativement correct [Douadi, 2006]. Par conséquent, [Wang et al., 2012]
suggèrent de prendre en compte d’autres attributs de segments tels que la longueur, la
direction, la position ou le taux de chevauchement.
[Yao et al., 2010] proposent un algorithme bénéficiant de rigidité des droites pendant la
transformation, ce qui veut dire que les écartements et les angles entre les entités restent
toujours les mêmes. Pour chaque paire de segments de l’ensemble ܣ, des paires homologues
sont recherchées dans l’ensemble ܤ qui satisfont à deux conditions : les valeurs absolues de
différence de distances et celles d’angles sont inférieures à des seuils fixés. Afin de réduire le
temps de recherche, seulement les ݇ meilleures paires de ܤ sont retenues.
De la même manière, [Li et al., 2012] appliquent la même hypothèse afin d’établir de vraies
associations entre les segments 3D. La solution proposée consiste à attribuer, à toutes les
entités linéaires de l’ensemble, deux vecteurs, chacun comprenant quatre composantes
décrivant leur relation angulaire et l’éloignement vis-à-vis des autres éléments de l’ensemble.
Il s’agit de former le vecteur contenant : le maximum, le minimum, la moyenne et l’écarttype
de mesures calculées. Ensuite, on détermine la distance entre i-ème vecteur de
l’ensemble ܣ et tous les vecteurs de ܤ. Les segments sont appariés à condition que les deux
normes (concernant l’angle et la distance) soient minimales.
[Jaw et Chuang, 2008] développent une approche s’exécutant en deux étapes. Dans un
premier temps, les angles spatiaux (ߠ, ߠ …) entre un segment et ses voisins successifs dans
chaque ensemble sont déterminés en utilisant, à cet effet, les extrémités (Figure 6.2a et
Figure 6.2b). Deux segments de droites sont appariés, si et seulement si, la différence
angulaire ne dépasse pas un certain seuil. Ces associations préalables permettent ensuite
d’estimer les paramètres de transformation censés rapprocher les nuages de points (Figure
6.2c). La dernière phase nous amène à calculer la distance spatiale ܦ équivalente à la
moyenne des distances (ܦଵ et Dଶ) servant à retrouver des lignes homologues (Figure 6.2d). CHAPITRE 6. Recalage à partir d’entités linéaires
111
Figure 6.2 Estimation de correspondances selon [Jaw et Chuang., 2008] : a) b) Calcul des
angles spatiaux pour l’ensemble ܣ et ܤ respectivement ; c) Deux ensembles d’entités après la
transformation ; d) Définition de distance spatiale
Un regard tout à fait différent est énoncé avec des approches cherchant à apparier des points
au lieu des lignes. L’une des possibilités est de discrétiser chaque droite en un certain nombre
de points et de s’en servir pendant le couplage réalisé souvent à l’aide d’ICP. Ainsi [Belton et
al., 2011] proposent d’extraire des vertex représentant des intersections entre les lignes 2D.
La technique mise en œuvre consiste à étudier, au sein de chaque ensemble, les distances
Euclidiennes entre toutes les combinaisons possibles de points. Pour ce faire, une méthode de
vote est employée dont l’objectif est de trouver, sous une certaine tolérance, des distances
semblables. Pendant ce processus une matrice de correspondance est créée, de telle manière
que ses coefficients décrivent la probabilité que le point de l’ensemble ܣ appartienne au
point de l’ensemble ܤ.
De surcroît [Huh et al., 2013] cherchent à apparier des polygones. Cette problématique est
similaire à la nôtre puisqu’un polygone est considéré comme la réunion de segments appelés
côtés. D’abord, les calculs des régions de confiance des segments sont effectués à partir des
erreurs de position de leurs extrémités. Puis, des sommets ainsi que des « vertex virtuels »
étant l’intersection des droites dérivées depuis les segments, sont extraits. Enfin, un
algorithme de recherche de sous-chaîne (string matching algorithm) est employé afin d’estimer
des paires de points correspondants.
6.2.2 Classification des méthodes existantes de recalage
Il existe plusieurs techniques de calage de données laser. Nous pouvons l’effectuer par
consolidation (best fit/ICP) en nous appuyant sur la géométrie des objets numérisés, par un
relèvement sur les cibles disposées (Figure 6.3) ou bien encore sur les « cibles naturelles » en
les assimilant à des primitives géométriques (sphères, plans, cylindres, cônes, etc.) fortement
présentes dans les environnements bâtis et industriels aménagés par l’homme. Quant aux
cibles/primitives, elles peuvent servir également pour dissocier des entités géométriques (le
centre, l’axe principal, le sommet, l’intersection, etc.), ainsi que des invariants géométriques
tels que le rayon [Hullo, 2013]. 112
Figure 6.3 Différents types de cibles propres pour les constructeurs du scanner
La classification des méthodes de recalage proposée par [Gressin et al., 2013] peut être une
bonne démarche introductive pour les algorithmes existants. En effet, trois familles
d’approches sont considérées : 1) les méthodes basées sur la mise en correspondance de
primitives géométriques remarquables dans deux nuages et invariants lors d’un mouvement
rigide ; 2) les approches employant le modèle de surface (ordinairement un maillage) au lieu
des nuages de points 3D ; 3) les techniques focalisées sur les points et donc ne nécessitant ni
l’extraction préalable de primitives ni la phase de modélisation (p.ex. ICP, RANSAC).
Néanmoins, cette classification n’est pas unique. [Alshawa, 2006] suggère de classer des
algorithmes de la manière suivante : 1) les méthodes basées sur les entités géométriques,
dont la connaissance préalable et précise, est primordiale ; et 2) celles indépendantes des
entités d’intérêt. Parmi ces dernières deux sous-groupes sont distingués : 1) les techniques de
vote ; 2) les méthodes de correspondance sous-jacente telles que la méthode ICP et la
méthode DARCES (Data-Aligned Rigidity-Constrained Exhaustive Search) [Chen et al., 1999]
basée sur RANSAC. Il faut souligner que les algorithmes dépendants des primitives
nécessitent un temps considérable pour les extraire et que leur handicap se dévoile lors du
manque de détails caractéristiques. En revanche, ils n’exigent quasiment pas de valeurs
initiales pour se réinitialiser en permettant de réduire le nombre de combinaisons possibles
d’appariement. Quant aux calculs des inconnus de pose, ils sont effectués en assimilant des
méthodes indépendantes des entités géométriques, mais à une différence près, après avoir
extrait des primitives. C’est pourquoi certaines personnes considèrent ces méthodes comme
un cas particulier de ces dernières.
L’Iterative Closest Point (ICP), proposé concurremment par [Besl et McKay, 1992] et [Chen
et Medioni, 1992] est un algorithme itératif le plus souvent utilisé. Il est utilisé soit pour
recaler deux vues partielles d’un même objet, soit pour corriger des relevés laser mobiles
[Ridene, 2010]. L’idée est d’itérer deux étapes : celle de la mise en correspondance et celle de
l’estimation des paramètres afin d’établir la meilleure transformation recalant des scans dont
le recouvrement s’avère assez important. Au bout de chaque itération, une liste d’éléments
appariés est de nouveau fournie, servant à son tour à déterminer une nouvelle estimation des
paramètres de pose. Ces derniers seront utilisés par la suite, pour la mise à jour de la position
des données. Toutes ces étapes seront répétées jusqu’à l’obtention de la convergence de
l’algorithme. Celle-ci est atteinte lorsque l’erreur résiduelle ne dépasse pas un certain seuil,
ou bien que le nombre maximum d’itérations allouées à l’algorithme est atteint. Cependant,
l’ICP « classique » présente des limitations qui font, jusqu’à présent, l’objet de nombreuses
études. C’est pourquoi plusieurs améliorations y ont déjà été apportées. Elles visent à
intervenir à chaque étape de cet algorithme [Rusinkiewicz et Levoy, 2001], [Douadi, 2007],
[Gressin, 2013]. Cela concerne la façon de choisir des entités à apparier [Masuda et Yokoya,
1995], [Gelfand et al., 2003], la stratégie d’appariement employée [Pulli,1999], [AlDurgham
et al., 2011], la pondération des paires appariées [Gressin et al., 2012], le rejet de
mauvais appariements [Zhang, 1994] et enfin le type de critère à minimiser et/ou
l’algorithme de minimisation. L’objectif est toujours de minimiser un score, une distance ou
une erreur entre les parties communes. Le critère le plus simple à utiliser est la somme des
erreurs de distance quadratiques entre les points appariés (ICP Point à Point). Mais, les CHAPITRE 6. Recalage à partir d’entités linéaires
113
méthodes fondées sur la somme des carrés des distances entre les points d’un scan et le plan
de l’autre sont aussi couramment employées (ICP Point à Plan). L’estimation de la
transformation rigide s’effectue à l’aide de plusieurs approches telles que la technique SVD
(décomposition en valeurs singulières) [Arun et al., 1987], l’utilisation des quaternions
unitaires [Besl et McKay, 1992] ou l’algorithme d’optimisation non linéaire de LevenbergMarquardt
[Fitzgibbon, 2001]. L’inconvénient majeur de l’ICP dans sa forme originale vient
du fait qu’il peut converger vers un faux minimum lorsque les données sont très bruitées et
qu’il a besoin d’un nombre important d’itérations. Pour atteindre le minimum global et
accélérer la convergence, une initialisation préalable fournissant de bonnes valeurs initiales
est requise. En dépit de toutes les études, une intervention de l’opérateur est souvent
obligatoire puisque cette opération n’est généralement pas résolue automatiquement.
6.2.3 Aperçu des méthodes basées sur les entités linéaires
L’utilisation des entités linéaires au lieu des points, pour les besoins de consolidation,
constitue d’un point de vue algorithmique un défi plus important. Par contre, il a été
démontré que seules deux paires de droites non colinéaires permettent de dériver la solution
[Alshawa, 2006], [Yao et al., 2010]. Toutefois, compte tenu des bruits qui entachent les
données, il est conseillé d’employer un nombre de paires ܰ supérieur à deux et de résoudre
un système surdéterminé de ܰ équations afin de trouver la meilleure estimation.
Les méthodes de recalage conçues pour les entités linéaires ne sont pas nombreuses, nous en
citerons quelques – unes. Dans ces travaux [Zhang et Faugeras, 1991] analysent plusieurs
algorithmes de minimisation, y compris le Filtre de Kalman Étendu (EKF), la minimisation
par la méthode de moindres carrés et la décomposition en valeurs singulières, pour étudier le
déplacement à partir des segments 3D. Cette problématique étant similaire à la nôtre, elle
permet d’estimer les paramètres optimaux d’une transformation rigide. Différents scénarios
ont été vérifiés, en supposant que l’appariement des entités est connu, afin de juger la façon
optimale de représenter la matrice de rotation et de calculer des estimées. Finalement, la
représentation par un axe et un angle (axis-angle representation) avec l’utilisation simultanée
du Filtre de Kalman est la solution la plus précise. En revanche, lorsque l’on considère
exclusivement le temps de calcul, c’est l’approche EIGEN basée sur la rotation exprimée par
des quaternions et estimée par la SVD qui paraît la plus prometteuse.
Dans le même contexte [Alshawa, 2006] propose deux variantes de méthode ICL (Iterative
Closest Line) servant à déterminer des paramètres de transformation rigide à partir de
droites : 1) ICL (forme ICP) ; 2) ICL forme alternative. La première est identique à
l’algorithme ICP de base si l’on envisage uniquement la rotation. Mais, elle présente un
aspect différent sur la façon de calculer le vecteur de translation, comme nous pourrons
l’observer ultérieurement. La seconde solution inspirée de [Habib et al., 2004] est une
approche itérative et non de solution analytique (closed-form). Son principe consiste à
procéder à une consolidation en employant la transformation de similitude 3D
(transformation conforme 3D) de sept paramètres dont: R - rotation, T - translation et s –
facteur d’échelle, tous utilisés afin d’écrire la relation entre deux points homologues d’une
paire de segments :
ܺ
ܻ
ܼ
൩ ൌ ݏܴ ቈݔ
ݕ
ݖ
ܶ (6.1)
Il faut noter que le système d’équations obtenu à partir de la formule (6.1) est non-linéaire,
tandis que l’ajustement par la méthode des moindres carrés requiert un processus de
linéarisation et une bonne approximation initiale des paramètres recherchés. Quant à la
valeur du facteur d’échelle s, elle est égale à l’unité puisque les scanners laser produisent les
données à l’échelle réelle. Néanmoins, cette procédure suppose que les extrémités des 114
segments se conjuguent avec un autre, ce qui peut ne pas avoir lieu en réalité. Les deux
versions d’algorithmes implémentées par [Alshawa, 2006] permettent de coupler
itérativement des entités linéaires quasi-parallèles. Au cours de chaque itération, les deux
lignes les plus proches sont appariées, sous condition que leur distance réciproque soit
inférieure à un certain seuil. La procédure est répétée plusieurs fois. Nous partons de la pose
corrigée jusqu’à ce que l’appariement obtenu soit le même que celui de l’étape précédente.
Étant donné que les segments correspondants, extraits lors d’un processus automatique, se
caractérisent souvent par des longueurs différentes (sur-segmentation due au problème des
masques) une amélioration de la méthode de [Habib et al., 2004] a été suggérée par
[Renaudin et al., 2011]. Or, un vecteur des écarts ݀ܺԦ entre les extrémités des segments
correspondants est déterminé le long d’une entité linéaire (Figure 6.4) et rajouté au modèle
mathématique (6.1). Ensuite, la technique traditionnelle des moindres carrés a été modifiée
afin d’éliminer cette inconnue du processus d’estimation. Cet objectif a été atteint par une
nouvelle définition des poids associés au vecteur d’erreurs de mesures (bruit blanc).
Cependant, aucune des modifications effectuées n’a d’impact sur le calcul. L’algorithme de
minimisation de Gauss-Newton peut toujours être employé pour trouver la solution : les
paramètres de similitude spatiale entre deux ensembles de segments. Ce genre d’algorithmes
nécessite une transformation initiale et peut offrir une mauvaise estimation lorsque cette
dernière est loin de la réalité, ce qui est son inconvénient majeur. L’évaluation qualitative
(visuelle) et quantitative du recalage réalisé grâce à un tel algorithme a été effectuée par
[Canaz et Habib, 2013]. À cet effet, les paramètres de pose obtenus ont été comparés avec
ceux fournis par d’autres méthodes, notamment par le recalage basé sur les plans [Ghanma,
2006] et l’algorithme ICPP (Iterative Closest Projected Point) de [Al-Durgham et al., 2011]
étant l’une des variantes d’ICP. Son idée consiste à minimiser la distance entre chaque point
d’un scan et sa projection sur trois points de l’autre. Quant à la technique examinée, certains
problèmes au niveau d’alignement vertical ont été observés. L’une des causes de cette
imprécision vient de la nature des lignes elles-mêmes. Par conséquent, la droite extraite à
partir des images et associée à l’arête reconstruite du nuage de points peut être sensiblement
différente.
Figure 6.4 Principe du recalage se référant à la transformation de similitude 3D (Illustration
reproduite à partir de [Renaudin et al., 2011])
Sous un autre point de vue [Guerra et Pascucci, 1999] discutent de différentes méthodes de
recalage d’entités linéaires pour lesquelles l’appariement n’est pas connu. Ils proposent
d’utiliser un triplet de paires de segments afin de trouver des paramètres de transformation
rigide. Le but à atteindre est celui de tester un très large nombre de transformations, toutes
calculées à partir des échantillons tirés aléatoirement. La distance déterminée, à chaque fois,
entre les lignes permet d’indiquer le meilleur couplage. L’inconvénient de cette méthode est
d’avoir une complexité de calcul relativement élevée. De plus, elle suppose implicitement que
les milieux des segments doivent être des points correspondants. CHAPITRE 6. Recalage à partir d’entités linéaires
115
[Kamgar-Parsi et Kamgar-Parsi, 2004] ont développé des algorithmes applicables, quelles
que soient les lignes : finies ou infinies. La solution adaptée à des segments de ligne de même
longueur est présentée par [Kamgar-Parsi et Kamgar-Parsi, 1997]. Pour des segments de
longueur différente, trois cas sont envisagés. En désignant des entités linéaires à déplacer
par Image (I), tandis que celles de référence comme Model (M), nous distinguons des
approches : 1) FMFI (Finite Model, Finite Image) conçu pour dériver la transformation à
partir de deux ensembles de segments ; 2) IMII (Infinite Model, Infinite Image) destiné aux
lignes infinies et 3) FMII (Finite Model, Infinite Image) approprié à des cas mixtes. En
revanche, tous les calculs associés s’appuient sur le schéma développé pour les segments
égaux. La fonction de coût minimise la distance entre les points correspondants de chaque
paire de droites. Ces derniers sont établis par le paramètre shift ሼs୧ሽ. Finalement, l’estimation
de la meilleure transformation se fait itérativement, par la résolution d’un système non
linéaire de ሺ6ܰሻ équations, en partant de valeurs initiales de ሼݏሽ, actualisées au bout de
chaque boucle. Les analyses effectuées par les auteurs montrent que l’algorithme converge
presque toujours vers un minimum, et indépendamment des paramètres initiaux choisis. Le
temps de calcul et le nombre d’itérations dépendent de la précision souhaitée.
Deux des algorithmes mentionnés auparavant sont devenus l’élément de base des autres
méthodes. [Yao et al., 2010] ont cherché à combler le manque d’informations sur
l’appariement des entités linéaires à travers une approche s’effectuant en deux étapes. Dans
un premier temps, une transformation initiale est calculée à l’aide d’algorithme de [Zhang et
Faugeras, 1991], afin d’être ensuite affinée avec l’une des solutions de [Kamgar-Parsi et
Kamgar-Parsi, 2004] modifiée de telle façon qu’elle soit moins susceptible de s’appuyer sur
des segments de qualité différente. Il se peut que l’incertitude associée à chaque ligne ne soit
pas la même, car elle résulte de la densité du nuage diminuant avec l’augmentation de la
distance objet-scanner. À chaque phase, le calcul est mené à partir d’un nombre minimal de
paires ሺܰ2ሻ, excepté que les résultats pour ܰൌ3 sont plus robustes et fiables que ceux
pour ܰൌ2.
6.3 Recalage basé-lignes : caractérisation des méthodes
Plusieurs approches traitant du problème de recalage rigide basé sur les entités linéaires 3D
ont été proposées dans la littérature, comme il a été montré dans la section précédente. Ce
paragraphe va aborder en détail trois méthodes méritant notre attention, puisqu’elles
donnent un autre regard sur la question mise en avant. Dans un premier temps, la solution
nommée EIGEN de [Zhang et Faugeras, 1991] ayant pour but d’estimer le mouvement à
partir des segments 3D sera détaillée. Ensuite, l’algorithme ICL de [Alshawa, 2006]
conceptuellement inspiré de l’algorithme ICP sera présenté – ICL(forme ICP). Enfin,
l’essentiel de l’approche FMII de [Kamgar-Parsi et Kamgar-Parsi, 2004] sera discuté.
Chacune des méthodes mentionnées auparavant profite d’une autre représentation du
segment dans un espace tridimensionnel et s’appuie sur une autre notation mathématique
décrivant la rotation d’objet telle que les quaternions, les angles d’Euler ou bien encore la
matrice traditionnelle de rotation.
Ces méthodes sont spécifiées respectivement à l’Annexe B, Annexe C et Annexe D. Les
signes apparaissant dans toutes les équations se présentent de la manière suivante : ‖ݒ‖
symbolise la longueur (norme) du vecteur ݒ, t indique la transposition, l’inverse d’une
matrice est marqué par l’indice (-1), le produit vectoriel est signalé par « ˄ » et bien entendu
chaque vecteur s’exprime verticalement.
Le Tableau 6.1 résume les trois méthodes d’estimation de la transformation présentées dans
la section précédente. Les approches ICL (forme ICP) et EIGEN sont assez similaires, si
nous envisageons seulement les démarches nécessaires pour calculer la matrice de rotation –
elles s’appuient toutes deux sur l’orientation de lignes. Aussi, la SVD est employée afin de
dériver la rotation optimale. Néanmoins, elles présentent un regard diffèrent quand il s’agit 116
de déterminer la translation, résultant principalement de la représentation différente de ligne
3D. Contrairement à EIGEN, l’approche ICL(forme ICP) permet simultanément d’apparier
les entités linéaires ce qui devient son point fort. Ce processus se fait de façon itérative et
implique le temps de calcul adéquat. Si jamais l’appariement explicite est connu, la solution
peut être immédiatement trouvée (non itérativement).
Quant à la méthode EIGEN, elle se réfère à des points correspondants et non plus des lignes.
Leurs coordonnées sont déterminées grâce au paramètre shift ሼݏሽ, étant calculé de manière
itérative. Nous devons alors introduire ses valeurs initiales, proches de celles réelles. Sinon,
l’algorithme peut donner de mauvais résultats.
Chacune des méthodes aboutit, quelles que soient les démarches proposées, à estimer les
paramètres de transformation en deux étapes : d’abord la rotation ܴ suivie ensuite par la
translation ܶ.
Tableau 6.1 Récapitulatif de méthodes présentées
Auteurs [Zhang et Faugeras,
1991]
[Alshawa, 2006] [Kamgar–Parsi et
Kamgar–Parsi 2004]
Nom EIGEN ICL (forme ICP) FMII
Appariement
connu
Oui Non Oui
Représentation
du segment
Deux vecteurs
perpendiculaires : vecteur
directeur normalisé et
vecteur parallèle à la
normale d’un plan passant
par cette ligne et l’origine
Deux points
(extrémités) et
vecteur directeur
Ligne finie : (milieu,
vecteur directeur unitaire,
longueur)
Ligne infinie : (point de la
ligne le plus proche de
l’origine, vecteur directeur
unitaire)
Représentation
de la matrice de
rotation
Quaternion Matrice
traditionnelle de
rotation
Quaternion
Fonction à
minimiser
Orientation de lignes Orientation de lignes Distances entre points
correspondants
Approche SVD SVD Méthode d’optimisation
non-linéaire
(valeurs initiales du
paramètre shift demandées)
Besoin
d’itérations ?
Non Oui
(si appariement à faire)
Oui
6.4 Évaluation des méthodes présentées
Dans cette partie, nous contrôlerons la robustesse des trois algorithmes détaillés ci-dessus et
récapitulés dans le Tableau 6.1. Pour ce faire, plusieurs tests ont été proposés, puis effectués
sur des données simulées pour lesquelles l’appariement était déjà connu. Les segments ont
été obtenus par modification des arêtes extraites à partir du nuage Sulpice2013_statique,
acquis au sein d’une zone test (description détaillée se trouve en section paragraphe 2.2).
Nous avons évalué la précision des paramètres estimés par chacune des méthodes en
admettons le taux de bruit. À chaque fois, les erreurs ݁ோ ݁ݐ ்݁ des paramètres de
transformation estimés ܴ ݁ݐ ܶ ont été calculées. Aussi, la distance de Hausdorff orientée CHAPITRE 6. Recalage à partir d’entités linéaires
117
(OLHD) entre deux ensembles de segments, avant et après la transformation, a été
déterminée comme cela est expliqué dans le Chapitre 5.
6.4.1 Données pour les expérimentations
Quant aux données simulées, elles étaient générées à partir de 64 segments (F) nommés
désormais Model, en appliquant les paramètres prédéfinis de transformation. Deux scénarios
ont été examinés : 1) les extrémités des segments originaux, en système Lambert93, ont été
dégénérées en leur ajoutant un bruit blanc gaussien centré et de variance connue ߪ ; 2) de
plus, la position des points a été modifiée en appliquant les paramètres prédéfinis de
transformation rigide ܴ et ܶ.
Figure 6.5 Données expérimentales à recaler : a) Test2a ; b) Test2b
Dans un premier temps, de petites rotations dans l’espace 3D, exprimées par les trois angles
d’Euler (1.0000º ; -1.0000º ; 1.0000º), ont été introduites. Le vecteur de translation
ܶ ൌ [-1.000m ; 0.500m ; 1.000m] y associé a été aussi pris en compte. De surcroît, les
coordonnées de ces entités linéaires ont été bruitées par tirage aléatoire suivant une loi 118
normale centrée d’écart-type ߪ. Les tests ont été menés pour différentes valeurs de bruit, en
partant de ߪ ൌ0.000m et en finissant sur ߪ ൌ0.050m, avec l’intervalle constant de 0.001m.
En résulte, des centaines de nouveaux ensembles de données Test, chacun contenant 64
segments, ont été obtenus. Ils constituent d’ores et déjà les données nommées Test2a (Figure
6.5a). Les données Test2b (Figure 6.5b) étaient obtenues de façon identique, mais cette fois-ci,
les angles d’Euler ainsi que la translation introduits étaient plus importants et égaux
respectivement (3.0000° ;-7.0000° ; 6.0000°) et (3.000m ; 1.000m ; -2.000m). La distance
LHD mesurée entre les données Test2a était égale environ à 2.7m, tandis que celle entre les
entités Test2b est de 27.5m, en ignorant le bruit ajouté.
Nous avons généré un autre jeu de données (Test3), pour lequel la transformation Ƭ fixée en
entrée était nulle. Nous avons uniquement simulé le bruit gaussien de variance ߪ pour
obtenir l’ensemble Test à partir de Model.
6.4.2 Algorithmes implémentés
Le travail réalisé avec l’implémentation sous Matlab® R2010a a permis d’évaluer chaque
approche en termes de sensibilité au bruit, de précision de résultats et de temps d’exécution.
Les méthodes mises en œuvre suivent le raisonnement présenté dans la section précédente.
Parmi les approches proposées par [Kamgar – Parsi et Kamgar-Parsi, 2004] nous avons
décidé d’examiner l’algorithme ܫܫܯܨ, en dépit du fait qu’il est dédié à recaler des lignes
infinies avec des lignes finies. Notre choix s’explique, conformément à la suggestion des
auteurs, par le fait que le ܫܨܯܨ, dédié aux segments de ligne, peut échouer si le segment plus
court d’une paire n’est pas complètement inclus dans son homologue. Nous avons
légèrement modifié l’algorithme FMII pour le rendre mieux adapté à nos besoins. Nous lui
accordons le nom ܫܫܯܨଶ pour le différencier de la version de base. D’abord, la représentation
d’entités à déplacer (Image) a été remplacée par celle utilisée pour les droites finies, à une
différence près, nous ne prenons pas toujours en compte les longueurs de segments. Chaque
élément Image ܺ ൌ ሺݔ, ݒ
ᇱ
ሻ est alors représenté par ݔ étant son milieu (et non plus le point le
plus proche de l’origine du système de coordonnées) et ݒ
ᇱ
son vecteur directeur. Cette
solution paraît plus adéquate et accélère la recherche ultérieure des points correspondants
qui seront désormais déterminés par rapport aux milieux des segments. En conséquence
nous avons dû changer la façon de calculer le paramètre shift ሼݏሽ en s’inspirant aussi de
l’algorithme ܫܨܯܨ. Celui-ci est obtenu par la résolution de l’équation ߲ܯ/߲ݏ ൌ 0, où la
distance M(A,ƬX), introduite pour le ܫܨܯܨ (6.2), se calcule en fonction de la longueur des
segments.
ܯሺܣ, Ƭܺሻ ൌ ൝݈‖ܽ ݏݒ െ ܶ െ ܴݔ‖ଶ ݈
ଷ൫1 െ ݒ
௧
ݒܴ
ܮ ݈ ݅ݏ ൯/6 ′
ݒݏ ݔฮܽ െ ܶ െ ܴ൫ܮ
′ ൯ฮଶ
ܮ
ଷ൫1 െ ݒ
௧
ݒܴ
ܮ ݈ ݅ݏ ൯/6 ′
(6.2)
où :
ܮ : longueur du segment Model
݈ : longueur du segment Image
Sachant que nous considérons les entités linéaires Image comme infinies, leur longueur ሺ݈ሻ
sera toujours plus grande que celles Model. De ce fait, la formule (D.10) est substituée en :
ݏ ൌ ሺܽ െ ܶ െ ܴݔሻ௧ܴݒ
ᇱ (6.3)
6.4.3 Outils d’évaluation
La justesse des paramètres de transformation estimés à l’aide de chacune des méthodes a été
validée selon les formules : CHAPITRE 6. Recalage à partir d’entités linéaires
119
݁ோ ൌ 100% ∙ ‖ݎെݎ̂‖/‖ݎ‖ (6.4)
்݁ ൌ 100% ∙ ฮܶ െ ܶฮ/‖ܶ‖ (6.5)
où :
ݎ : rotation réelle (paramètre fixé en entrée)
ݎ̂ : rotation estimée
ܶ : vecteur tridimensionnel de translation (paramètre fixé en entrée)
ܶ : vecteur de translation estimée
L’équation (6.4) est exacte pour la rotation exprimée à l’aide de quatre paramètres (forme
axe-angle de rotation) : un angle ߠ et un axe dirigé par un vecteur unitaire ݎ ൌ ൣ݁௫, ݁௬, ݁௭൧
௧
(alors avec ݁௫
ଶ ݁௬
ଶ ݁௭
ଶ ൌ 1). Il est donc nécessaire de remplacer la représentation classique
de rotation ܴ par ݎ de la manière suivante :
ߠ ൌ ܽݎܿܿݏ ቆݎݐܽܿ݁ሺܴሻ െ 1
2 ቇ (6.6)
ൌ ݎ
1
൭ ߠ݊݅ݏ2
ܴଷଶ െ ܴଶଷ
ܴଵଷ െ ܴଷଵ
ܴଶଵ െ ܴଵଶ
൱ (6.7)
6.4.4 Résultats – recalage des données bruitées
Ensemble Test2a
La Figure 6.6 illustre les erreurs de la rotation ݁ோ et de la translation ்݁, par rapport à ses
valeurs réelles. Les tests effectués avec les données Test2a, montrent que les algorithmes
ICL(forme ICP) et EIGEN produisent des résultats à un niveau de précision similaire, avec
des estimations légèrement plus précises pour EIGEN.
Même si les deux approches bénéficient d’une représentation différente de segments, et que
la translation est calculée dissemblablement, ceci n’a pas une réelle importance. Dans les
deux cas, la fonction de coût est uniquement définie à partir des orientations de segments.
Aussi, la matrice de rotation est retrouvée par une décomposition SVD d’une matrice de
covariance croisée. Rappelons que l’utilisation de SVD impose de considérer trois
possibilités :
1) Les segments ne sont pas colinéaires : donc ݀݁ݐሺܴሻ ൌ 1, la solution unique existe
ܴ ൌ ܸܷ௧ ;
2) Les segments sont coplanaires, mais pas colinéaires : alors ݀݁ݐሺܴሻ ൌ െ1, la solution
unique existe nommée la réflexion ܴ∗ ൌ ܸ∗ܷ௧
où ܸ∗est créé en changeant le signe de
la troisième colonne de V ;
3) Les segments sont colinéaires : il existe une infinité de solutions.
Quant à l’évaluation des approches implémentées, les deux méthodes mentionnées présentent
une faible résistance au bruit. L’estimation de la rotation atteint un niveau de précision de 5%
pour un écart-type du bruit ߪ ne dépassant pas 0.015m. L’erreur de la translation est plus
importante et peut arriver, dans cet intervalle, jusqu’à 27%. De loin, le meilleur algorithme le
ܫܫܯܨଶ donne, indépendamment du bruit introduit (ߪ ∈ [0.000 ;0.005]), des résultats précis.
L’erreur de la matrice de rotation ݁ோ est inférieure à 0.5% pour un ߪ ൏0.02m et oscille entre
0.5% et 3.6% pour les autres valeurs ߪ, afin d’atteindre son maximum pour ߪ ൌ0.047.
L’erreur de translation ்݁, quant à elle, est supérieure à ݁ோ et reste dans un intervalle de
2.9% à 8.5%. 120
Figure 6.6 Comparaison de différentes méthodes d'estimation de transformation rigide –
données Test2a
Figure 6.7 Méthode ܫܫܯܨଶ : évaluation de chaque composant de la rotation et de la
translation par rapport aux valeurs réelles CHAPITRE 6. Recalage à partir d’entités linéaires
121
Afin d’obtenir une évaluation plus complète du ܫܫܯܨଶ, une analyse exhaustive de chaque
composant du vecteur de translation et de tous les angles d’Euler () a été faite. Des
différences entre les paramètres estimés et réels ont été calculées et illustrées dans la Figure
6.7. Quant aux valeurs angulaires, aucune tendance n’a été constatée pouvant indiquer
l’angle le moins bien estimé. Mais, en tenant compte du vecteur de translation, l’alignement
selon l’axe Y est déterminé inexactement dans la plupart de cas. Pour un écart-type du bruit
raisonnable, c’est-à-dire un ߪ inférieur à 0.02m, il est clairement visible qu’il existe une
dépendance entre les erreurs relatives de déplacements. Ainsi, l’erreur d’alignement selon
l’axe Z est la plus petite, suivie ensuite d’erreur selon l’axe X et Y.
Ensemble Test2b
Des tests tout à fait identiques ont été aussi menés pour des valeurs beaucoup plus
importantes de rotation et de translation – données Test2b. Plusieurs combinaisons d’angles
de rotation ont été examinées. La Figure 6.8 illustre les erreurs ݁ோ et ்݁ obtenues pour
différents écarts-types du bruit ߪ. Les résultats confirment que les trois méthodes sont
adéquates pour recaler deux ensembles de segments à condition que les angles d’Euler
décrivant une rotation soient petits (inférieurs à 2-3 degrés) et la distance relative assez
faible. Cette constatation n’est pas très surprenante puisque les méthodes semblables à l’ICP
sont censées fournir un bon recalage local. Ceci est dû à l’étape de linéarisation indispensable
pour résoudre le problème non-linéaire de rotation. Ainsi, la fonction ne peut plus décrire les
vraies interactions entre les éléments. Il est alors nécessaire que les deux nuages soient à peu
près alignés. Une transformation grossière doit être appliquée avant de démarrer ces
algorithmes. Aussi, le ܫܫܯܨଶ, comme il a été démontré, exige des estimées initiales, si la
rotation mutuelle des éléments à affiner est trop importante.
Figure 6.8 Comparaison de différentes méthodes d'estimation de transformation rigide –
données Test2b 122
Pour conclure, nous constatons alors que les méthodes ICL(forme ICP) et EIGEN,
contrairement au ܫܫܯܨଶ, présentent une faible robustesse au bruit et ne peuvent être
employées qu’afin de recaler des segments dont la position des extrémités est précisément
connue (ߪ ൏ 0.005m). De plus, l’emplacement relatif de deux ensembles d’entités linéaires
joue un rôle important en rendant ces trois approches appropriées pour affiner des données
proches.
Temps de calcul
En outre, une analyse complémentaire (avec les données Test2a) ayant pour but de mesurer
le temps de calcul (CPU time) en fonction du bruit simulé a été effectuée. La Figure 6.9
présente la performance des trois approches, examinée sur 64 segments. La méthode EIGEN
s’avère légèrement plus rapide (avec en moyenne 2ms de différence) que l’algorithme itératif
ICL(forme ICP). Cependant, les deux techniques convergent trois fois plus rapidement que le
ܫܫܯܨଶ. Néanmoins, il faut noter que chaque algorithme a été appliqué sur l’appariement déjà
connu et donc l’approche ICL(forme ICP) s’exécute en une seule itération.
Figure 6.9 Comparaison des temps d’exécution (Matlab® R2010a)* * Intel Core x2 T7600 2.33Ghz / 4Go Ram / Win7 64bits
6.4.5 Impact du bruit sur la distance de Hausdorff
Pour compléter les analyses présentées précédemment et pour mieux visualiser l’impact de la
précision des paramètres estimés sur la qualité du recalage, la distance orientée de Hausdorff
(OLHD) a été utilisée comme il a été vu et défini dans le Chapitre 5. Un autre jeu de données
(Test3) a été employé. Nous rappelons que cette fois-ci, les paramètres fixés servant à créer
les segments Test étaient nuls, et seulement la position des segments Model a été dégénérée
par un bruit gaussien prédéfini.
Nous attendons que les paramètres estimés (ܴ ݁ݐ ܶ) par chacun des algorithmes testés soient
égaux, quasiment équivalents ou proches de zéro. Aussi, la position des segments
transformés (Test) devrait rester pratiquement inchangée. Nous vérifions alors l’éloignement
entre les entités linéaires, en tant que la distance OLHD. Les valeurs obtenues après le
recalage réalisé à l’aide de la méthode ICL(forme ICP) et ܫܫܯܨଶ sont confrontées avec les
écarts initiaux (Figure 6.10). L’approche EIGEN a été exclue de l’analyse puisqu’elle est
censée fournir les paramètres de transformation ayant les erreurs similaires à l’algorithme
ICL(forme ICP). CHAPITRE 6. Recalage à partir d’entités linéaires
123
Nous observons, dans le cas d’ICL, une forte influence du bruit sur le résultat d’évaluation.
Même si l’inexactitude des extrémités de segments est faible, cet algorithme empêche de
parvenir aux paramètres optimaux. Par conséquent, la distance réciproque entre les
segments consolidés augmente par rapport à celle de départ. Cela veut dire que le recalage,
lui-même, est loin d’être correct et satisfaisant. Le problème mentionné n’existe pas lorsque
l’algorithme ܫܫܯܨଶ est implémenté.
Figure 6.10 Distance orientée de Hausdorff (OLHD) : a) algorithme ICL(forme ICP) ;
b) algorithme ܫܫܯܨଶ
Propriété de la distance de Hausdorff
De surcroît, une propriété intéressante de la métrique de Hausdorff employée a été constatée.
Il s’agit de la relation entre la distance OLHD et l’écart-type de bruit gaussien ߪ rajouté à
des extrémités de segments. Nous avons démontré que plus le taux de bruit est important
plus la valeur de distance OLHD augmente. Plusieurs échantillons ont été créés à partir de 124
données réelles (S1,S2,S3,F), comme celui illustré dans la Figure 6.11, pour retrouver cette
constante (coefficient de proportionnalité). Finalement, l’équation d’une droite ayant une
meilleure approximation (régression linéaire) notée sous la forme ݕ ൌ ܽݔ ܾ a été
déterminée, de sorte que le coefficient directeur de la droite ሺܽሻ est égal à 5.8 ∓ 0.17 et que le
nombre ܾ est 0.000 ∓ 0.001. Pour être plus précis, il y a une proportionnalité entre la
distance obtenue (OLHD) et l’écart-type de bruit ߪ, ce que l’on peut exprimer par ܱܦܪܮ ∝
ߪ. C’est pourquoi, si la distance de Hausdorff entre deux ensembles de segments est connue,
nous pouvons estimer l’écart-type de bruit ߪ associé aux segments et vice versa.
Figure 6.11 Représentation graphique d’une droite d’approximation retrouvée à partir des
distances OLHD calculées pour les différents écarts-types de bruit ߪ
6.5 Approche proposée : RLMR-FMII2
Nous avons pu observer dans la section précédente que l’imprécision du recalage vient de
l’algorithme d’estimation et voire même plus, de la particularité géométrique d’une entité
linéaire. Comme le rapporte [Hullo, 2013], l’incertitude d’une ligne 3D, à la différence de
celle d’un point 3D, n’est pas bien définie. En outre, elle varie d’une représentation à une
autre pouvant provoquer des difficultés lors de l’optimisation des contraintes sur ces lignes.
Les analyses effectuées au sein de cette thèse le confirment aussi. Les algorithmes EIGEN et
ICL(forme ICP) basés entièrement sur des segments ont la précision en deçà du ܫܫܯܨଶ
minimisant la distance entre les points correspondants. Ils ne peuvent être employés que sur
des segments dont les extrémités ne sont pas bruitées.
Ce constat nous a encouragés à choisir le ܫܫܯܨଶ, comme notre algorithme de base.
Néanmoins, cette méthode offre des résultats précis à condition que l’appariement explicite
des entités linéaires soit connu. Nous avons voulu combler ce défaut en suggérant une chaîne
complète, nommée ܴܯܮܴ െ ܫܫܯܨଶ, comprenant la mise en correspondance des segments,
suivie par l’estimation des paramètres de pose. Pour apparier des entités linéaires, nous
proposons d’utiliser l’approche déjà discutée dans le cadre de ce manuscrit, et détaillée au
chapitre précédent. Sa performance a été vérifiée à travers plusieurs tests dont les résultats
ont dévoilé une dépendance forte entre l’exactitude du couplage effectuée et l’écartement de
deux ensembles de segments. Ceci est dû au fait que la mise en correspondance des segments
peut s’effectuer incorrectement, puisque la méthode employée se heurte à un seuil
inapproprié, ou bien encore les ressemblances entre les segments ne peuvent plus être
reconnues proprement. Il se peut alors qu’au bout d’une certaine distance, le taux de Faux
Positif (FP) soit élevée par-devers le nombre de Vrais Positifs faible. Nous avons aussi conclu
que l’un des remèdes à ce genre de problème pouvait consister à rapprocher des segments
avant de démarrer l’algorithme. Nous avons fait recours à cette solution en proposant des CHAPITRE 6. Recalage à partir d’entités linéaires
125
démarches complémentaires (recalage grossier) ayant pour but de diminuer l’éloignement
entre les données traitées et faciliter leur mise en correspondance ultérieure. Notre but est
donc de développer une méthode de recalage 3D résistante au bruit, aux paires aberrantes,
mais aussi permettant d’apparier simultanément des segments, puisque cette tâche n’est pas
triviale et surtout impossible avec le ܫܫܯܨଶ seul.
Figure 6.12 Schéma général du recalage proposé ܴܯܮܴ െ ܫܫܯܨଶ
De manière générale, nous pouvons distinguer quatre étapes principales de l’approche
développée : 1) l’appariement combinatoire (approximatif) d’entités linéaires 3D ; 2) le
recalage grossier à partir d’un triplet de paires ; 3) l’appariement fin; 4) le raffinement du
recalage (Figure 6.12).
La mise en correspondance, qu’elle soit approximative ܣ ou explicite ܣ, est réalisée
conformément à la solution proposée pour la méthode de qualification. C’est pourquoi nous
ne revenons plus sur cette procédure. Rappelons seulement qu’une fois cet algorithme
exécuté, les calculs sont menés dans deux sens : en comparant l’ensemble Test (segments à
déplacer) avec le Model (segments immobiles) et vice versa. Ainsi, à la sortie, deux matrices
de correspondance sont indépendamment déterminées. Cette information redondante peut
être utile pour contrôler la justesse de l’appariement. Afin de diminuer le nombre de paires
erronées (FP) et de garantir un bon appariement approximatif ܣ, les segments sont
initialement couplés en relation de 1 à 1 au plus. Mais, cette contrainte n’est plus valable avec
l’appariement explicite ܣ.
Les deux recalages – grossier et fin, sont calculés de la même façon, à savoir, à l’aide de
l’approche ܫܫܯܨଶ. La seule différence réside dans le fait que la consolidation initiale (ܴ, ܶ)
est atteinte à partir d’un sous-ensemble minimal (k), considéré comme « le meilleur »
possible. Une technique de tirage aléatoire (RANSAC) de ݇ paires de l’ensemble ܣ amène à
assurer un échantillon optimal, ne contenant plus de mauvaises associations. Or, la méthode
combinée RANSAC-FMII2 fournit une estimation initiale de la transformation en prenant en
compte l’appariement préalable ܣ. Pourtant, la position des segments, après le recalage
grossier, est suffisamment proche de l’optimum, nous pouvons créer un appariement explicite
ܣ servant, à son tour, au recalage fin réalisé avec le ܫܫܯܨଶ seul. En fin de compte, chacun de
ces algorithmes constitue une partie intégrale de notre procédure ܴܯܮܴ െ ܫܫܯܨଶ.126
6.5.1 Recalage grossier – principe
La finalité du recalage grossier cherche à rapprocher deux ensembles d’entités linéaires pour
faciliter leur appariement. En présumant l’existence de mauvaises paires au sein de
l’appariement ܣ résultante de la distance mutuelle importante entre deux ensembles de
segments, nous ne pouvons pas l’utiliser tel quel lors de l’estimation des paramètres par
ܫܫܯܨଶ. Se référant aux tests menés par [Yao et al., 2010], nous avons décidé de nous appuyer
sur seulement trois paires de segments (k=3) pour trouver les estimées initiales. Ces
dernières sont calculées à l’aide de la méthode ܫܫܯܨଶ. Plusieurs tirages aléatoires doivent être
effectués avec l’algorithme de RANSAC, afin de découvrir le meilleur triplet de paires parmi
celles recueillies par l’appariement initial ܣ. Pour obtenir les bons paramètres, le nombre
d’itérations (ܰ௧) est choisi dynamiquement en fonction des « inliers » présents dans la
boucle précédente (équations (6.8) et (6.9)).
ܰ௧ ൌ logሺߝሻ
logሺ1 െ ݍሻ
(6.8)
ൌ ݍ
ቀ
ܰூ
݇ ቁ
ቀ
ܰ
݇ቁ
ൌ ܰூ! ሺܰെ݇ሻ!
ܰ! ሺܰூ െ ݇ሻ!
ൌ ෑܰூ െ ݅
ܰെ݅ ൎ ൬୍ܰ
ܰ൰
ିଵ
ୀଵ
(6.9)
où :
ܰூ ൌ ܿܽݎ݀ሺܥܧሻ : nombre de paires de segments (inliers) satisfaisants la transformation
effectuée ;
ܰ ൌ ܿܽݎ݀ሺܣሻ : nombre de paires de l’appariement initial ܣ ;
݇ : nombre minimal de paires de segments pour estimer la transformation optimale, la valeur
adoptée k=3 ;
ߝ : taux de fausses alertes (false alarm rate), la valeur adoptée ߝ ൌ 1݁ െ 6 ;
En raison de la faible probabilité de parvenir à la même combinaison de triplet de segments
deux fois, nous n’avons pas modifié l’algorithme de RANSAC, en exigeant la mise en place
d’une liste de combinaisons d’entités linéaires déjà prises. Pour chaque échantillon, la
transformation du repère est calculée (avec FMIIଶ), et suivie par un recalage correspondant.
Dès lors, les distances ݀൫ݐ, ݉൯ entre toutes les paires de segments listées par l’appariement
approximatif ܣ sont recalculées (équation 5.10), afin de mesurer le nombre de valeurs
aberrantes (outliers) définies comme หሼሺ݅, ݆ሻ߳ܣሽ: ∀൫ݐ ∈ ܦܽݐܽ, ݉ ∈ ܯ݈݀݁൯, ݀൫ݐ, ݉൯ ߜห. Le
seuil ߜ est fixé du fait que la distance de Hausdorff orientée (OLHD) entre deux ensembles de
lignes n’est jamais inférieure à 5.8ߪ; comme il a été démontré préalablement (Paragraphe
6.4.5). Cette constatation nous a permis de garder « le meilleur » triplet de paires. Celui-ci
est désigné à partir du nombre de segments recalés ayant la distance réciproque inférieur au
seuil prédéfini ߜ. En conséquence, plus le nombre de segments est important, plus la
transformation calculée est meilleure.
Nous avons également examiné la précision des paramètres estimés ܴ et ܶ lors du recalage
grossier. Les données du Test2a ont été employées pour calculer les erreurs ݁ோ et ்݁, selon
les équations (6.4) et (6.5). La Figure 6.13 présente les résultats obtenus par rapport à l’état
de l’art. Il en résulte que le recalage grossier basé sur trois paires de segments est moins
précis que celui réalisé par l’algorithme ܫܫܯܨଶ seul sur toutes les paires connues a priori. Cela
n’est guère surprenant puisque la qualité de la solution reçue avec le ܫܫܯܨଶ augmente de plus
en plus, quand nous rajoutons d’autres couples. Par contre, ce recalage garantit une bonne
estimation initiale, si les deux ensembles de segments ne sont pas très éloignés, et si les
angles de rotation à estimer ne sont pas trop importants. CHAPITRE 6. Recalage à partir d’entités linéaires
127
Figure 6.13 Exactitude du recalage basé sur un triplet de paires de segments (données
Test2a)
6.5.2 Évaluation avec données simulées
La qualité des estimations obtenues par notre approche ܴܯܮܴ െ ܫܫܯܨଶ a été vérifiée, tout
d’abord, à l’aide des données simulées (Test 2a). La Figure 6.14 visualise le chemin détaillé de
notre parcours et les résultats intermédiaires d’appariement avec leur évaluation qualitative
(VP, VN, FP, FN marqués par différentes couleurs), tous les deux obtenus à partir du jeu
dégénéré par le bruit gaussien dont le ߪ ൌ0.03m. Conformément aux hypothèses posées,
l’appariement approximatif ܣ contient à peine quelques Faux Positifs au détriment du
nombre de Faux Négatif. Mais, il constitue une bonne base de départ pour calculer
rapidement des paramètres initiaux, même si l’algorithme de RANSAC est généralement
assez coûteux en temps de calcul.
Quant à l’appariement final ܣ déterminé de nouveau à partir des segments déjà recalés
grossièrement, il se caractérise par une précision beaucoup plus élevée (par exemple, dans le
cas étudié Sensibilité=100%, Spécificité=99.95% alors que seulement 0.05% des
combinaisons envisagées avaient été examinées de manière incorrecte). Aussi, les tests
procédés sur d’autres données simulées ont confirmé que la solution proposée permet
d’améliorer significativement la mise en correspondance de segments. En revanche, le
résultat dépend également du taux de bruit, moyennant quoi les faux appariements peuvent
être toujours présents.
Afin d’analyser l’impact de ces mauvaises paires (notamment les FP) sur la qualité des
estimations, nous avons analysé les erreurs ݁ோ et ்݁ calculées selon les formules (6.4) et (6.5).
Ensuite, une comparaison de ces valeurs par rapport à celles obtenues par l’algorithme ܫܫܯܨଶ
basé sur l’appariement précis connu a priori, a été entreprise. La Figure 6.15 présente le
résultat d’une telle expérimentation. Nous pouvons constater que plus l’écart-type de bruit σ
est petit, plus l’appariement est précis, et donc que les erreurs d’estimation sont du même 128
ordre de grandeur. Néanmoins, la méthode ܴܯܮܴ െ ܫܫܯܨଶ paraît donner des résultats
légèrement moins précis, surtout quand le ߪ est supérieur à 0.025m et une présence de Faux
Positifs est incontestable.
Figure 6.14 Mise en correspondance des segments Test2a (σ=0.03m) et le recalage rigide
selon l’approche proposée ܴܯܮܴ െ ܫܫܯܨଶ. Les couleurs employées pour évaluer
l’appariement : Vrai Positif(VP)-vert ; Vrai Négatif(VN) – gris ; Faux Positif(FP) – jaune ;
Faux Négatif(FN) – rouge ; CHAPITRE 6. Recalage à partir d’entités linéaires
129
Figure 6.15 Qualité de la solution (données Test2a) : Algorithme ܫܫܯܨଶ vs. Approche
ܴܯܮܴ െ ܫܫܯܨଶ avec la mise en correspondance de segments effectuée simultanément
L’histogramme de répartition de différences d’erreurs d’estimation créé à partir de la Figure
6.15 montre que pour 95% des valeurs de ߪ, les différences de ݁ோ sont comprises dans un
intervalle de [-1.28% ; 1.28%], tandis que celles de ்݁ sont dans un intervalle de [-2.82% ;
2.82%] (Figure 6.16).
Figure 6.16 Histogramme de différences d'erreurs
Pour mieux comprendre la grandeur de cette imprécision d’estimation de paramètres sur la
position relative des segments recalés, nous avons déterminé la distance LHD. La Figure
6.17 illustre les différences entre la distance calculée après le recalage basé sur l’algorithme
ܫܫܯܨଶ et celle obtenue après avoir mis en œuvre le ܴܯܮܴ െ ܫܫܯܨଶ. Ces valeurs sont
négligeables et ne dépassent pas 0.004m, même si la présence de quelques paires erronées
avait été constatée. Notre algorithme, effectuant à la fois l’appariement des entités linéaires
et l’estimation des paramètres de pose, donne des résultats fiables. En ce qui concerne la mise
en correspondance ܣ, elle se caractérise d’une précision élevée, atteinte grâce au recalage
grossier convenable. 130
Figure 6.17 Vérification des différences de distances LHD
6.5.3 Tests sur données réelles
La performance de l’approche ܴܯܮܴ െ ܫܫܯܨଶ a été aussi vérifiée à l’aide de données réelles
(voir Figure 5.13). Le Tableau 6.2 représente les valeurs numériques (les paramètres de
transformation estimée, l’éloignement des deux nuages de points, le temps de calcul, etc.)
obtenues avec ces segments. À cet effet, les relevés laser mobiles de différents passages ont
été recalés entre eux (S1_S2 ; S1_S2 ; S2_S3), ainsi qu’avec le nuage de points statique (F)
dans l’intention de corriger leur position absolue. À chaque fois, une amélioration importante
de l’appariement initial ܣ a été relevée (Figure 6.18). De plus, la vérification d’ajustement
des nuages de points après les deux recalages successifs grossier et fin a été réalisée à travers
la distance OLHD. Les valeurs obtenues confirment que la méthode proposée permet
d’estimer une transformation optimale, à condition que les angles de rotation et la distance
réciproque soient petits. Cette modalité est aisée à remplir puisque les nuages de points issus
d’une plate-forme mobile sont déjà géo-référencés dans un système de référence commun.
Dès lors, leur position relative est assez proche et l’orientation pratiquement parallèle. Par
conséquent, la suppression d’erreur systématique, plus précisément d’erreur de mesure
restant constante pendant l’acquisition, peut être corrigée par la méthode de recalage
proposée.
Pour justifier notre démarche nécessitant la mise en correspondance des segments à deux
reprises (d’abord l’appariement approximatif ܣ suivi par l’appariement affiné ܣ), nous
avons également envisagé une solution consistant à appliquer l’algorithme ܫܫܯܨଶ
directement sur l’ensemble de paires ܣ. La dernière ligne du Tableau 6.2 contient la
distance LHD déterminée lors d’un tel recalage. Celle-ci est plus importante que l’écart
atteint avec la méthode proposée ܴܯܮܴ െ ܫܫܯܨଶ. Nous pouvons noter que l’utilisation de
l’algorithme RANSAC habituellement très coûteux en temps de calcul a été compensée par la
mise en correspondance explicite des segments. La consolidation précise de nuages de points
devient possible.
Quant au temps de calcul, il est de l’ordre de dizaines de secondes (code non optimisé). Le
plus important a été observé lors du recalage avec les segments S2. Mais, c’est un cas
particulier car d’une côté la zone de chevauchement entre ces deux nuages est petite. De
l’autre côté, la qualité du nuage S2 est faible (comme il est démontré au Chapitre 5) et il
devient difficile à trouver un échantillon optimal satisfaisant aux exigences imposées (les
mêmes pour tous les jeux de données). D’où un grand nombre d’itérations de RANSAC. CHAPITRE 6. Recalage à partir d’entités linéaires
131
Tableau 6.2 Résultats de l’approche combinée
Jeu de données S1-S2 S1-S3 S2-S3 S1-F S2-F S3-F
Distance initiale [m] 0,516 0,230 0,560 0,671 1,257 0,657
Nombre d'itérations 248 58 563 88 1640 109
Distance après le
recalage grossier [m] 0,346 0,223 0,481 0,266 0,451 0,320
Distance FINALE [m] 0,304 0,213 0,377 0,189 0,220 0,140
Angle d'Euler estimés
[°]:
Ω 0,35196 -0,15530 0,68971 0,30821 -0,00763 0,03841
Φ -0,12854 -0,00760 -0,19781 -0,17301 -0,14627 -0,08465
Κ -0,43047 -0,21210 0,28428 -0,01031 0,09351 0,18708
Translation estimée [m]:
Tx 0,950 -0,205 1,172 -0,646 -0,331 -0,205
Ty -0,833 0,108 -1,048 0,014 -0,525 -0,461
Tz 0,189 0,177 -0,708 -0,494 -0,285 -0,507
CPU Time* [s] 18,1 10,4 50,4 7,8 183,6 16,4
Distance [m]: FMII2+Aini 0,328 0,214 0,391 0,254 0,861 0,334
* Intel Core x2 T7600 2.33Ghz / 4Go Ram / Win7 64bits
Le pseudo-code 6.1 (Annexe E) est notre approche du recalage telle qu’elle est implémentée.
Nous avons besoin en entrée de coordonnées de deux ensembles de segments : ்ܺ௦௧ et
ܺௌ. Aussi, quelques paramètres sont attendus notamment l’écart-type du bruit ߪ et le
nombre d’un échantillon minimal (k), tous les deux indispensables pour initialiser
l’estimateur de RANSAC. L’algorithme rend une solution optimale, c’est-à-dire les
paramètres de transformation rigide ܴ et ܶ. Optionnellement, nous pouvons obtenir
l’information sur l’appariement créé ݎܥ, ainsi que les résidus calculés (distances) entre les
segments recalés. 132
Figure 6.18 Mise en correspondance de segments réel S2 (en vert) et F(en rouge) avec
l’évaluation des résultats 133
CHAPITRE 7
Perspectives et conclusion
Sommaire :
7. Perspectives et conclusion ............................................................................................. 133
7.1 Conclusion ............................................................................................................................... 133
7.2 Perspectives et futurs travaux ............................................................................................. 136
7.2.1 Étalonnage extrinsèque du système : esquisse de solution .................................................. 136
7. Perspectives et conclusion
7.1 Conclusion
Dans cette thèse, nous nous sommes intéressés à la cartographie mobile terrestre. Notre étude
se place dans le cadre du projet TerraMobilita dont l’objectif est de développer des
technologies optimisées de relevé des voiries et de l’espace public avec une précision
topographique élevée. Les travaux présentés proposent alors des solutions pour la
qualification des nuages de points collectés, ainsi que des méthodes de recalage de données
multi-sources. Nous nous sommes également penchés sur l’étalonnage du système intégral. Ce
manuscrit se divise en quatre parties principales : 1) L’acquisition de nuages de points mobiles
et l’étude bibliographique sur les erreurs ayant un impact sur leur qualité ; 2) L’extraction
d’arêtes ; 3) La qualification à partir d’entités linéaires ; 4) Le recalage rigide basé sur des
arêtes.
Nous avons commencé par présenter de manière générale les différents systèmes de
numérisation 3D mobile terrestre afin de nous focaliser sur les systèmes et les données utilisées
dans cette thèse. La problématique d’évaluation de l’exactitude des données mobiles et des
protocoles de contrôle de la qualité géométrique sont ensuite abordés en détail. Après, de
différentes anomalies entachant le fonctionnement d’un système de cartographie mobile ont
été analysées. Le but a été d’aider à établir une connaissance profonde des facteurs primordiaux
affectant les nuages de points. Nous pouvons ici citer à titre d’exemple la précision du système
de positionnement hybride à base de GNSS et INS, l’angle d’incidence du rayon laser, la
distance scanner-objet, le manque d’étalonnage juste (extrinsèque ou intrinsèque). La prise en
conscience de leur nature ouvre également la porte à des améliorations et des développements
possibles. Cette partie fortement théorique nous a permis de converger vers des solutions
innovantes d’évaluation et de correction de données laser produites. Nous avons ainsi présenté
nos travaux se rapportant à la qualification et l’amélioration du système de balayage laser 134
mobile. Les méthodes que nous avons adoptées sont celles basées sur les entités linéaires.
D’ailleurs, toutes les parties de notre manuscrit ont été accompagnées par un état de l’art
exhaustif permettant de repérer la place de notre travail par rapport à l’état actuel de la
recherche. La Figure 7.1 nous montre un schéma général des tâches réalisées, avec extraction
des entités linéaires, servant à leur tour à la qualification et au recalage. La problématique de
l’étalonnage basé sur les segments reste toujours à poursuivre. Mais, une procédure possible à
mettre en place est décrite ci-dessous.
Figure 7.1 Schéma des travaux réalisés et travaux futurs
La deuxième partie de notre thèse se focalise sur l’extraction des arêtes à partir de nuage de
points de densité faible. Même si la détection de lignes est une tâche primordiale dans la
modélisation 3D, les travaux existants ne sont pas nombreux. Certains algorithmes
permettent de détecter des ouvertures en forme de fenêtre et de porte (arêtes de pas). Une
autre possibilité est d’examiner la normale au point. Le changement brusque de son orientation
permet de constater la présence d’intersection de deux surfaces adjacentes. Néanmoins, l’arête
reconstituée à l’aide de telles méthodes sera d’autant plus proche de l’arête réelle que la densité
du nuage est élevée. Puisque notre but est de parvenir à extraire des segments précis, quelle
que soit la densité du nuage, nous avons développé une méthode de détection des plis
(intersections entre segments plans principaux de la scène). Celle-ci comporte deux étapes : 1)
la segmentation en éléments plans via l’algorithme de RANSAC enrichi d’une analyse des
composantes connexes ; 2) la reconstruction des arêtes. En ce qui concerne l’étude de la
connectivité et de la sémantique, nous avons proposé une nouvelle méthode fondée sur la
théorie des graphes. Le nuage est structuré en tenant compte du voisinage local de chaque
point. Puis, la décomposition de Dulmage-Mendelsohn est effectuée. Les résultats obtenus avec
des relevés laser mobiles confirment que cette méthode d’extraction de composantes connexes
est efficace et robuste. Son étape la plus coûteuse en temps de calcul est celle de la
détermination du voisinage. Concernant la performance de l’algorithme de RANSAC
implémenté dans l’intention d’isoler les plans principaux, elle dépend de deux grandeurs : du
taux de bruit et de la densité du nuage. Il se peut alors que certains plans, les plus souvent
perpendiculaires à la direction de la plate-forme, ne soient pas détectés puisque ces sous-nuages
se caractérisent par une densité plus faible et par un bruit important. Ce constat signifie pour
nous qu’un nombre d’arêtes ne sera jamais extrait, du fait de l’incomplétude des plans fournis
par l’algorithme de RANSAC.
Par la suite, nous avons élaboré une démarche de qualification, en termes d’exactitude et de
précision, de relevés laser mobiles. Certes, l’évaluation des nuages de points pose des défis
particuliers en raison de la nature de données traitées. Plusieurs méthodes portant un intérêt
sur l’exactitude ont été déjà discutées, toutes nécessitant une référence externe au système
d’acquisition. Les travaux aboutissent soit à une analyse de coordonnées des points de contrôle,
soit à une mesure d’éloignement dérivée grâce à des approches traitant du problème de manière
plus globale (algorithme de type ICP). Dans le cas d’une comparaison de cibles, la résolution
limitée de nuage mobile peut empêcher l’identification précise de détails. Cette tâche étant
fastidieuse, son automatisation est difficile à atteindre. Quant à la qualification basée sur l’ICP,
elle ne vérifie que l’exactitude relative puisque la valeur de qualité obtenue représente la
distance résiduelle entre deux ensembles de données. De plus, la mise en œuvre de l’ICP exige CHAPITRE 7. Perspectives et conclusion
135
que les données à comparer soient à peu près alignées. Étant donné que nous avons souhaité
déterminer l’exactitude absolue, l’évaluation des relevés laser par recalage demeure
inappropriée. Nous avons proposé une procédure de qualification basée sur des entités
linéaires. Notre objectif a été de développer une solution entièrement automatique.
L’éloignement de deux sous-ensembles d’arêtes, exprimé en tant que la distance de Hausdorff
modifiée adaptée aux lignes est notre indicateur de qualité. Mais, d’abord nous apparions, entre
deux nuages, les segments les plus proches au sens de la métrique définie. Nous prenons en
compte la distance et l’angle entre toutes les combinaisons de segments afin de déterminer,
pour chaque couple de segment, un score. Ce dernier est alors composé d'un écart angulaire,
d’un indicateur de recouvrement et de la distance entre les segments parallélisés. La mise en
correspondance entre les segments de référence et les segments extraits des scans se fait via
le seuillage d’une matrice de similarité dont les coefficients sont un score mentionné. Les
données réelles ont permis d’observer que notre algorithme d’appariement devient de plus en
plus robuste lorsque l’éloignement est moindre. Nous admettons, avec une marge importante,
que la distance réciproque inférieure à 2.5 m garantit un taux élevé de bons appariements.
Puisque l’exactitude des données produites par des systèmes mobiles récents est loin d’être
métrique, cette contrainte de distance sera toujours satisfaite. La mise en correspondance peut
ainsi être précisément effectuée, permettant une qualification robuste et efficace. Quant à la
métrique de Hausdorff introduite, elle est tout à fait adaptée pour mesurer l’écart géométrique
entre segments potentiellement homologues. De plus, elle se caractérise par une propriété
intéressante. Nous constatons que sa grandeur est proportionnelle à l’écart-type de bruit
entachant des arêtes. Par conséquent, la connaissance de la distance entre deux ensembles de
segments permet d’estimer l’incertitude associée aux extrémités et vice versa. Résumant, la
méthode proposée paraît pertinente, et également transposable en photogrammétrie
notamment pour l’évaluation de la qualité d’une stéréorestitution ou de modèles 3D. Notre
solution peut être perçue comme un compromis entre les deux familles d’algorithmes de
qualification : ceux profitants de cibles ou de détails « naturels », et ceux se référant au
recalage.
Nous nous sommes ensuite intéressés aux problèmes de recalage rigide basé, lui aussi, sur les
entités linéaires. Une grande partie de ce chapitre traite la problématique d’estimation des
paramètres de transformation rigide à partir de lignes. Nous avons porté un regard critique
sur quelques méthodes conçues à cet effet. Les analyses effectuées ont eu pour but de vérifier
leur efficacité et leur précision vis-à-vis de notre problématique. Il s’agit de corriger le décalage
(shift) survenu entre les nuages redondants acquis par une plate-forme mobile terrestre. Il en
ressort que :
1) l’utilisation de primitives linéaires telles que les arêtes de plis (intersections de plans)
est appropriée pour les environnements urbains et permet la réduction du nombre de
cibles nécessaires ;
2) le gain de précision du recalage dépend de l’incertitude d’une ligne 3D qui, quant à
elle, est due à la présence du bruit, et peut varier d’une représentation de droite à une
autre ;
3) la mise en correspondance explicite des entités linéaires joue un rôle crucial dans le
processus de recalage ;
4) le bruit affectant les extrémités de segments 3D peut provoquer des difficultés de
convergence lors de l’optimisation de contraintes sur ces lignes ;
5) en l’absence de précision requise, le recalage basé sur les segments peut toujours servir
à trouver les estimées initiales, indispensables pour initialiser certains algorithmes.
Sur cette base, nous avons proposé d’étendre l’étude à la chaîne complète comprenant une mise
en correspondance suivie par une estimation des paramètres de recalage à travers de segments.
Une nouvelle approche nommée ܴܮܯܴ െ ܫܫܯܨଶ est développée, puis évaluée. Nous avons testé 136
sa robustesse face à différentes valeurs du bruit ajoutées aux extrémités et ayant l’effet sur
l’incertitude d’une ligne.
Par ailleurs, pour diminuer les anomalies affectant la génération de données laser 3D, nous
nous sommes penchés sur l’étalonnage extrinsèque. Nous avons étudié, si et dans quelle
mesure, les arêtes doivent être prises en compte pour déterminer la matrice de boresight. Les
résultats d’une analyse préliminaire étant prometteurs, cet axe de recherche mérite d’être
approfondi. Avant tout, des solutions dédiées aux systèmes terrestres équipés de scanners de
profil 2D doivent être développées.
En conclusion, les arêtes sont appropriées pour qualifier et recaler les relevés laser mobiles
acquis en environnement urbain. Étant donné qu’avec le fort développement des SIG, les bases
de données vectorielles sont devenues de plus en plus nombreuses (et souvent accessibles en
tant que l’Open Data - données librement réutilisables), il serait envisageable de s’en servir lors
du processus de qualification. Nous avons donc démontré notre hypothèse avancée tout au
début de ce manuscrit.
7.2 Perspectives et futurs travaux
Au terme de ce travail, nous pouvons envisager plusieurs pistes de recherche qui mériteraient
d'être approfondies. Tout d'abord, il pourrait être intéressant de comparer notre méthode
d’extraction des composantes connexes non seulement avec d’autres algorithmes récursifs de
parcours d’un graphe (DFS, BFS), mais aussi avec la méthode aboutissant à convertir un nuage
de points 3D en image 2D.
Puisque la justesse et le nombre de segments extraits par notre algorithme sont liés à la qualité
de plans détectés auparavant, il paraîtrait aussi nécessaire de rendre l’étape de segmentation
en plans encore plus efficace. Cette remarque est surtout pertinente quand les données peu
denses sont traitées. L’une des solutions possibles serait de diviser un nuage en petits blocs et
d’y exécuter l’algorithme proposé.
Étant donné que la distance moyenne LHD évaluant la qualité des nuages à partir de deux
ensembles de segments non seulement représente l’exactitude, mais aussi l’erreur survenue
lors de la procédure d’extraction des arêtes, il serait judicieux de caractériser son apport à la
grandeur de qualité obtenue.
Enfin, d'autres voies de recherche peuvent être favorisées, telles que l’étalonnage extrinsèque
basé sur des lignes. Des solutions adéquates aux scanners laser à double balayage (3D), mais
aussi celles dédiées aux scanners de profil 2D devraient être avancées.
7.2.1 Étalonnage extrinsèque du système : esquisse de solution
Concernant l’étalonnage extrinsèque du système mobile doté d’un scanner 3D, nous
présentons une étude théorique, exigeant d’être encore approfondie et testée sur des données
réelles. Aussi, la précision des paramètres obtenus de cette façon devrait être confrontée avec
d’autres méthodes. En revanche, si le système mobile commercial est étalonné, une
comparaison avec l’étalonnage renseigné par le fabricant sera appréciée. Nous cherchons une
solution pour laquelle aucun déploiement antérieur de cibles n’est demandé. Une seule
contrainte est de balayer un endroit riche en entités linéaires orientées différemment. La
référence fiable ܺோாி
ெ peut être établie après l’acquisition. Outre, des arêtes de pli doivent être
extraites à partir du nuage mobile et comparer par la suite avec celles de référence. Nous
supposons que les données de trajectographie sont bonnes et le nuage de points lié au repère
scanner ܺ௦ est fiable (étalonnage intrinsèque connu).
Nous nous référons, pour passer du repère laser (s) aux coordonnées terrain (M), à la formule
(2.1) du géo-référencement direct qui s’écrit en coordonnées homogènes : CHAPITRE 7. Perspectives et conclusion
137
ܺெ ൌ Ƭ
ெ ∙ Ƭ௦
∙ ܺ௦
(7.1)
où :
Ƭ
ெ ൌ ܴ
ெ ݎ/ீேௌௌ
ெ
0 1 ൨
ସ௫ସ
: position et altitude de l’unité inertielle IMU dans un repère terrain
(M), connues grâce à la fusion GNSS/INS ;
Ƭ௦
ൌ ܴ௦
௦/ݎ
0 1 ൨
ସ௫ସ
: position et altitude du scanner laser dans le repère IMU (b), les paramètres
d’étalonnage extrinsèque comprenant la matrice de boresight ܴ௦
et le bras de levier ݎ/௦
;
ܺ௦ : points laser dans le repère capteur (s) en coordonnées homogènes ሾܺ, ܻ, ܼ, 1ሿ௧
Sur cette base, la formule pour passer des données laser ܺ௦ au repère IMU (b) est suivante :
ܺூெ ൌ Ƭ௦ ∙ ܺ௦
(7.2)
Le nuage de points est généré, en tenant compte des valeurs initiales d’étalonnage extrinsèque
ݏƬ
ܾ assez proche de celui que l’on cherche à déterminer. Nous visons ensuite à raffiner ces
paramètres à travers une comparaison avec des données extérieures au système d’acquisition.
En admettant que nous disposions d’une référence ܺோாி
ெ plus précise que le nuage mobile, et
dont les coordonnées sont connues dans un repère global (M), sa position dans le repère IMU
(b) se calcule comme suit :
ܺோாி
ൌ ሺƬ
ெሻିଵ ∙ ܺோாி
ெ (7.3)
Par conséquent, plus les deux nuages ܺூெ et ܺோாி
sont proches, plus l’étalonnage extrinsèque
Ƭ௦ est bon. Puisqu’ils représentent la même scène, nous pouvons déterminer les paramètres de
transformation rigide du nuage ܺூெ au nuage ܺோாி
. À cet effet, nous suggérons d’effectuer un
ajustement de deux ensembles de lignes à l’aide de l’algorithme de recalage proposé dans la
section précédente : ܴܯܮܴ െ ܫܫܯܨଶ. Néanmoins, rien d’empêche d’utiliser un autre algorithme
semblable à l’ICP. En sortie, nous obtenons toujours une matrice de rotation ܴ et un vecteur
de translation ܶ permettant de rapprocher, de manière optimale, des données :
ܺோாி
ൌ ߜƬ ∙ ܺூெ
(7.4)
où ߜƬ ൌ ቂܴ ܶ
0 1ቃ
ସ௫ସ
.
De l’autre côté, si nous connaissions de vrais paramètres d’étalonnage Ƭ௦
, la position des
données laser dans le repère IMU (b) devrait coïncider à celle de référence :
ܺோாி
ൌ Ƭ௦
∙ ܺ௦
(7.5)
En tant que les formules (7.4) et (7.5) déterminent la même grandeur, nous arrivons à formuler
la relation :
ߜƬ ∙ ܺூெ ൌ Ƭ௦
∙ ܺ௦
(7.6)138
En remplaçant, dans la formule (7.6), les coordonnées du nuage de points liées au repère IMU
par (7.2), nous obtenons :
ߜƬ ∙ Ƭ௦ ∙ ܺ௦ ൌ Ƭ௦
∙ ܺ௦
(7.7)
Allons plus loin, la dépendance entre l’étalonnage extrinsèque initial et celui recherché est
exprimée par :
ߜƬ ∙ Ƭ௦ ൌ Ƭ௦
(7.8)
La formule (7.8) peut s’écrire également sous forme matricielle :
ቂ
ܴ ܶ
0 1ቃ
ସ௫ସ ∙ ቈܴ௦ ݎ௦/
0 1
ସ௫ସ
ൌ ܴ௦
/௦ݎ
0 1 ൨
ସ௫ସ
(7.9)
Nous en déduisons, par multiplication de matrices, que les valeurs initiales ቀܴ௦ , ݎ/௦
ቁ de
l’étalonnage extrinsèque pris en compte au départ doivent être corrigées de la manière
suivante :
ܴ௦
ൌܴ∙ܴ௦ (7.10)
/௦ݎ
ൌܴ∙ݎ௦/
ܶ
La Figure 7.2 récapitule toutes les démarches de la procédure proposée qui mènent à
déterminer l’étalonnage extrinsèque du système en partant de ses valeurs approchées. L’idée
consiste alors à effectuer des scans avec un scanner laser 3D travaillant en mode statique et
monté sur la plate-forme mobile. Les acquisitions depuis plusieurs points de vue ou bien encore
au sein de différentes zones, sont prévues à réaliser pour améliorer la précision des résultats.
Ensuite, la moyenne des paramètres calculés indépendamment lors de chaque stationnement
décrit l’étalonnage extrinsèque ൫ܴ௦
/௦ݎ ,
൯ (7.10). Conceptuellement, une telle approche peut
être alors assimilée au procédé « 2-step » étalonnant les systèmes mobiles basés sur des
caméras.
Figure 7.2 Organigramme de l’approche envisagée. Paramètres recherchés : ܴ௦
/௦ݎ ,
139
0
Publications
7. Publications
Publications dans des revues avec comité de lecture et dans des conférences
avec actes
o Articles liés à la thèse :
Poreba M., Goulette F., 2014. A linear feature-based solution for robust and accurate
registration of point clouds. Sensors (en cours de soumission).
Poreba M., Goulette F., 2014. Recalage rigide de relevés laser par mise en correspondance
robuste basée sur des segments. Revue Française de Photogrammétrie et de Télédétection
RFPT, vol.207, (accepté).
↦ Deuxième Prix Étudiant du meilleur article soumis en 2013 à la RFPT, décerné par la
Société Française de Photogrammétrie et de Télédétection (SFPT)
Poreba M., Goulette F., 2013. Line Segment-based Approach for Accuracy Assessment of
MLS point clouds in Urban Areas. Conference Proceedings of the 8th International
Symposium on Mobile Mapping Technology MMT 2013, 1-3 May, Tainan, Taïwan.
↦ Prix internationaux du Best Student Paper Award et du Best Presentation
Award
Poreba M., Goulette F., 2012. RANSAC algorithm and elements of graph theory for
automatic plane detection in 3D point clouds. Archives of Photogrammetry, Cartography
and Remote Sensing, vol. 24, pp.301-310.
Poreba M., Goulette F., 2012. Assessing the Accuracy of Land-Based Mobile Laser Scanning
Data. Geomatics and Environmental Engineering, vol. 6/3, pp.83-91.
Pyka K., Borowiec N., Poreba M., Slota M., Kundzierewicz T., 2012. Airborne laser scanning
data for railway lines survey. PAK Measurement Automation and Monitoring, vol.58,
pp.260-263. 140
o Articles antérieurs :
Poreba M., 2011. Use of integrated GPS and INS systems in aerial photogrammetry.
Geomatics and Environmental Engineering, vol.5, no.3, pp.79-87.
Poreba M., 2009. Modern methods of earth mass volume determination. Archives of
Photogrammetry, Cartography and Remote Sensing, vol.19, pp.351-361.
Séminaires sans actes
Marcotegui, B., Serna, A., Goulette, F., Poreba, M., Frauciel, L., Mittet, M.A., Rialland, S.,
Benjemaa, R., Hervieu, A., Soheilian, B., Paparoditis, N., 2013. TerraMobilita : urban scene
analysis. 13th International Scientific and Technical Conference « From imagery to map:
digital photogrammetric technologies », 23-26 September 2013, Fontainebleau, France.
Poreba, M., Goulette, F., 2013. Registration of 3D point clouds using extracted line
segments. VIII Colloque national en Géomatique intitulé «Géo - informatique comme un
outil intégré d’analyses spatiales », 11-13 Septembre 2013, Université de Varsovie, Varsovie,
Pologne.
Poreba, M., Goulette, F., 2012. Extraction d’arêtes et comparaison avec des données de
référence pour la qualification de relevés laser mobiles, Journée du GDR ISIS, Thème B –
Analyse de scènes en image et vision, 8 Novembre 2012, Télécom ParisTech, Paris, France. 141
0
Bibliographie
0. Bibliographie
Abbas, I., Grussenmeyer, P., Hottier, P., 1995. Contrôle de la planimétrie d’une base de
données vectorielles : une nouvelle méthode basée sur la distance de Hausdorff : la méthode
du contrôle linéaire. Revue de la Société Française de Photogrammétrie et de Télédétection
(1995-1), n°137, ISSN 0244-6014, pp. 6-11.
Abuhadrous, I., 2005. Système embarqué temps réel de localisation et de modélisation 3D
par fusion multi-capteur. Thèse de Doctorat, MINES ParisTech.
Al-Durgham, M., Detchev I., Habib, A., 2011. Analysis of Two Triangle-Based MultiSurface
Registration Algorithms of Irregular Point Clouds. International Archives of the
Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVIII-5/W12,
pp.61-66.
Alshawa, M., 2006. Consolidation des nuages de Points en Lasergrammétrie Terrestre.
Thèse de Master, École Nationale Supérieure d’Architecture de Nancy.
Alshawa, M., 2010. Contribution à la cartographie mobile : développement et caractérisation
d’un système base sur un scanner laser terrestre. Thèse de Doctorat, INSA Strasbourg.
Arun, K.S., Huang, T.S., Blostein, S.D., 1987. Least-Squares Fitting of Two 3-D Point Sets.
IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 9, No.5. pp. 698-700.
Atanacio-Jiménez, G., Gonzalez-Barbarosa, J-J., Hurtado-Ramos, J.B., Ornelas-Rodriguez,
F.J., Jiménez-Hernandez, H., Garcia-Ramirez, T., Gonzalez –Barbarosa, R., 2011. LIDAR
Velodyne HDL-64E Calibration Using Pattern Planes. International Journal of Advanced
Robotic Systems, vol.8, no.5, pp.70-82.
Awwad, T. M., Zhu, Q., Du, Z., Zhang, Y., 2010. An improved segmentation approach for
planar surfaces from unstructured 3D point clouds. The Photogrammetric Record, 25(129),
pp. 5-23.
Babu, R., Wang, J., 2005. Ultra-Tight GPS/INS/PL integration: a system concept and
performance analysis. GPS Solution, vol.13, pp.75-82.
Barber, D., Mills, J., 2008. Geometric validation of a ground-based mobile laser scanning
system. ISPRS Journal of Photogrammetry & Remote Sensing, Vol. 63, pp.128-141. 142
Bauer, J., Karner, K., Schindler, K., Klaus, A., Zach, C., 2005. Segmentation of building from
dense 3D point-clouds. Proceedings of the ISPRS Workshop Laser scanning, September 12-
14, Enschede, Netherlands.
Belton, D., Mooney, B., Snow, T., Kwang-Ho, B., 2011. Automated Matching of Segmented
Point Clouds to As-built Plans. Proceedings of the Surveying & Spatial Sciences Biennial
Conference, 21-25 November, Wellington, New Zealand.
Benhabiles, H., Vanderborr, J-P., Lavoué, G., Daoudi, M., 2009. Une collection de modèles
3D avec vérité – terrain pour l’évaluation des algorithmes de segmentation. Proceedings of
CORESA (COmpression et REpresentation des Signaux Audiovisuels), 19-20 mars 2009,
Toulouse, France.
Besl, P.J., McKay, N.D., 1992. A method for registration of 3-D shapes. IEEE Transactions
of Pattern Analysis and Machine Intelligence, vol. 14, no. 2, pp.239-256.
Bienert, A., 2008. Vectorization, Edge Preserving Smoothing and Dimensioning of Profiles
in Laser Scanner Point Clouds. The International Archives of the Photogrammetry, Remote
Sensing and Spatial Information Sciences, vol. XXXVII, part. B5, pp. 507-512.
Bitenc, M., Lindenbergh, R., Khoshelham, K., van Waarden, A.P., 2011. Evaluation of a
LIDAR Land-Based Mobile Mapping System for Monitoring Sandy Coasts. Remote
Sensing, vol. 3, pp. 1472-1491.
Boehler, W., Bordas, V., Marbs, A., 2003. Investigating laser scanner accuracy. Proceedings
of the XIXth CIPA Symposium, 30 September – 4 October, Antalya, Turkey.
Borowiec, N., 2009. Generowanie trójwymiarowego modelu budynku na podstawie danych
lidarowych. Archiwum Fotogrametrii, Kartografii i Teledetecji, vol. 20, pp.47-56.
Borowiec, N., 2012. Transformata Hough’a jako narzedzie wspomagające wykrywanie
dachów budynków. Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol. 25, pp.45-54.
Borrmann, D., Elseberg, J., Lingemann, K., Nüchter, A., 2011. The 3D Hough Transform for
Plane Detection in Point Clouds: A Review and a new Accumulator Design. 3D Research,
vol. 02, pp.1-13.
Boudet, L., 2007. Auto-qualification de données géographiques 3D par appariement multiimage
et classification supervisée. Application au bâti en milieu urbain dense. Thèse de
doctorat, Université Paris-EstMarne-la-Vallée.
Bouillaguet, Ch.,. 2011. Algorithmique et Programmation. Projet :permutations de matrices
creuses et décompositions de graphes Cours en-ligne, École Nationale Supérieure :
http://www.lifl.fr/~bouillag/teaching/ens_2011/sparse1.pdf
Boulaassal, H., 2010. Segmentation et modélisation géométrique de façades de bâtiments à
partir de relevés laser terrestres. Thèse de Doctorat, INSA Strasbourg.
Brabant, M., 2011. In : Topographie opérationnelle: Mesure – Calculs – Dessins -
Implémentations. Editeur Eyrolles.
Bretar, F., Roux, M., 2005. Hybrid image segmentation using lidar 3D planar primitives.
Proceedings of ISPRS Workshop Laser scanning, September 12-14, Enschede, the
Netherlands, 2005, pp 72-78.
Bykat, A., 1978. Convex hull of a finite set of points in two dimensions. Information
Processing Letters, vol. 7, pp.296–298. Bibliographie
143
Cahalane C., McCarthy, T., McElhinney, C., 2010. Mobile mapping system performance – an
initial investigation into the effect of vehicle speed on laser scan lines, RSPSoc no.2005.
Canaz, S., Habib, A., 2013. Planar and linear feature –based registration of terrestrial laser
scans with minimum overlap using photogrammetric data. Proceedings of the 8th
International Symposium on Mobile Mapping Technology, 1-3 May, Tainan, Taiwan.
Cannelle, B., Paparoditis, N., Pierrot-Deseilligny, M., Papelard, J-P., 2012. Off-line vs. Online
calibration of a panoramic-based mobile mapping system. ISPRS Annals of the
Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. I-3, pp. 31-36.
Castillo, E., Zhao, H.,2009. Point Cloud Segmentation via Constrained Nonlinear Least
Squares Surface Normal Estimates. Computational Geometry.
Cazzaniga, N.E., Fornali, G., Roncella, R., 2007. Improving the reliability of a GPS/INS
Navigation Solution for MM Vehicles By Photogrammetry. Proceedings of the 5th
International Symposium on Mobile Mapping Technology, Padua, Italy.
Chan, T. O., Lichti, D. D., Feature-based self-calibration of Velodyne HDL-32E LiDAR for
terrestrial mobile mapping applications. 2013. Proceedings of the 8th International
Symposium on Mobile Mapping Technology, 1-3May, Tainan, Taiwan.
Chan, T-O., Lichti, D.D., Glennie, C.L., 2013. Multi-feature based boresight self-calibration
of a terrestrial mobile mapping system. ISPRS Journal of Photogrammetry and Remote
Sensing, vol. 82, pp.112-124.
Chen, C., Hung, Y., Cheng, J., 1999. RANSAC-based DARCES: A New Approach to Fast
Automatic Registration of Partially Overlapping Range Image. IEEE Transactions on
Pattern Analysis and Machine Intelligence, vol.21, no. 11, pp.1229-1234.
Chen, J., Leung, M.K., Gao, Y., 2003. Noisy logo recognition using line segment Hausdorff
distance. The Journal of the Pattern Recognition Society, vol.36, pp.943-955.
Chen, Y., Medioni, G., 1992. Object modelling by registration of multiple range images.
Image Vision Computing, vol. 10(3), pp.145-155.
Chen, Y-Ch., Tseng, Y-H., Wang, P-Ch., 2013. The calibration of a portable panoramic
image mapping system. Proceedings of the 8th International Symposium on Mobile Mapping
Technology, Mai 1-3, Tainan, Taiwan.
Choi, W-P., Lam, K-M., Siu, W-Ch., 2001. A robust Line-Feature-Based Hausdorff Distance
for Shape Matching. Proceedings of Advances in Multimedia Information Processing – PCM
2001, Second IEEE Pacific Rim Conference on Multimedia, 24-26 Octobre, Bejing, Chine,
pp.764-771.
Cormen, T., Leiserson, Ch., Rivest, R., Stein, C., 2001. Introduction à l’algorithmique. Cours
et exercices. The Massachusetts Institute of Technology, 2e édition. pp.1-1176.
Guan, H., Li, J., Yu, Y., Wang, Ch., 2013. Geometric validation of a mobile laser scanning
system for urban applications. Proceedings of the 8th International Symposium on Mobile
Mapping Technology, 1-3 May, Tainan, Taiwan.
Delmerico, J.A., David, P., Corso, J.J., 2011. Building Facade Detection, Segmentation, and
Parameter Estimation for Mobile Robot Localization and Guidance, Proceedings of the
International Conference of Intelligent Robots and System (IROS)., pp.1632-1639. 144
Demarsin, K., Vanderstraeten, D., Volodine, T., Roosea, D., 2007. Detection of closed sharp
edges in point clouds using normal estimation and graph theory. Computer-Aided Design,
vol. 39, pp.276-283.
Deschaud, J-E., 2010. Traitement de nuages de points denses et modélisation 3D
d’environnements par système mobile LiDAR/Caméra. Thèse de Doctorat, MINES
ParisTech.
Douadi, L., 2006. Contribution à l’étude du recalage de données 3D/couleur. Thèse de
doctorat, Université Montpellier II.
Dubuisson, M.P., Jain, A.K., 1994. A modified Hausdorff distance for object matching.
Proceedings 12th International Conference on Pattern Recognition, Jerusalem, Israel,
pp.566-568.
Duda, R.O., Hart, P.E., 1971. Use of the Hough Transformation to Detect Lines and Curves
in Pictures. Technical Note 36, Artificial Intelligence Center, SRI International.
Feng, J., Zhong, R., Yang, Y., Zhao, W., 2008. Quality Evaluation of Spatial Point-Cloud
Data Collected by Vehicle-Borne Laser Scanner. International Workshop on Education and
Training & International Workshop on Geosciences and Remote Sensing.
Dulmage, A.L., Mendelsohn, N.S., 1958. Coverings of bipartite graphs. Canadian Journal of
Mathematics, vol.10, pp. 517–534.
Ellum, C., El-Sheimy, N., 2002. The calibration of Image-Based Mobile Mapping Systems.
Proceedings of the 6th Conference on Optical 3D Measurements Techniques, September 22-
25, Zurich, Swiss.
Ellum, C., El-Sheimy, N., 2003. Investigations in boresight and lever-arm calibration.
Elsbourg, J., Borrmann, D., Nüchter, A., 2013. Automatic and Full Calibration of Mobile
Laser Scanning Systems. Experimental Robotics, Springer Tracts in Advanced Robotics,
Vol.88, part. XIII, pp.907-917.
El-Sheimy, N., 2011. Land-based MMT: State of the Art and Future Trends. Proceedings of
the 7th International Symposium on Mobile Mapping Technology, June 13-16, Cracow,
Poland.
Evans, S., 2013. 3D Laser Scanning Market Continues Trend of Robust Growth. Publication
en-ligne : http://www.arcweb.com/press-center/2013-07-11/3d-laser-scanning-market-continuestrend-of-robust-growth-1.aspx
(accessible le 16.04.2014).
Feng, J., Zhong, R., Yang, Y., Zhao, W., 2008. Quality Evaluation of Spatial Point-Cloud
Data Collected by Vehicle-Borne Laser Scanner. Proceedings of the International Workshop
on Education and Training & 2008 International Workshop on Geosciences and Remote
Sensing, pp. 320-323.
Filin, S., 2003. Recovery of systematic biases in laser altimetry data using natural surfaces.
Photogrammetric Engineering and Remote Sensing, vol.69(11), pp.1235-1242.
Fischler, M.A. et Bolles, R.C., 1981. Random sample consensus: A paradigm for model fitting
with applications to image analysis and automated cartography. Communications of the
ACM, vol.24(6), pp.381-395.
Fitzgibbon, A., 2001. Robust registration of 2D and 3D point sets. The British Machine
Vision Conference.
Frémont, V., 2009. Odométrie 3D vision/lidar pour les véhicules intelligents. Journées
Nationales de la Recherche en Robotique, Neuvy-sur-Barangeon, France. Bibliographie
145
Gallo, O., Manduchi, R., Rafii, A., 2010. CC-RANSAC: Fitting planes in the presence of
multiple surfaces in range data. Pattern Recognition Letters, vol. 32, pp. 403–410.
Gandofi, S., Barbarelle, M., Ronci, E., Bruchi, A., 2008. Close photogrammetry and laser
scanning using a mobile mapping system for high detailed survey of a high-density urban
area. The International Archives of the Photogrammetry, Remote Sensing and Spatial
Information Sciences, Vol. XXXVII, part B5, pp.909-914.
Gao, J., Sun, J., Wu, K., 2012. Image Matching Method Based on Hausdorff Distance of
Neighborhood Grayscale. Journal of Information & Computational Science, vol.10, pp. 2855-
2863.
Gao, Y., Leung, M.K., 2002. Line segment Hausdorff distance on face matching. The Journal
of the Pattern Recognition Society, vol.35, pp.361-371.
Gelfand, N., Ikemoto, L., Rusinkiewicz, Sz., Levoy, M., 2003. Geometrically Stable Sampling
for the ICP Algorithm. 2003. Proceedings of the 4th International Conference on 3D Digital
Imaging and Modeling (3DIM), pp.260-267.
Ghanma, M., 2006. Integration of Photogrammetry and LIDAR. Thèse de doctorat,
Université de Calagary, Canada.
Glennie, C., 2007. Rigorous 3D error analysis of kinematic scanning LIDAR systems.
Journal of Applied Geodesy, vol.1, pp.147-157.
Glennie, C., 2012. Calibration and kinematic analysis of the Velodyne HDL-64E S2 LiDAR
sensor. Photogrammetric Engineering and Remote Sensing, vol. 78(4), pp.339-347.
Graham, R.L., 1972. An Efficient Algorithm for Determining the Convex Hull of a Finite
Planar Set. Information Processing Letters, vol. 1, pp.132-133.
Grejner-Brzezinska, D., Toth, Ch., 2010. High-Accuracy Multi-Sensor Geolocation
Technology to Support Geophysical Data Collection at MEC Sites. Final Report SERDP
Project MR-1564
Gressin, A., Mallet, C., David, N., 2012. Improving 3D LIDAR point cloud registration
using optimal neighborhood knowledge. ISPRS Annals of the Photogrammetry, Remote
Sensing and Spatial Information Sciences, vol. I-3, pp. 111-116.
Gressin, A., Mallet, C., Damantké, J., David, N., 2013. Towards 3D lidar point cloud
registration improvement using optimal neighborhood knowledge. ISPRS Journal of
Photogrammetry and Remote Sensing, vol. 79, pp. 240-251.
Gruen, A., Akca, D., 2005. Least squares 3D surface and curve matching. ISPRS Journal de
Photogrammetry and Remote Sensing, vol.59(3), pp.151-174.
Grussenmeyer, P., Hottier, P., Abbas, I., 1994. Le contrôle topographique d’une carte ou
d’une base de données constituées par voie photogrammétrique. Revue de l’Association
Française de Topographie, XYZ 2e trim. 1994 N°59, ISSN 0290-9057, pp. 39-45.
Guerra, C., Pascucci, V., 1999. On matching Sets of 3D Segments. Proceedings SPIE, vol.
3811, pp.157-167.
Haala, N., Peter, M., Kremer, J., Hunter, G., 2008. Mobile LIDAR Mapping for 3d point
cloud collection in urban areas – a performance test. Proceedings of XXIth ISPRS Congress. 146
Habib, A.F., Ghanma, M.S., Tait, M., 2004. Integration of LIDAR and photogrammetry for
close range applications. ISPRS Proceedings of XXth Congress, July12-23, Istanbul, Turkey.
Habib, A., Bang; K., Kersting, A.P., Chow, J., 2010. Alternatives methodologies for LiDAR
system calibration. Remote Sensing, vol.2, pp.874-907.
Habib, A.F., Kersting, A.P. Shaker, A., Yan, W-Y., 2011. Geometric Calibration and
Radiometric Correction of LiDAR Data and Their Impact on the Quality of Derived
Products. Sensors, vol.11, pp.9069-9097.
Hanke, K., Grussenmeyer, P., Grimm-Pitzinger, A., Weinold, T., 2006. First Experiences
with Trimble GX Scanner. International Archives of the Photogrammetry, Remote Sensing
and Spatial Information Sciences, vol. XXXVI, part 5.
Harris, C., Stephens, M.A., 1988. A Combined Corner and Edge Detector. Proceedings of 4th
Alvey Vision Conference, pp. 147-151.
Hartley, R., Zisserman, A., 2003. Multiple view geometry in computer vision. Cambrige
University Press, Second edition, pp.117-121.
Hassan, T., El-Sheimy, N., 2008. System calibration of land-based mobile mapping systems.
Proceedings of the International Calibration and Orientation Workshop EuroCOW 2008, 30
January-1 February, Castelldefels, Spain.
Hernandez, J., Marcotegui, B., 2008. Segmentation de Nuages de Points pour la
Modélisation d’Environnement Urbains. Revue Française de Photogrammétrie et de
Télédétection, vol.191, pp.28-35.
Hiremagalur, J., Yen, K.S., Lasky, T.A., Ravani, B., 2009. Testing and Performance
Evaluation of Fixed Terrestrial 3D Laser Scanning Systems for Highway Applications.
Transportation Research Board TBR 88th Metting CD-ROM, pp. 1-19.
Hough, P.C.V., 1962. Method and Means for Recognizing Complex Patterns. US Patent
3.069.654.
Huh, Y., Yang, S., Ga, Ch., Yu, K., Shi, W., 2013. Line segment confidence region-based
string matching method for map conflation. ISPRS Journal of Photogrammetry and Remote
Sensing, vol.78, pp.69-84.
Hullo, J-F., 2013. Consolidation de relevés laser d’intérieurs construits : pour une approche
probabiliste initialisée par géolocalisation. Thèse de doctorat, Université de Strasbourg.
Huttenlocher, D.P., Klanderman, G.A., Kl, G.A, Rucklifge, W.J., 1993. Comparing Images
Using the Hausdorff Distance. IEEE Transactions on Pattern Analysis and Machine
Intelligence, vol.15, pp. 850-863.
Jarvis, R. A., 1973. On the identification of the convex hull of a finite set of points in the
plane. Information Processing Letters vol.2, pp.18–21.
Jarzabek-Rychard, M., Borkowski, A., 2010. Porównanie algorytmów RANSAC oraz
rosnacych płaszczyzn w procesie segmentacji danych z lotniczego skaningu laserowego.
Archiwum Fotogrametrii, Kartografii i Teledetecji, vol. 21, pp.119-129.
Jaw, J-J., Chuang, T-Y., 2008. Registration of ground-based LIDAR point clouds by means
of 3D line features. Journal of the Chinese Institute of Engineers, vol. 31, no. 6, pp.1031-
1045.
JCGM 200 :2012. Vocabulaire international de métrologie – Concepts fondamentaux et
généreux et termes associés (VIM), BIPM, pp.18-28. Bibliographie
147
Jibrini, H., 2002. Reconstruction automatique des bâtiments en modèles polyédriques 3-D à
partir de donnés cadastrales vectorisées 2D et d’un copule d’images aériennes à haute
résolution. Thèse de doctorat de Télécom Paris.
Kaartinen, H., Hyyppä, J., Kukko, A., Jaakkola, A., Hyyppä, H., 2012. Benchmarking the
Performance of Mobile Laser Scanning Systems Using a Permanent Test Field. Sensors, vol.
12, pp. 12814-12835.
Kamgar-Parsi, B., Kamgar-Parsi, B., 1997. Matching Sets of 3D Line Segments with
Application to Polygonal Arc Matching. IEEE Transactions on Pattern Analysis and
Machine Intelligence, vol.19, No. 10.
Kamgar-Parsi, B., Kamgar-Parsi, B., 2004. Algorithms for Matching 3D Line Sets. IEEE
Transactions on Pattern Analysis and Machine Intelligence, vol. 26, No.5.
Klimkowska, H., Wróbel, A., 2006. Uwagi o wykorzystaniu Tachymetrów Bezlustrowych w
Inwentaryzacji Architektonicznej (Some Remarks Concerning the Use of Reflector less
Total Stations for Architectural Recording). Archiwum Fotogrametrii, Kartografii i
Teledetekcji, vol.16, pp.297-303.
Kumari, P., Carter, W.E., Shrestha, R.L., 2011. Adjustment of systematic errors in ALS data
through surface matching. Advances in Space Research, vol.47, pp. 1851-1864.
Landes, T., Grussenmeyer, P., 2011. Les principes fondamentaux de la lasergrammétrie
terrestre : systèmes et caractéristiques. Revue XYZ, no. 128/3, pp.37-49.
Landes, T., Grussenmeyer, P., Boulaassal, H., 2011. Les principes fondamentaux de la
lasergrammétrie terrestre : acquisition, traitement des données et applications. Revue XYZ,
no. 129/4, pp.25-38.
Landes, T., Boulaassal, H., Grussenmeyer, P., 2012. Quality Assessment of geometric façade
models reconstructed from TLS data. The Photogrammetric Record, no. 27(138), pp.137-
154.
Lari, Z., Habib, A.F., Kwak, E., An adaptive approach for segmentation of 3D laser point
clouds. International Archives of Photogrammetry, Remote Sensing and Spatial Information
Sciences, vol. XXXVIII-5/W12, pp.103-108.
Latulippe, M., 2013. Calage robuste et accéléré de nuages de points en environnements
naturels via l’apprentissage automatique. Thèse de Master, Université Laval, Québec,
Canada.
Lee, D., Kim, Y., Bang, H., 2013. Vision-based Terrain Referenced Navigation for Unmanned
Aerial Vehicles using Homography Relationship. Journal of Intelligent and Robotic Systems,
vol.69(1-4), pp. 489-497.
Levinson, J.S., 2011. Automatic laser calibration, mapping, and localization for autonomous
vehicles. Thèse de Doctorat, Stanford Artificial Intelligence Laboratory.
Li, W., Li, X., Bian, Y., Zhao, H., 2012. Multiple View Point Cloud Registration Based on 3D
Lines. Proceedings of the 2012 International Conference on Image Processing, Computer
Vision & Pattern Recognition, Las Vegas, USA.
Li-Chee-Ming, J., Armenakis, C., Lee, R., 2011. Mobile Stereo-Mapper: a Portable Kit for
Unmanned Aerial Vehicles. International Archives of the Photogrammetry, Remote Sensing
and Spatial Information Sciences, vol. XXXVIII-1/C22, pp.1-6. 148
Liao, H-M., Liu, H-S., Chen, C., 2013. Develop Backpack Mobile Mapping System Based on
Open Source Software and Hardware Platform. Proceedings of the 8th International
Symposium on Mobile Mapping Technology, 1-3 May, Tainan, Taiwan.
Lowe, D.G., 2004. Distinctive image features from scale – invariant key points. International
Journal of Computer Vision, vol.60(2), pp.91-110.
Mano, K., Ishii, K., Hirao, M., Tachibana, K., Yoshimura, M., Akca, D., Gruen, A., 2012.
Empirical accuracy assessment of MMS Laser point clouds. International Archives of the
Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXIX-B5, pp.
495-498.
Masuda, T., Yokoya, N., 1995. A robust Method for Registration and Segmentation of
Multiple Range Images. Computer Vision and Image Understanding, vol. 16, no.3, pp.295-
307.
Monnier, F., Vallet, B., Paparoditis, N., Papelard, J-P., David, N., 2013. Mise en cohérence de
données laser mobile sur un modèle cartographique par recalage non-rigide. Revue Française
de Photogrammétrie et de Télédetection, no. 202, pp.27-41.
Narayana, K.S., 2011. Solutions for the localization of Mobile Mapping Systems in
structured environments. Thèse de Doctorat, MINES ParisTech.
Newby, P. R. T., 2011. Editorial: Accuracy, precision, extraction, citation and valediction.
The Photogrammetric Record, 26(134): 149-153.
Ning, F-S., Kao, S-P., Chang, Ch-Ch, Meng, X., 2007. A simulation of the effect of GPS
Pseudolite observations on the obstructed sky view. Survey Review, vol. 39, pp.34-42.
Oehler, B., Stueckler, J., Welle, J., Schulz, D., Behnke S., 2011. Efficient Multi-Resolution
Plane Segmentation of 3D Point Clouds. Proceedings of the 4th International Conference on
Intelligent Robotics and Applications (ICIRA), Aachen, Germany.
Paparoditis, N., Papelard, J-P., Cannelle, B., Devaux, A., Soheilian, B., Nicolas, D., Houzay,
E., 2012. Stéréopolis II: A multi-purpose and multi-sensor 3D mobile mapping system for
street visualization and 3D metrology. Revue Française de Photogrammetry et de
Télédetection, pp.69-79.
Pawleta, M., Igielska, A., 2009. Analiza dokładnosci wybranych modeli naziemnych
skanerów laserowych. Thèse de Master, AGH de Cracovie.
Pesci, A., Teza, G., 2008. Effects of surface irregularities on intensity data from laser
scanning: an experimental approach. Annals of Geophysics, vol. 51/1, pp.839-848.
Poncelet, N., Cornet, Y., 2010. Transformée de Hough et détection de linéaments sur images
satellitaires et modèles numériques de terrain. Bulletin de la Société Géographique de Liège,
vol.54, pp.145-156.
Poreba, M., Goulette, F., 2012. Assessing the Accuracy of Land-Based Mobile Laser
Scanning Data. Geomatics and Environmental Engineering, vol.6, no. 3, pp.73-81.
Pothen, Al., Fan, Ch-J., 1990. Computing the Block Triangular Form of a Sparse Matrix.
ACM Transactions on Mathematical Software, vol.16, no.4, pp.303-324.
Pulli, K., 1999. Multiview Registration for Large Data Sets. Proceedings of the International
Conference on 3D Digital Imaging for the ICP Algorithm (3DIM), Ottawa, pp. 160-168. Bibliographie
149
Rabbani, T., van den Heuvel, F. A., Vosselman, G., 2006. Segmentation of Point Clouds
using Smoothness Constraint. ISPRS Commission V Symposium on Image Engineering and
Vision Metrology, pp.248-253.
Rau, J-Y., Habib, A.F., Kersting, A.P., Chiang, K-W., Bang, K-I., Tseng, Y-H., Li, Y-H.,
2011a. Direct Sensor Orientation of a Land-Based Mobile Mapping System. Sensors, vol.11,
pp. 7243-7261.
Rau, J-Y., Chen, L-Ch., Hsieh, Ch-Ch., Huang, T-M., 2011b. Static error budget analysis for
a land-based dual-camera mobile mapping system. Journal of the Chinese Institute of
Engineers, vol. 34, no. 7, pp.849-862.
Ray, J.A., Graham, L., 2008. New horizontal accuracy assessment tools and techniques for
LIDAR data. Proceedings of the ASPRS Annual Conference, Portland, Oregon.
Reichle, R.H., 2008. Data assimilation Methods in the Earth sciences. Advances in Water
Resources, vol.31, no.11, pp.1411-1418.
Renaudin, E., Habib, A., Kersting, A.P., 2011. Feature-Based Registration of Terrestrial
Laser Scans with Minimum Overlap Using Photogrammetric Data. ETRI Journal, vol. 33,
no. 4, pp.517-527.
Ridene, T., 2010. Co-recalage de données hétérogènes 3D géo-référencées: contributions à la
correction de relevés laser mobiles. Thèse de doctorat, MINES ParisTech.
Rieger, P., Studnicka, N., Pfennigbauer, M., Zach, G., 2010. Boresight alignment method for
mobile laser scanning systems. Journal of Applied Geodesy, vol. 4, pp. 13-21.
Rusinkiewicz, Sz., Levoy, M., 2001. Efficient Variants of the ICP Algorithms. Proceedings of
the International Conference on 3D Digital Imaging and Modeling (3DIM), Québec,
Canada, pp.145-152.
Shear, P., In-flight Quality Assessment and Data Processing for Airborne Laser Scanning.
Thèse de Doctorat, École Polytechnique Fédérale de Lausanne.
Sappa, A., Restrepo-Specht, A., Devy, M., 2001. Range Image Registration by using an
Edge-based Representation. Proceedings of the 9th International Symposium on Intelligent
Robotic Systems (SIRS’01), Toulouse, France, pp.167-176.
Sarni D., Lemarchande L., 2011. Graphes, Université de Brest, cours en-ligne
http://www.lisyc.univ-brest.fr/pages_perso/lemarch/Cours/polyGraphes.pdf, pp.1-63.
Selmi, I., 2013. Optimisation de de l'infrastructure d'un système de positionnement indoor à
base de transmetteurs GNSS. Thèse de Doctorat, Télécom SudParis.
Serna, A., Marcotegui, B., 2013. Urban accessibility diagnosis from mobile laser scanning
data, ISPRS Journal of Photogrammetry and Remote Sensing, vol.84, pp.23-32.
Shaer, P., 2010. In-Flight Quality Assessment and Data Processing for Airborne Laser
Scanning. Thèse de doctorat, École Polytechnique Fédérale de Lausanne.
Shi, Y., 2008. Advanced Mobile Mapping System Development with Integration of Laser
Data, Stereo Image and other Sensor Data. Publication of Tokyo City University, no.10, pp.
24-31.
Skaloud, J., Lichti, D.D., 2006. Rigorous approach to boresight self-calibration in airborne
laser scanning. ISPRS Journal of Photogrammetry and Remote Sensing, vol. 61(1), pp.47-59. 150
Soria-Medina, A., Martinez, J., Buffara-Antunes, A.F., Arias, P., Gonzalez-Jorge, H., 2011.
An approach to extracting façade features using the intensity value of terrestrial laser
scanner with mathematical morphology. The 28th International Symposium on Automation
and Robotics in Construction, Republic of Korea, pp.552-557.
Soudarissanane, S., Lindenbergh, R., Menenti, M., Teunissen, P.J.G., 2009. Incidence angle
influence on the quality of terrestrial laser scanning points. Proceedings of ISPRS Workshop
Laser Scanning; Paris, France, vol. XXXVIII, part 3/W8, pp.183-188.
Steiger, R., 2005. The Geometrical Quality of Terrestrial Laser Scanner (TLS). Proceedings
of FIG Working Week, Egypt.
Sunday, D., 2001. Distance between lines and segments with their closest point of approach.
Technical report, en-ligne : http://geometryalgorithms.com.
Talaya, J., Alamus, R., Bosch, E., Serra, A., Kornus, W., Baron, A., 2004. Integration of a
Terrestrial Laser Scanner with GPS/IMU Orientation Sensors. Proceedings of the XX
ISPRS Congress (Commission V), July 12-23, Istanbul, Turkey.
Tangelder, J.W.H., Veltkamp, R.C., 2008. A survey of content based 3D shape retrieval
methods. Multimedia Tools Applications, vol.39(3), pp.441-471.
Tarsha-Kurdi, F., Landes, T., Grussenmeyer, P., 2007. Hough Transform and Extended
RANSAC algorithms for automatic detection of 3D building roof planes from LIDAR data.
The International Archives of the Photogrammetry, Remote Sensing and Spatial
Information Sciences, vol.XXXVI, part 3/W52, pp.407-412.
Tarsha-Kurdi, F., 2008. Extraction et reconstruction de bâtiments en 3D à partir de relevés
lidar aéroportés. Thèse de doctorat, Université de Strasbourg.
Titterton, D.H., Weston, J.L., 2004. Strapdown Inertial Navigation Technology – 2nd
Edition. The institution of Electrical Engineering. 557 pages.
Toth, C., Grejner-Brzezinska, D., Oh, J.H., Markiel, J.N., 2009. Terrain-based navigation: a
tool to improve navigation and feature extraction performance of mobile mapping systems.
Boletim de Ciências Geodésicas – Special Issue on Mobile Mapping Technology, vol. 15,
no.5, p. 807-823.
Tournaire, O., Soheilian, B., Paparoditis, N., 2006. Towards a sub-decimetric georeferencing
of a ground-based mobile mapping systems in urban areas :matching ground-based and
aerial-based imagery using road marks. Proceedings of the ISPRS Commission I
Symposium, volume Part A, Marne-la-Vallée, France.
Tuttas, S., Stilla, U., 2011. Window Detection In Sparse Point Clouds Using Indoor Points.
International Archives of Photogrammetry, Remote Sensing and Spatial Information
Sciences, vol. 38(3/W22), pp. 131-136.
Tuttas, S., Stilla, U., 2013. Reconstruction of façades in point clouds from multi-aspect
oblique ALS. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial
Information Sciences, vol.II-3/W3, pp.91-96.
van Verth, J.M., Bishop, L.M., 2008. Essential Mathematics for Games & Interactive
Applications. A programmer’s guide. Second Edition, (674 pages).
Vervisch-Picois, A., 2010. Etude de Systèmes de Positionnement en Intérieur Utilisant des
Mesures de Phase du Code ou de Phase de la Porteuse de Signaux de Navigation par
Satellites. Thèse de Doctorat, Université Pierre et Marie Curie - Paris 6. Bibliographie
151
Vosselman, G., Gorte, B.G.H., Sithole, G., Rabbani, T., 2004. Recognizing structure in laser
scanner point clouds. The International Archives of the Photogrammetry, Remote Sensing
and Spatial Information Sciences, vol. XXXVI, pp.33-38.
Vosselman; G., Maas, H.G., 2010. Airborne and terrestrial laser scanning. Whittles
Publishing, 2010 - Technology & Engineering, 318 pages.
Wang, J., Dai, L., Tsujii, T., Rizos, Ch., 2001. GPS/INS/Pseudolite Integration: Concepts,
Simulation and Testing. Proceedings of the 14th International Technical Meeting of the
Satellite Division of the Institute of Navigation. Salt Lake City, UT, 11-14 September, 2708-
2715.
Wang, J., Tan, Y., 2012. Hausdorff Distance with k-Nearest Neighbors. Advances in Swarm
Intelligence, Third International Conference, ICSI, 17-20 Juin, Shenzhen, Chine, pp.272-281.
Wang, R., Bach, J., Ferrie, F., 2011. Window Detection form Mobile LiDAR Data. IEEE
Workshop on Applications of Computer Vision (WACV), 5-7 Janvier, Kona, Hawaii.
Wang, W., Lou, A., Wang, J., 2012. The research of line matching algorithm under the
improved homograph matrix constraint condition. International Archives of
Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXIX-B3, pp.
345-350.
Wang, Y., Ewert, D., Schilberg, D., Jeschke, S., 2013. Edge Extraction by Merging 3D Point
Cloud and 2D Image Data. 10th International Conference & Expo on Emerging
Technologies for a Smarter World (CEWIT), 21-22 Octobre, Melville, New York.
Wang, Y., Ewert, D., Schilberg, D., Jeschke, S., 2014. A New Approach for 3D Edge
Extraction by Fusing Point Clouds and Digital Images. Applied Mechanics and Materials,
vol. 457-458, pp.1012-1016.
Wiart, A., 2013. Calibration extrinsèque d’un scanner laser multi-fibre. Test sur le laser
Velodyne. Rapport de stage de fin d’étude. MINES ParisTech & ENSG.
Williams, K.E., 2012. Accuracy Assessment of LIDAR Point Cloud Geo-Referencing. These
de Master, Oregon State University.
Yang, M.Y., Forstner, W., 2010. Plane Detection in Point Cloud Data. Technical Report
Nr.1, Department of Photogrammetry, Institute of Geodesy and Geoinformation, University
of Bonn.
Yao, J., Ruggeri, M.R., Taddei, P., Sequeira, V., 2010. Robust range image registration using
3D lines. Proceedings of 2010 IEEE 17th International Conference on Image Processing,
September 26-29, Hong Kong, pp.4321-4324.
Yong, L., Huayi, W., 2008. Adaptive building edge detection by combining Lidar data and
aerial images. The International Archives of the Photogrammetry, Remote Sensing and
Spatial Information Sciences, vol. XXXVII, pp.197-202.
Yoo, H-J., 2010. Analyse et conception de scanners laser mobiles dédiés à la cartographie 3D
d’environnements urbains. Thèse de doctorat, MINES ParisTech.
Yousif, H., Li, J., Chapman, M., Shu, Y., 2010. Accuracy enhancement of terrestrial mobile
LIDAR data using theory of assimilation. IAPRS International Archives of the
Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVIII, part.5,
pp. 639-645. 152
Zampa, F., Conforti, D., 2009. Mapping with Mobile Radar. GIM International, vol. 23, no.4,
pp.35-37.
Zhang, Z., Faugeras, O.D., 1991. Determining Motion from 3D Line Segment Matches: a
comparative Study. Journal Image and Vision Computing, vol. 9, no.1, pp.10-19.
Zhang, Z., 1994. Iterative Point Matching for Registration of Free – Form Curves and
Surfaces. International Journal of Computer Vision, vol. 13, pp.119-152.
Zhu, Z., Liu, J., 2013 Unsupervised Extrinsic Parameters Calibration for Multi-beam
LIDARs, Proceedings of the 2nd International Conference on Computer Science and
Electronics Engineering, ICCSEE.
Zuliani M., 2012. RANSAC for Dummies, Technical Report. en-ligne:
http://vision.ece.ucsb.edu/~zuliani/Research/RANSAC/docs/RANSAC4Dummies.pdf153
Annexe A
Distance minimale entre deux segments
0. Distance minimale entre deux segments
Nous présentons dans cette annexe la méthode de [Sanday, 2001] permettant de déterminer
la distance la plus courte entre deux segments. Puisqu’elle s’inspire de la définition de
distance minimale entre deux lignes, nous commençons par expliquer son calcul.
Soient ܮଵ, et ܮଶ deux droites représentées respectivement par les points ܲ, ܳ et les vecteurs
non nuls ݑሬԦ, ݒԦ (Figure A.1) :
ܮଵ: ܲሺݏሻ ൌ ܲ ݑݏሬԦ ܮଶ: ܳሺݐሻ ൌ ܳ ݒݐԦ (A.1)
Les paramètres ݏ et ݐ indiquent la localisation des deux points plus proches sur les
lignes ܮଵ, et ܮଶ. Nous désignons par ݓሬሬԦ le vecteur défini par les deux points ܲሺݏሻ et ܳሺݐሻ. Sa
norme correspond à la distance minimale entre deux lignes (A.2).
ݓሬሬԦ ൌ ܲሺݏሻ െ ܳሺݐሻ (A.2)
Figure A.1 Définition de la distance minimale entre deux segments de droite
En remplaçant dans la formule (A.2) les points ܲሺݏሻ et ܳሺݐሻ par (A.1), nous obtenons : 154
ݓሬሬԦ ൌ ݓ ሬሬሬሬሬԦ ݏݑሬԦ െ ݐݒԦ (A.3)
où ݓ ሬሬሬሬሬԦ ൌ ሺܲ െ ܳሻ.
Par définition, le vecteur ݓሬሬԦ doit être, à la fois, perpendiculaire à ܮଵ et ܮଶ tant qu’il représente
la distance minimale entre ces deux lignes. Sachant que les deux vecteurs sont orthogonaux
si est seulement si, leur produit scalaire est nul, nous notons :
൜
ሬݓሬሬሬሬ
Ԧ ∙ ݑሬԦ ൌ 0
ሬሬሬሬሬݓ
Ԧ ∙ ݒԦ ൌ 0
(A.4)
En prenant en compte de l’équation (A.3), la formule (A.4) prend forme :
൜
ൌ 0 Ԧݒ ∙ Ԧሬݑݐ ሬԦ െݑ ∙ Ԧሬݑݏ Ԧሬݑ ∙ Ԧሬሬሬሬሬ ݓ
ൌ 0 Ԧݒ ∙ Ԧݒݐ െ Ԧݒ ∙ ԦሬݑݏԦݒ ∙ Ԧሬሬݓ
(A.5)
La résolution de ce système d’équations linéaires à deux inconnues nous amène à déterminer
les valeurs ݏ et ݐ de la manière suivante :
ݏ ൌ ܾ݁ െ ܿ݀
ܽܿ െ ܾଶ
(A.6)
ݐ ൌ ܽ݁ െ ܾ݀
ܽܿ െ ܾଶ
(A.7)
pour les ܽ, ܾ, ܿ, ݀, ݁ s’interprètent comme le produit scalaire de deux vecteurs (A.8).
ܽൌݑሬԦ ∙ ݑሬԦ ܾൌݑሬԦ ∙ ݒԦ ܿൌݒԦ ∙ ݒԦ ݀ൌݑሬԦ ∙ ݓሬሬԦ ݁ൌݒԦ ∙ ݓሬሬԦ
(A.8)
Il faut noter que le dénominateur ܽܿ െ ܾଶ de deux équations (A.6) et (A.7) doit être positif.
S’il est égal à zéro, les deux lignes sont parallèles.
La recherche de distance minimale entre deux lignes se résume alors à employer les
paramètres ݏ et ݐ obtenus pour trouver la norme du vecteur ݓሬሬԦ défini selon la formule
(A.2).
Passant à présent au cas de deux segments ܵଵ et ܵଶ représentés par les équations
paramétriques :
ܵଵሺݏሻ ൌ ܲ ݑݏሬԦ,ݏ ∈ ሾ0,1ሿ (A.9)
ܵଶሺݏሻ ൌ ܳ ݒݐԦ,ݐ ∈ ሾ0,1ሿ
Nous commençons, de manière similaire, par calculer la distance entre deux segments en
minimisant la norme du vecteur ݓሬሬԦ (‖ݓሬሬԦ‖ሻଶ). Ainsi, la position des points les plus proches
sur les deux droites ܮଵ et ܮଶ est retrouvée grâce aux équations (A.6) et (A.7).
Ensuite, nous procédons à vérifier si les valeurs de ݏ et ݐ sont comprises dans l’intervalle de
0 à 1, puisque ݏ ∈ ሾ0,1ሿ et ݐ ∈ ሾ0,1ሿ. Si c’est le cas, les points ܲሺܵሻ et ܳሺݐሻ appartiennent Annexe A. Distance minimale entre deux segments
155
aux segments (c’est-à-dire sont situés à l’intérieur du segment délimité par ces extrémités) et
nous nous en servons pour déterminer la distance minimale.
Si par contre, ils se trouvent au-delà d’un segment, il faut recalculer les paramètres ݏ et ݐ
de façon qu’ils minimisent la norme de ݓሬሬԦ. Nous testons plusieurs scénarios (A.10) comme
nous l’expliquons au fur et à mesure.
Valeur calculée Valeur admise
(A.10)
ൌ0ݏ 0൏ݏ
ൌ1ݏ 1ݏ
ൌ0ݐ 0൏ݐ
ൌ1ݐ 1ݐ
Alors, si ݏ൏0, nous changeons sa valeur qui sera désormais égale à zéro (ݏൌ0). Par
conséquent, l’équation (A.3) s’écrit comme :
ݓሬሬԦ ൌ ݓሬሬԦ െ ݐݒԦ (A.11)
et la distance à minimiser :
ݓሬሬԦ ∙ ݓሬሬԦ ൌ ሺݓሬሬԦ െ ݐݒԦሻ ∙ ሺݓሬሬԦ െ ݐݒԦሻ (A.12)
La dérivée partielle selon ݐ de l’équation (A.12) amène à la formule suivante :
െ2ݒԦ ∙ ሺݓሬሬԦ െ ݐݒԦሻ ൌ 0 (A.13)
dont la résolution donne la valeur de ݐ :
Ԧሬሬݓ ∙ Ԧݒ ൌ ݐ
Ԧݒ ∙ Ԧݒ
(A.14)
En admettant que le ݏൌ0 pour le segment ܵଵ (qui correspond nota bene à l’une des
extrémités du segment ܵଵ), nous obtenons la valeur de ݐ pour le segment ܵଶ.
Lorsque ݏ1, on fixe ݏൌ1. Puis, nous entreprenons les mêmes démarches. La distance
minimisée est :
ݓሬሬԦ ∙ ݓሬሬԦ ൌ ሺݓሬሬԦ ݑሬԦ െ ݐݒԦሻ ∙ ሺݓሬሬԦ ݑሬԦ െ ݐݒԦሻ (A.15)
De même, nous calculons la dérivée partielle de (A.15) selon ݐ :
െ2ݒԦ ∙ ሺݓሬሬԦ ݑሬԦ െ ݐݒԦሻ ൌ 0 (A.16)
afin d’obtenir, par résolution du système linéaire, le ݐ :
Ԧݒ ∙ Ԧሬݑ Ԧሬሬݓ ∙ Ԧݒ ൌ ݐ
Ԧݒ ∙ Ԧݒ
(A.17)156
De cette façon, nous déterminons, sur le segment ܵଶ, le point le plus proche du segment ܵଵ.
Si aucun des cas envisagés ci-dessus n’aboutit pas à parvenir le paramètre ݐ dont la valeur se
trouve dans l’intervalle de 0 à 1, nous appliquons la même procédure pour ݐ conformément
aux variantes affichées par (A.10). 157
Annexe B
Méthode EIGEN
0. Méthode EIGEN
Dans leur travail [Zhang et Faugeras, 1991] discutent de différentes représentations d’une
ligne ܮ dans l’espace 3D. Celle-ci peut être intuitivement définie par deux points quelconques
(représentation étant plutôt utilisée lorsque l’on s’intéresse à un segment de ligne) (Figure
B.1a), ou bien encore par un point m et un vecteur directeur ݑ (Figure B.1b). Une autre
possibilité se réfère à la représentation de Plücker d’une ligne, c’est-à-dire celle par deux
vecteurs perpendiculaires ሺݑ, ݀ሻ de telle sorte que ݑ soit le vecteur directeur unitaire et le
vecteur ݀ soit perpendiculaire au plan passant par cette ligne et l’origine (Figure B.1c). Le
vecteur ݀ est alors le produit vectoriel de deux vecteurs ݑ et ݉ (point arbitraire sur la ligne
ܮ). Cette dernière définition a été employée par les auteurs afin de dériver la solution
analytique d’une transformation rigide - la combinaison d’une rotation ሺܴሻ suivie d’une
translation ሺܶሻ.
Figure B.1 Différentes représentations d'une ligne 3D 158
Admettons que ሺݑ, ݀ሻ sont les paramètres de segments à transformer et que ሺݑᇱ
, ݀ᇱ
ሻ ceux de
segments de référence, la relation entre les entités linéaires s’écrit alors :
ݑᇱ ൌ ܴݑ (B.1)
݀ᇱ ≜ ݑᇱ
˄ ݉ᇱ ൌ ܴ݀ ݑᇱ
˄ ܶ (B.2)
En conséquence, nous insistons sur le fait que les segments transformés doivent être
parallèles aux segments de référence. L’estimation des inconnues de pose aboutit à envisager
deux sous-problèmes distincts.
Rotation
Tout d’abord, la matrice de rotation ሺܴሻ est déterminée par minimisation de la fonction (B.3)
qui bénéfice seulement de l’orientation de toutes les paires de segments ሺݑ, ݑ
ᇱ
ሻ.
ݑ‖݊݅ܯ ሺܴሻ ൌݎݎܧ
ᇱ െ ܴݑ‖ଶ
ே
ୀଵ
(B.3)
Évidemment, l’appariement créé se traduit implicitement par le système d’indiçage ce qui
veut dire que: pour tout i, la ligne ሺݑ, ݀ሻ correspond à la ligne ሺݑ
ᇱ
, ݀
ᇱ
ሻ. Tous les calculs sont
adaptés à la rotation représentée par un quaternion unitaire q ൌ ሾλ, λଵ, λଶ, λଷሿ୲
.
Étant donné que le produit Ru peut être également exprimé comme la multiplication des
quaternions (∗) et que ‖ݍ‖ ൌ 1, la formule (B.3) est modifiée en (B.4) :
(ത (B.4ݍ ∗ ݑ ∗ ݍ ൌ ݑܴ
où ݍത symbolise le conjugué du quaternion, par définition, obtenu en conservant sa partie
scalaire et en prenant l’opposé de sa partie vectorielle. La fonction à minimiser prend alors la
forme suivante :
ݑ‖݊݅ܯ ሺܴሻ ൌݎݎܧ
ଶ‖ݑ∗ݍെݍ∗ ᇱ
ே
ୀଵ
(B.5)
Se référant à la définition du produit de deux quaternions l’expression ݑ
peut ݑ∗ݍെݍ∗ ᇱ
être remplacée par une fonction linéaire ܣݍ telle que :
ܣ ൌ ቈ 0 ሺݑ െ ݑ
ᇱ
ሻ௧
ݑ െ ݑെሺ
ᇱ
ሻ ൫ݑప ݑప ෩ᇱ
൯
ସ௫ସ
(B.6)
où la notation ݑ signifie la matrice antisymétrique créée pour le vecteur ݑ ൌ ሾݔ, ݕ, ݖሿ௧ selon la
formule (B.7).
ݕ ݖൌ 0 െ ݑ
ݔ0 െ ݖ
െݕ ݔ 0 ൩ (B.7)
Avec toutes ces informations, l’équation (B.5) s’exprime finalement de la manière suivante : Annexe B. Méthode EIGEN
159
ܣ௧ݍ ݊݅ܯ ሺܴሻ ൌݎݎܧ
௧
ܣ
ே
ୀଵ
ݍ ൌ ܯ݅݊ሺݍ௧ݍܣሻ (B.8)
où la matrice symétrique ܣ ൌ ∑ ܣ
௧
ܣ
ୀଵ est calculée progressivement pour chaque paire de
segments.
Le vecteur propre de la matrice ܣ convenant à la plus petite valeur propre est le quaternion
ݍ ൌ ሾߣ, ߣଵ, ߣଶ, ߣଷሿ௧ qui représentera la rotation optimale. En revanche, il existe toujours deux
quaternions correspondant à la rotation. Ce constat n’est pas surprenant puisque la rotation
autour de l’axe ݑ et d’angle ߠ et la même que celle de l’axe « െݑ » et d’angle 2ߨ െ ߠ.
Néanmoins, dans la plupart de cas, la rotation ne dépasse presque jamais ߨ. Nous pouvons
alors présumer que le premier élément du quaternion (composante réelle) doit être positif. La
matrice orthogonale correspondant à la rotation au moyen du quaternion unitaire est donnée
par :
ߣൌܴ
ଶ ߣଵ
ଶ െ ߣଶ
ଶ െ ߣଷ
ଶ 2ሺߣଵߣଶ െ ߣߣଷሻ 2ሺߣଵߣଷ ߣߣଶሻ
ߣ ଷሻߣߣ ଶߣଵߣ2ሺ
ଶ െ ߣଵ
ଶ ߣଶ
ଶ െ ߣଷ
ଶ 2ሺߣଶߣଷ െ ߣߣଵሻ
ߣ ଵሻߣߣ ଷߣଶߣଶሻ 2ሺߣߣ ଷ െߣଵߣ2ሺ
ଶ െ ߣଵ
ଶ െ ߣଶ
ଶ ߣଷ
ଶ
(B.9)
Translation
Une fois la rotation calculée, la détermination de la translation ܶ est assez aisée. Sachant que
tous les paramètres de segments sont des constantes, et que seulement les trois composants
de vecteur ܶ sont des variables, le calcul de ceux-ci s’effectue par la méthode des moindres
carrés, ce qui revient à minimiser :
ݎݎܧሺܶሻ ൌ ܯ݅݊‖݀
ᇱ െ ܴ݀ െ ݑ
ᇱ ˄ ܶ‖ଶ
ே
ୀଵ
(B.10)
La dérivée partielle selon ܶ de l’équation (B.10) amène à la formule suivante :
2൫݀
ᇱ െ ܴ݀ െ ݑప ෩ᇱ
ܶ൯௧
ݑ
ᇱ ൌ 0
ே
ୀଵ
(B.11)
dont la solution est :
ܶ ൌ ൭ ݑప ෩ᇱ
൫ݑప ෩ᇱ
൯
௧
ே
ୀଵ
൱
ିଵ ቌ൫ݑప ෩ᇱ
൯
௧
ே
ୀଵ
ሺ݀
ᇱ െ ܴ݀ሻቍ (B.12)161
Annexe C
Méthode ICL(forme ICP)
0. Méthode ICL(forme ICP)
La méthode ICL (forme ICP) suit les mêmes étapes que l’approche EIGEN. Elle cherche à
résoudre deux tâches : le problème non linéaire de rotation et celui linéaire de translation.
Mais, nous observons une différence au niveau de représentation des segments et de calcul
du vecteur de translation. Chaque droite de l’ensemble ܣ est décrite par sa forme
paramétrique ሺ, ݒሻ où symbolise un point aléatoire de la droite et ݒ son vecteur directeur
unitaire. Pareillement, les segments de référence ܯ sont caractérisés par ሺ
ᇱ
ݒ ,
ᇱ
ሻ.
Rotation
La matrice de rotation est calculée à partir de direction de toutes les paires de lignes ሺݒ, ݒ
ᇱ
ሻ.
La fonction d’erreur à minimiser est tout à fait similaire à la formule (B.3). La solution par
moindres carrés d’un tel système non linéaire d’équations avait été aussi proposée par [Arun
et al., 1987]. Il s’agit de mettre en œuvre la décomposition en valeurs singulières (SVD) de la
matrice de covariance croisée ∑௩௩ᇲ formée pour l’appariement composé de ܰ paires de
segments comme suit :
ൌ 1
௩௩ᇲ ܰሺݒ െ ݒ̅ሻሺݒ
ᇱ െ ݒഥᇱሻ௧
ே
ୀଵ
(C.1)
Sachant que les vecteurs ݒ̅ et ݒ
ഥᇱ
sont les centres de masse qui valent respectivement :
ଵ ≜̅ݒ
ே ∑ ݒప ሬሬሬԦ ே
ୀଵ et ݒ
ഥᇱ ≜ ଵ
ே ∑ ݒప ே ሬሬሬԦᇱ ୀଵ
(C.2)
nous arrivons à la formule suivante :
ൌ 1
ܰቀݒప ሬሬሬԦ ൫ݒప ሬሬሬԦᇱ
൯
௧
ݒሺ̅ݒ െ
ഥᇱሻ௧ቁ
ே
ୀଵ ௩௩ᇲ
(C.3)
La décomposition de matrice carrée (3x3) ∑௩௩ᇲ s’écrit :
ൌ ܷܸܵ௧
௩௩ᇲ
(C.4)162
où la matrice ܵ contient les valeurs singulières de la matrice ∑௩௩ᇲ , et les matrices ܷ et ܸ
comprennent chacune un ensemble de vecteurs orthonormés. Ceci nous permet de calculer la
matrice de rotation d’une manière simple :
ܴ ൌ ܸܷ௧ (C.5)
Translation
Dès que la rotation ܴ est déterminée, le vecteur de translation ܶ peut être calculé par les
moindres carrés. À cet effet, deux points quelconques ሺܽ, ܾሻ appartenant à i-ème droite de ܣ,
mais aussi leurs points homologues ሺܽ
ᇱ
, ܾ
ᇱ
ሻ de ܯ, sont utilisés. Leurs positions sur les droites
respectives sont déterminées grâce à l’équation paramétrique :
ܽ ൌ ݐଵݒ et ܾ ൌ ݐଶݒ (C.6)
ܽ
ᇱ ൌ
ݒଷݐ ᇱ
ᇱ
et ܾ
ᇱ ൌ
ݒସݐ ᇱ
ᇱ (C.7)
Puisque ሺ
ᇱ
ݒ ,
ᇱ
ሻ caractérisent une ligne de référence ܯ (immobile), la correspondance avec
son homologue fournit également la contrainte :
൜
ݒଷݐ ᇱ
ᇱ ൌ ܴሺ ݐଵݒሻ ܶ
ݒସݐ ᇱ
ᇱ ൌ ܴሺ ݐଶݒሻ ܶ
(C.8)
Allons plus loin, la formule (C.8) est substituée par :
ە
ۖ
ۖ
۔
ۖ
ۖ
൭ۓ
ᇱݔ
ᇱݕ
ᇱݖ
൱ݐଷ ቌ
௫ݒ
ᇱ
௬ݒ
ᇱ
௭ݒ
ᇱ
ቍൌܴቆݔ
ݕ
ݖ
ቇݐଵܴ ൭ݒ௫
௬ݒ
௭ݒ
൱ቌܶ௫
ܶ௬
ܶ௭
ቍ
൭
ᇱݔ
ᇱݕ
ᇱݖ
൱ݐସ ቌ
௫ݒ
ᇱ
௬ݒ
ᇱ
௭ݒ
ᇱ
ቍൌܴቆݔ
ݕ
ݖ
ቇݐଶܴ ൭ݒ௫
௬ݒ
௭ݒ
൱ቌܶ௫
ܶ௬
ܶ௭
ቍ
(C.9)
Cela permet aussi de l’écrire sous la forme matricielle d’un système linéaire ܣܺ ൌ ܮ possédant
sept inconnues, dont trois composants du vecteur de translation et quatre variables :
ۉ
ۈ
ۈ
ۈ
ۇ
ݔݒെ ܴݔݒ
′ 0 0 100
ݕݒെ ܴݕݒ
′ 0 0 010
ݖݒെ ܴݖݒ
′ 0 0 001
0 0ݔݒܴ െݔݒ
′ 100
0 0ݕݒܴ െݕݒ
′ 010
0 0ݖݒܴ െݖݒ
ی001 ′
ۋ
ۋ
ۋ
ۊ
ᇣᇧᇧᇧᇧᇧᇧᇧᇧᇧᇧᇧᇤᇧᇧᇧᇧᇧᇧᇧᇧᇧᇧᇧ6݊ݔ7ᇥ
ۉ
ۈ
ۈ
ۈ
ۇ
1ݐ
3ݐ
2ݐ
4ݐ
ݔܶ
ݕܶ
یݖܶ
ۋ
ۋ
ۋ
ۊ
ᇣᇧᇤᇧ7ݔ1ᇥ
=
ۉ
ۈ
ۈ
ۈ
ۇ
ܴݔ െ ′ݔ
ܴݕ െ ′ݕ
ܴݖ െ ′ݖ
ܴݔ െ ′ݔ
ܴݕ െ ′ݕ
یܴݖ െ ′ݖ
ۋ
ۋ
ۋ
ۊ
ᇣᇧᇧᇧᇤᇧᇧᇧ6ݔ1ᇥ
(C.10)
où :
൭
ோݔ
ோݕ
ோݖ
൱ൌܴቆݔ
ݕ
ݖ
ቇ et ൭
௫ோݒ
௬ோݒ
௭ோݒ
൱ൌܴ൭ݒ௫
௬ݒ
௭ݒ
൱ (C.11)
La résolution du système revient alors à chercher les inconnues ܺ satisfaisantes
simultanément toutes les équations de la formule (C.10). Ainsi, ܺ ൌ ሺܣ௧ܣሻିଵܣ௧ܮ.163
Annexe D
Méthode FMII
0. Méthode FMII
Dans nos travaux, nous nous intéressons tout particulièrement à la variante FMII
permettant de résoudre le problème du recalage de deux jeux de lignes, dont les entités
linéaires de référence (Model) sont finies et celles à recaler (Image) infinies. Ce choix peut
s’expliquer, conformément à [Kamgar-Parsi et Kamgar-Parsi, 2004], par le fait que le
FMFI, conçu pour les segments de ligne, risque d’échouer si le segment plus court d’une
paire n’est pas complètement inclus dans son homologue. Dans un cas général, cette
approche n’est pas exploitable puisque les segments provenant de différentes sources ne se
chevauchent souvent que partiellement. L’alternative serait plutôt de remplacer des
segments Image par des lignes et de suivre, par la suite, des démarches envisagées pour la
procédure FMII, comme nous l’expliquerons au fur et à mesure dans cette section.
Étant donné deux ensembles d’entités linéaires, de telle sorte que ܣ ൌ ሼܣଵ,…,ܣ,…,ܣேሽ
comprend des segments de référence (Model) par rapport auxquels des lignes Image
ܺ ൌ ሼܺଵ,…,ܺ,…,ܺேሽ seront déplacés, la représentation de chacun des éléments est la
suivante :
ܣ ൌ ሺܽ, ݒ, ܮሻ et ܺ ൌ ሺݔ, ݒ
ᇱ
ሻ (D.1)
où :
ܽ : milieu du segment Model
ݒ et ݒ
ᇱ : vecteur directeur unitaire de la ligne Model et Image
x୧ : point de la ligne Image le plus proche de l’origine ce qui implique ݔ
௧
ݒ
ᇱ ൌ 0
ܮ : longueur du segment Model
Les lignes Image seront désormais considérées comme illimitées.
Distance entre les segments de longueur identique
Comme il a déjà été démontré (Chapitre 5), le calcul de la distance entre deux jeux de
segments 3D n’est pas trivial. Pour leur part [Kamgar-Parsi et Kamgar-Parsi, 2004], la
définissent comme la somme des carrés des distances obtenues entre les points
correspondants appartenant à ܣ et ܺ. Ces derniers sont considérés comme les points ayant la
même distance ݑ par rapport à des points de départ admis. La Figure D.1 illustre deux
segments de longueur identique ܮ pour lesquels les points correspondants et ݍ ont été
définis à l’égard de leurs milieux ܽ et ݔ. 164
Figure D.1 Choix des points correspondants p et q par rapport aux milieux a et x
(Illustration reproduite à partir de [Kamgar-Parsi et Kamgar-Parsi, 1997])
Envisageant ce cas, nous pouvons utiliser la variable ݑ, de sorte que െܮ/2 ݑ ܮ/2, pour
paramétrer les segments ܣ et ܺ. Nous notons les coordonnées de points correspondants :
ᇱݒݑ ݔ ൌ ݍ et ݒݑ ܽ ൌ
. D’où, le carré de la distance Euclidienne entre ces deux points se
calcule :
ܦଶሺݑሻ ൌ ‖ሺܽെݔሻ ݑሺݒെݒᇱ
ሻ‖ଶ (D.2)
ce qui amène à la formule suivante :
ܯሺܣ, ܺሻ ൌ න ݀ܦݑଶሺݑሻ ൌ ܮ‖ܽ െ ݔ‖ଶ
ܮ
ଷ
6 ሺ1െݒ
௧
ݒ
ᇱ
ሻ
/ଶ
ି/ଶ
(D.3)
Nous en ressortons que la distance M(A,X) dépend de l’orientation des lignes, mais aussi de
l’écartement entre leurs milieux. Par conséquent, sa valeur est nulle, si est seulement si, les
deux segments sont parallèles et leurs milieux coïncident.
Étant donné que chaque ensemble est composé de ܰ segments correspondants, la distance
mesurée entre eux s’exprime par l’équation (D.4).
ܯሺܣ, ܺሻ ൌܯሺܣ, ܺሻ ൌ ቈܮ‖ܽ െ ݔ‖ଶ
ܮ
ଷ
6 ሺ1െݒ
௧
ݒ
ᇱ
ሻ
ே
ୀଵ
ே
ୀଵ
(D.4)
Admettons que les segments Model ሺܣሻ sont fixes, nous souhaitons, dans un premier temps,
tourner les segments ܺ et ensuite les déplacer. C’est pourquoi, la nouvelle position de
segment après la transformation Ƭ, consistant en rotation ܴ suivie par la translation ܶ, est
suivante :
൜
ݔܴ ܶ ൌ ݔ
ݒ
ᇱ ൌ ܴݒ
ᇱ (D.5)
La distance entre les segments transformés peut être remplacée par :
ܯሺܣ, ܺሻ ൌܯሺܣ, ܺሻ ൌ ቈܮ‖ܽ െ ܶ െ ܴݔ‖ଶ
ܮ
ଷ
6 ሺ1െݒ
௧
ݒ
ᇱ
ሻ
ே
ୀଵ
ே
ୀଵ
(D.6) Annexe D. Méthode FMII
165
Distance entre les segments de longueur différente
La définition introduite (D.6) a été modifiée par les auteurs afin qu’elle soit susceptible d’être
employée pour les lignes – finies et infinies. Nous passons donc à présenter l’approche FMII
dédiée au cas mixte, où les segments sont définis par la formule (D.1). Sachant que, quel que
soit le point ܽ ∈ ܣ, il existe sur la ligne ܺ son homologue ݔ ݏݒ
ᇱ pour ݏ ∈ Թ, la distance
ܦሺܣ, ܺሻ entre ces deux points correspondants se calcule, conformément à la formule (D.3),
comme :
ݒݏ ݔ , ݒݑ ܽሺݐݏ݅݀ ∙ ݑ݀ ሻ ൌ නܺ ,ܣሺܦ
ݒݑ ᇱ
ᇱ
ሻ
Ω
(D.7)
où :
ݑ : scalaire caractérisant la droite (équation paramétrique)
Ω : chevauchement entre les segments
݀݅ݐݏ : fonction de distance employée (distance Euclidienne)
Nous limitons le calcul de la distance ܦሺܣ, ܺሻ à la partie de chevauchement entre les
segments. Cet intervalle étant défini par Ω, nous l’attribuons la longueur ܮ, puisque
seulement les entités linéaires ܣ sont finies.
Compte tenu de la transformation Ƭ de l’ensemble Image, la distance mesurée s’exprime de la
manière suivante :
ܯሺܣ, Ƭܺሻ ൌ ܦሺܣ, Ƭܺሻ
ே
ୀଵ
(D.8)
afin d’être finalement déterminée, par la norme euclidienne L2 selon la formule ci-dessous :
ܯሺܣ, Ƭܺሻ ൌ ሾܮ ‖ܽ െܶെܴሺݔ ݏݒ
ᇱ
ሻ‖ଶ ܮ
ݒଷሺ1െ
௧
ݒܴ
ᇱ
ሻ/6ሿ
ே
ୀଵ
(D.9)
Rotation
L’estimation de la transformation rigide dans la procédure d’alignement de segments
consiste à minimiser leur distance réciproque ܯሺܣ, Ƭܺሻ sur tous les Ƭ et ሼݏሽ possibles. La
solution proposée s’avère autour du problème d’optimisation non-linéaire, résolue grâce à la
technique itérative, d’un système à ሺ6ܰሻ variables avec six paramètres de la
transformation rigide et N variables pour identifier les points correspondants. La complexité
de l’algorithme est ܱሺܰሻ, alors il est considéré comme rapidement exécutable.
Lorsqu’on minimise la distance en fonction de ܴ, ܶ et l’ensemble ሼݏሽ, il faut résoudre
l’équation ߲ܯ ߲ݏ ⁄ ൌ 0, ce qui nous amène à calculer le paramètre shift ݏ ∈ Թ selon la formule
(D.10).
ݏ ൌ ሺܽ െ ܶሻ௧ܴݒ
ᇱ
en supposant que ሺܴݔሻ௧ܴݒ
ᇱ ൌ ݔ
௧
ݒ
ᇱ ൌ 0 (D.10)
En remplaçant, dans la formule (D.9), la translation ܶ calculée selon l’équation (D.18), nous
pouvons obtenir la mesure de distance se référant uniquement à la rotation ܴ :
ܯሺܣ, Ƭܺሻ ൌܮ ቆ‖ܽప
́‖ଶ ‖ݔప
́‖ଶ
ܮ
ଶ
6 ቇെ2ܮ ቆܽ́
௧
పݔܴ
́
ܮ
ଶ
ݒ 12
௧
ݒܴ
ᇱ
ቇ
ே
ୀଵ
ே
ୀଵ
(D.11)166
où :
ܽప
́ ൌ ܽ െ ܽത et ݔప
ݒݏ ݔ ൌ ́
′ െ ݔ̅ (D.12)
Le premier composant de la formule (D.11) est constant puisqu’il ne dépend pas de la matrice
de rotation ܴ. Afin de minimiser la distance M(A,ƬX), il est nécessaire de maximaliser la
seconde somme. Pour ce faire, la matrice de covariance croisée ∑, est créée entre les
segments correspondants de la manière suivante :
ൌሾܮሺܽ െ ܽതሻሺݔ ݏݒ
ᇱ െ ݔ̅ሻ௧ ܮ
ݒሺݒଷ
ᇱ
ሻ௧
/12ሿ
ே
ୀଵ ,
(D.13)
où les centres de masse ܽത et ݔ̅ sont donnés par la formule (D.14).
ܽത ൌ ଵ
ܽܮ ∑ ௐ
ே
ୀଵ et ݔ̅ൌ ଵ
݅ݒ݅ݏ ݅ݔሺ݅ܮ ∑ ௐ
′
ሻ ܰ
݅ൌ1 pour ܹ ൌ ∑ ܮ
ே
ୀଵ
(D.14)
La matrice de rotation est représentée par un quaternion unitaire ce qui nécessite, dans un
premier temps, de former la matrice symétrique ܥସ௫ସ dont les éléments sont définis à partir
de ∑, .
ܥଵଵ ൌ ∑ଵଵ ∑ଶଶ ∑ଷଷ ; ܥଵଶ ൌ ܥଶଵ ൌ ∑ଶଷ െ ∑ଷଶ ;
ܥଵଷ ൌ ܥଷଵ ൌ ∑ଷଵ െ ∑ଵଷ ; ܥଵସ ൌ ܥସଵ ൌ ∑ଵଶ െ ∑ଶଵ ;
ܥଶଶ ൌ ∑ଵଵ െ ∑ଶଶ െ ∑ଷଷ ; ܥଶଷ ൌ ܥଷଶ ൌ ∑ଵଶ ∑ଶଵ ;
ܥଶସ ൌ ܥସଶ ൌ ∑ଷଵ ∑ଵଷ ; ܥଷଷ ൌ ∑ଶଶ െ ∑ଷଷ െ ∑ଵଵ ;
ܥଷସ ൌ ܥସଷ ൌ ∑ଶଷ ∑ଷଶ ; ܥସସ ൌ ∑ଷଷ െ ∑ଵଵ െ ∑ଶଶ ;
(D.15)
Ensuite, les quatre valeurs propres de la matrice ܥ sont calculées en tant que solution
analytique. Le vecteur propre correspondant à la plus grande valeur propre représente la
rotation optimale ܴ exprimée en quaternion unité ݍ ൌ ሾߣ, ߣଵ, ߣଶ, ߣଷሿ௧. Le passage entre le
quaternion et la matrice de rotation traditionnelle est réalisé selon l’équation (B.9).
Nous pouvons aussi envisager une autre solution consistant à employer la SVD. Étant donné
que la seconde somme de la formule (D.11) doit être maximisée pour minimiser tout terme,
nous arrivons à obtenir :
́ܽቆ ܮ
௧
పݔܴ
́
ܮ
ଶ
ݒ 12
௧
ݒܴ
ᇱ
ቇ ൌ ݎݐܽܿ݁൫ߑ,ܴ௧
൯
ே
ୀଵ
(D.16)
Par conséquent, la décomposition en valeurs singulières de ∑, amène à calculer la rotation
ܴ. Pour plus de détails le lecteur pourra se référer à [Kamgar-Parsi et Kamgar-Parsi, 1997].
Translation
Dès que la rotation est déterminée, le vecteur de translation ܶ peut être retrouvé en
minimisant la formule (D.9). Pour y arriver, la dérivée partielle de ܯሺܣ, Ƭܺሻ par rapport à la
variable ܶ est calculée : Annexe D. Méthode FMII
167
ܯ߲
߲ܶ
ൌ െ2 ܮ
݁Ԧ
௧ሺܽ െ ܶ െ ܴݔሻ ൌ 0 (D.17)
Les équations ci-dessus étant linéaires, nous procédons alors à la résolution :
ܶൌܽത െ ܴݔ̅ (D.18)
Vu que les paramètres shift ሼݏሽ sont inconnus, les calculs des paramètres optimaux de
transformation Ƭ seront effectués de manière itérative jusqu’à ce que le changement de
valeurs ሼݏሽ ne dépasse plus un certain seuil. Le schéma récapitulatif à suivre est illustré par
la Figure D.2.
Figure D.2 Schéma général de l’approche
*Valeurs initiales recommandées pour tous les ݏ sont des zéros.
Les tests effectués par [Kamgar-Parsi et Kamgar-Parsi, 2004] montrent que le nombre
d’itérations ݐܫ݁ݎ est fortement lié à la précision désirée et oscille, pour un seuil de
convergence égal à 10-3 (valeur adimensionnelle), entre trois et vingt.
.169
Annexe E
Pseudo-codes
0. Pseudo-codes
Pseudo-code 4.1: Détection de plans via RANSAC
Entrée: ܰ : nuage de points Paramètres : ܲ : probabilité
ߪ : écart-type de bruit
ܰ : nombre de plans
1 Début
2 Initialiser des variables : ܥܧ ← 0; ܰ௧ ← ∞; ݅ ← 1; ܲ; ߪ
3 PourChaque ݆ ← 1: ܰ Faire
4 Seuil :ߜଶ ← ߪଶܨఞమ
మ
ିଵሺܲሻ
5 TantQue ݅ܰ௧ Faire
6 S ← Choisir aléatoirement un échantillon ݇ൌ3 de ܰ
7 Estimer le modèle: ܯሺߠሻ
8 Distance au modèle: ݀←݁ெ൫, ܯሺߠሻ൯
9 Si ݀ଶ ߜଶ Alors
10 Retour ܥܧ
11 FinSi
12 Mettre à jour le nombre d'itérations: ܰ௧ ← ݈݃ሺ1െܲሻ/݈݃ሺ1െݍሻ
13 pour ݍ ൌ ൫ܥܽݎ݀ሺܥܧሻ/ܥܽݎ݀ሺܰሻ൯
ଷ
14 Meilleur plan: ܥܧ ൌ ݉ܽݔሺܥܧሻ
15 Incrémenter: ݅←݅1
16 FinTantQue
17 CC ← Analyser des composantes connexes d’EC (Pseudo-code 4.2)
ܥܥ ;ߠ 18 Retour
19 ܰ ← ܰ െ ܥܥ
20 FinPour
21 Fin170
Pseudo-code 4.2: Détection et étiquetage des composantes connexes
Entrée: N : nuage de points Paramètres : ρ: rayon de sphère
k: nombre de points voisins
ܰ: nombre minimal de points
d’une composante connexe ܥܥ
1 Début
2 PourChaque point De ܰ Faire
3 Établir le voisinage ܸ de en respectant les seuils imposés (ρ et K)
4 Générer la matrice creuse ܣ de ܯ paires de points voisins
5 FinPour
6 Décomposition de Dulmage-Mendelsohn de A : dmperm(A)=[P,Q,r,s]
7 PourChaque colonne ݆ ൌ 1: |ݎ| െ 1 De vecteur d'indices r Faire
8 Étiqueter des composantes connexes ܥܥ
9 Si หܥܥหܰ Alors
10 Calculer la surface ܵ de ܥܥ
11 SinonSi CCj est trop petite Alors
12 ܵ ← 0
13 FinSi
14 Conserver la plus grande composante connexe ܥܥ
15 FinPour
16 FinAnnexe E. Pseudo-codes
171
Pseudo-code 4.3: Extraction d’arêtes de pli
Entrée: ∏ : paramètres associés au plan Paramètres: ܶொ : Seuil poids Q
ܵܲ : segment plan ܶ௦:longueur minimale d'une arête
ܶ : tolérance distance
1 Début
2 ܲ ← Générer toutes les combinaisons possibles à partir de l’ensemble de plans ∏
3 {Phase 1 : Tester l’angle β entre deux plans quelconques}
4 PourChaque paire ∏j et ∏k De ܲ Faire
5 Calculer l'angle β
6 ܳ ൌ ݏ݅݊ଶߚ
7 Si ܳܶொ Alors
8 Rejeter la paire de la liste ܲ
9 FinSi
10 FinPour
11 {Phase2: Tester si deux plans de ܲ sont voisins}
12 PourChaque paire ܵܲ et ܵܲ De ܲ Faire
13 ݀ ← Calculer la distance entre deux plans
14 Si ݀ܶ Alors
15 ܫ ← Déterminer la droite d'intersection
16 ܵ ← projeter ܵܲ sur ܫ
17 ܵ ← projeter ܵܲ sur ܫ
18 {Phase3: Tester si les segments ܵ et ܵ se chevauchent}
19 Si ฮܯܯฮ หܮ/2 െ ܮ/2ห Alors
20 Conserver le segment de droite (ܵܦ) de longueur ܮ ൌ min ሺܮ, ܮሻ si ܮܶ௦
21 SinonSi ฮܯܯฮ หܮ/2 ܮ/2ห Alors
22 Conserver ܵܦ de longueur ܮൌܮ ∩ ܮ si ܮܶ௦
23 SinonSi
24 Rejeter ܵܦ
25 FinSi
26 FinSi
27 FinPour
28 Fin172
Pseudo-code 5.1: Qualification à partir d'entités linéaires
Entrée : ்ܺ௦௧ : coordonnées des segments ܶ݁ݐݏ Paramètres: ܷ : sensibilité
ܺௌ : coordonnées des segments ܯ݈݀݁
ݎܥ ;ܦܪܮ ;்ெܦܪܮܱ ;ெ்ܦܪܮܱ : Sortie
1 Début
2 ܷ ← 0.5
3 ܶ݁ݐݏ ← ்ܺ௦௧; ܯ݈݀݁ ← ܺௌ;
4 PourChaque Segment ݅ ∈ 〈1; ܰ〉 De Test Faire
5 PourChaque Segment ݆ ∈ 〈1; ܯ〉 De Model Faire
6 Calculer les distances ݀ூூ; ݀ୄ; ݀ఈ
7 FinPour
8 FinPour
9 Créer la matrice de similarité ܵܯܫ de dimension ܰܯݔ
10 Créer l'appariement préliminaire ܵ contenant ܰ paires
11 ܦ݂݂݅ଵ ← ܵேାଵ െ ܵே
12 ܦ݂݂݅ଶ ← ܦ݂݂݅ଵೖశభ െ ܦ݂݂݅ଵೖ
13 Si ܥܽݎ݀ሺܦ݂݂݅ଵ ൏ ܷሻ ൌܰ1 Alors
14 ߜ ← max ሺܵሻ
15 SinonSi
16 ݅ܿ ←trouver le premier maximum local : ܦ݂݂݅ଶ ܷ
17 Si ݅ܿ ൌ Ø Alors
18 ߜ ← ݉é݀݅ܽ݊݁ሺܵሻ 2ߪ
19 SinonSi
20 ߜ ← ܵሺ݅ܿ 1ሻ
21 FinSi
22 FinSi
23 ݎܥ்ெ ← ሺܵܯܫ ߜሻ
24 Calculer ܱܦܪܮ்ெ
25 ܶ݁ݐݏ ← ܺௌ; ܯ݈݀݁ ← ்ܺ௦௧;
26 Reprendre les démarches de 4 à 24
27 Retour ݎܥெ்; ܱܦܪܮெ்
்ெݎܥ ∩ ெ்ݎܥ ← ݎܥ 28
29 ܦܪܮ ← max ሺܱܦܪܮ்ெ, ܱܦܪܮெ்ሻ
30 Fin Annexe E. Pseudo-codes
173
Pseudo-code 6.1: Recalage à partir d'entités linéaires
Entrée : ܺܶ݁ݐݏ : coordonnées des segments ܶ݁ݐݏ Paramètres: ߪ : écart-type de bruit
ܺௌ : coordonnées des segments ܯ݈݀݁ ݇ : échantillon minimal
ݎܥ ;ܶ ;ܴ : Sortie
1 Début
2 Initialiser des variables ܰூ_ௗ௧ ← 0; ܰ௧ ← 100; ݅ ← 1; ߝ ← 1݁ െ 6; ݇; ߜ ← 5.8ߪ
3 ܣ,ܰ← Créer l'appariement préliminaire entre ்ܺ௦௧ et ܺௌ (Pseudo-code 5.1)
4 TantQue ݅ܰ௧ Faire
5 ܵ ← Tirer aléatoirement un échantillon ݇ de ܣ
6 ܴ, ܶ ← Calculer les paramètres de transformation rigide par ܫܫܯܨଶ à partir de ܵ
7 Recaler ்ܺ௦௧ et ܺௌ : ்ܺ௦௧_ௗ௧ ൌ ்ܺ௦௧ ∙ ܴ ܶ
8 ݀ ← Calculer les distances entres les segments appariés ܣ (équation 5.10)
9 ܰூ ← ሺ݀ ߜሻ
10 Si ܰூ ܰூ_ௗ௧ Alors
11 ܴ ← ܴ
12 ܶ ← ܶ
13 ܰூ_ௗ௧ ൌ ܰூ
14 FinSi
15 Mettre à jour le nombre d'itérations : ݍ ← ሺܰூ/ܰሻ ; ܰ௧ ← ݈݃ሺߝሻ/݈݃ሺ1 െ ݍሻ
16 Incrémenter : ݅←݅1
17 FinTantQue
18 ܣ ← Créer l'appariement fin entre ்ܺ௦௧_ௗ௧ et ܺௌ (Pseudo-code 5.1)
19 ܴ, ܶ ← Calculer les paramètres des transformation rigide par ܫܫܯܨଶ à partir de ܣ
20 ܴൌܴ ∙ ܴ
21 ܶൌܴ ∙ ܶ ܶ
ܣ ← ݎܥ 22
23 Fin Qualification et amélioration de la précision de systèmes de balayage
laser mobiles par extraction d’arêtes
RESUME : Au cours de ces dernières décennies, le développement de Systèmes Mobiles de
Cartographie, soutenu par un progrès technologique important, est devenu plus proéminent
apparent. Il a été stimulé par le besoin grandissant de collecte d’informations géographiques
précises sur l’environnement. Nous considérons, au sein de cette thèse, des solutions pour
l’acquisition des nuages de points mobiles de qualité topographique (précision centimétrique). Il
s’agit, dans cette tâche, de mettre au point des méthodes de qualification des données, et d’en
améliorer les erreurs systématiques par des techniques d’étalonnage et de recalage adéquates.
Nous décrivons une nouvelle démarche d’évaluation de l’exactitude et/ou de la précision des
relevés laser mobiles. Celle-ci repose sur l’extraction et la comparaison des entités linéaires de
la scène urbaine. La distance moyenne calculée entre les segments appariés, étant la distance
modifiée de Hausdorff, sert à noter les nuages par rapport à des références existantes. Pour
l’extraction des arêtes, nous proposons une méthode de détection d’intersections entre
segments plans retrouvés via un algorithme de RANSAC enrichi d’une analyse de composantes
connexes. Nous envisageons également une démarche de correction de relevés laser mobiles
à travers un recalage rigide fondé, lui aussi, sur les éléments linéaires. Enfin, nous étudions la
pertinence des arêtes pour en déduire les paramètres de l’étalonnage extrinsèque du système
mobile. Nous testons nos méthodes sur des données simulées et des données réelles acquises
dans le cadre du projet TerraMobilita.
Mots clés : Nuage de points, Système Mobile de Cartographie, Exactitude, Précision, Arête,
Segmentation, Évaluation, RANSAC, Étalonnage, Calibrage, Mise en correspondance
Edge-based accuracy assessment and improvement of mobile laser
scanning systems
ABSTRACT : Over the past few decades, the development of Mobile Mapping Systems (MMS),
supported by significant technological progress, has become more prominent. It has been
motivated by the growing need for precise geographic information about the environment. In this
thesis, we consider approaches for the acquisition of mobile point clouds with topographic
quality (centimeter-level accuracy). The aim is to develop techniques for data quality
assessment and improvement. In particular, we eliminate the systematic errors inherent to an
MMS data using appropriate calibration and registration methods.
We describe a novel approach to assess the accuracy and/or the precision of mobile laser point
clouds. It is based on the extraction and comparison of line features detected within the urban
scene. The computed average distance between corresponding pairs of line segments, taking
advantage of a modified Hausdorff distance, is used to evaluate the MMS data with respect to a
reference data set. For edge extraction, we propose a method which relies on the intersections
between planes modelled via the RANSAC algorithm refined by an analysis of connected
components. We also consider an approach to correct point clouds using a line-based rigid
registration method. Finally, we study the use of edges for estimating the boresight angles of a
land-based mobile mapping system. We apply our methods to synthetic data and to real data
acquired as part of the TerraMobilita project.
Keywords : Point Cloud, Land-based mobile mapping system (MMS), Accuracy, Precision,
Edge, Segmentation, Assessment, RANSAC, Registration, Calibration, Matching
Collaboration de techniques formelles pour la
v´erification de propri´et´es de sˆuret´e sur des syst`emes de
transition
A. Champion
To cite this version:
A. Champion. Collaboration de techniques formelles pour la v´erification de propri´et´es de sˆuret´e
sur des syst`emes de transition. Databases. ISAE - Institut Sup´erieur de l’A´eronautique et de
l’Espace, 2014. French.
HAL Id: tel-01092412
https://hal.archives-ouvertes.fr/tel-01092412
Submitted on 8 Dec 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Acknoledgments
First, I would like to thank my supervisors Rémi Delmas and Michael Dierkes for their
support, knowledge, time and energy. They provided me with the best environment I could
wish for. Everything I did during these last three years, I owe to them.
I also thank the reviewers, Daniel Le Berre and Cesare Tinelli, for taking the time to read
the manuscript and giving me constructive feedback, which lead to interesting discussions.
Many thanks to all the members of the jury: Yamine Aït Ameur for making the defense
possible and for his interest and insightful questions on my work; Virginie Wiels for making
this PhD possible at all, along with Rémi Delmas and Michael Dierkes; Steve Miller for flying
all the way to Toulouse, for his interest in my work, for his tricky questions on Boolean
differential calculus and for all his reviews on the manuscript; Viktor Kuncak for following
my work, and for the great discussions we had about both our research topics; Last, I thank
again Daniel Le Berre and Cesare Tinelli for taking the time to come to Toulouse and attend
the defense.
A few lines to thank the people close to me. I will only mention their names, the support
they gave me cannot be put into words. Thanks, love and apologies to Yves et Marie-Claire,
Claire, Yohann, X , Emy et Salomé, Tonton Chips, Rémi, Tof, Foufou, St Pouf, Étienne et
Maud et Chouquette.Contents
Extended Abstract (French) 1
1 Introduction 5
1.1 Cas d’Étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Notations et Notions Mathématiques . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Vérification de Systèmes de Transition . . . . . . . . . . . . . . . . . . . . . . . 12
2 Découverte d’Invariants 17
2.1 Élimination de Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Une Architecture Collaborative . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Découverte d’Invariants Potentiels par QE . . . . . . . . . . . . . . . . . . . . 29
2.4 Le Framework Formel Stuff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3 Conclusion 37
3.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
I Introduction 1
4 Problem 3
4.1 Lustre: A Synchronous Programming Language . . . . . . . . . . . . . . . . . 3
4.2 Safety Critical Avionics Systems Verification . . . . . . . . . . . . . . . . . . . 9
5 Mathematical Background and Notation 13
5.1 Many-Sorted First-Order Logic . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2 SAT and SMT Solving . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.3 SMT: Standard, Implementations and Additional Features . . . . . . . . . . . 32
6 Transition Systems, State Invariant Verification 35
6.1 Transition Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.2 Bounded Model Checking and k-induction . . . . . . . . . . . . . . . . . . . . 39
6.3 Invariant Discovery and Other Techniques . . . . . . . . . . . . . . . . . . . . 476.4 Motivation and Outline of the Thesis . . . . . . . . . . . . . . . . . . . . . . . . 53
II Invariant Discovery Powered By Quantifier Elimination 55
7 SMT-Based Quantifier Elimination 59
7.1 Monniaux’s QE Algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
7.2 Extension to Booleans and Integer Octagons . . . . . . . . . . . . . . . . . . . 60
7.3 Improving Extrapolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.4 Benchmarking Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
8 Invariant Discovery in a K-induction-based Framework 73
8.1 A Proof Engine Architecture Allowing Continuous Invariant Integration . . . 73
8.2 Invariant Discovery as a Quantifier Elimination Problem . . . . . . . . . . . . 75
8.3 Property Directed Reachability Modulo Theory . . . . . . . . . . . . . . . . . . 76
9 HullQe: QE And Convex Hull Computation 83
9.1 Extracting Potential Invariants From Pre-Images . . . . . . . . . . . . . . . . . 84
9.2 Exhaustive Exact Convex Hull Enumeration . . . . . . . . . . . . . . . . . . . 89
9.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.4 End-to-end Verification Of A Functional Chain . . . . . . . . . . . . . . . . . . 100
III The Stuff Formal Framework 103
10 Architecture and Transition System Representation 105
10.1 The Actor Formalism . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.2 Stuff: Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
10.3 Stream Systems and Unrolling . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
11 Assumptio: an SMT-lib 2 Compliant Solver Wrapper 121
11.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
11.2 Architecture and Backend Solvers . . . . . . . . . . . . . . . . . . . . . . . . . 124
11.3 Source Code, User Manual and Integration in Stuff . . . . . . . . . . . . . . . . 127
IV Conclusion 129
12 Summary and Perspectives 131
12.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
12.2 Future Directions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13213 References 137
V Appendices 147
A Use Cases 149
A.1 The Rockwell Collins Triplex Voter . . . . . . . . . . . . . . . . . . . . . . . . . 149
A.2 A Reconfiguration Logic System . . . . . . . . . . . . . . . . . . . . . . . . . . 151List of Figures
1.1 A Single Computation Channel. . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Triple Channel Functional Chain. . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1 Règles de calcul de l’analyse structurelle. . . . . . . . . . . . . . . . . . . . . . 24
2.2 Une architecture collaborative basée sur la k-induction. . . . . . . . . . . . . . 28
2.3 Polyhedra examples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 ECH de polyhèdres entiers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5 Découverte d’invariant relationnels sur le système de reconfiguration. . . . . 32
2.6 Logique de vote en dimension deux. . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7 Une chaîne fonctionnelle simplifiée. . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1 A simple Lustre program. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4.2 Network representation of the bounded node. . . . . . . . . . . . . . . . . . . 7
4.3 The observer pattern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4.4 Bounded liveness property as a safety property. . . . . . . . . . . . . . . . . . 9
4.5 A Single Computation Channel. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.6 Triple Channel Functional Chain. . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.7 The shuffle mechanism. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.1 Push and pop example, assertion stack on the right. . . . . . . . . . . . . . . . 33
6.1 Reachable state space of SDC(4, 2), nodes show the values of x and y. . . . . 42
7.1 Activation conditions and cause propagation rules. . . . . . . . . . . . . . . . 66
7.2 Benchmark results part 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.3 Benchmark results part 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.4 Experimental results. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
8.1 k-induction based collaborative framework. . . . . . . . . . . . . . . . . . . . . 74
8.2 Asynchronous exact convex hull computation. . . . . . . . . . . . . . . . . . . 80
9.1 Polyhedra examples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
9.2 HullQe abstract view. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
9.3 Discovering new relations using convex hulls. . . . . . . . . . . . . . . . . . . 869.4 ECH calculation on the double counter with nx = 10 and ny = 6. . . . . . . . 86
9.5 Duplex voter equations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
9.6 Simple voting logic. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
9.7 Hullification redundancy issues. . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.8 View of HullQe internal processes. . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.9 Reconfiguration subsystem with observer. . . . . . . . . . . . . . . . . . . . . . 96
9.10 Triplex voter equations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.11 Running example. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10.1 Message handling. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.2 A code extract of the handleMessage function of the k-induction Method. . 112
10.3 Actor hierarchy in Stuff. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.4 A trace of a Stream System. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
10.5 Traces of the double counter system. . . . . . . . . . . . . . . . . . . . . . . . . 117
11.1 Hi-level view of user interaction and internal architecture. . . . . . . . . . . . 125PART
Extended Abstract (French)
Les systèmes critiques sont des systèmes dont les défaillances ont des conséquences catastrophiques
telles que la perte de vies humaines ou de fortes retombées économiques. On les
trouve typiquement dans des domaines tels que l’aérospatiale, l’aéronautique, l’automobile,
le ferroviaire, le nucléaire, les équipements médicaux, la conception de matériel informatique.
. . Il est donc d’un grand intérêt (i) d’établir une spécification précise de ces systèmes,
et (ii) de s’assurer de la correction du produit final par rapport à sa spécification, i.e. de
vérifier le produit final. L’étude présentée dans ce mémoire se concentre sur la vérification
de composants logiciels de systèmes critiques embarqués avioniques.
Il y a encore peu de temps, les industriels de notre domaine suivaient une approche dite
d’assurance qualité basée sur les processus. Cette approche consiste à examiner minutieusement
les processus menant à la création d’un produit. Si les processus sont jugés comme
étant de confiance, le produit final est également jugé de confiance. En avionique par exemple,
la conception ainsi que la production des composants matériels sont suivi de près au
niveau processus. Des échantillons sont ensuite préleés afin de tester leur cohérence avec la
spécification du produit.
Les récentes normes avioniques DO-178C –et sont supplément DO-333 concernant les
méthodes formelles– publiées par la RTCA1 – montrent une volonté de consolider cette approche
basée sur les processus, par une assurance qualité davantage basée sur les produits.
C’est à dire de vérifier mathématiquement l’adéquation entre le produit final et sa spécifi-
cation. Dans le domaine du logiciel, il existe des méthodes automatisables permettant de
prouver de telles propriétés. Ces méthodes mises au point par la communauté informatique
sont appelées méthodes formelles. Contrairement aux composants matériels, les logiciels sont
constitués de “0” et de “1” pouvant être dupliqués sans erreur, renforçant l’intérêt de les
vérifier.
Les systèmes critiques embarqués avioniques sont généralement développés au moyen
de language haut-niveau (niveau modèle) différant du language d’implémentation final
(niveau code). Les méthodes formelles fournissent des outils pour toutes les étapes du
1http://www.rtca.org/développement :
• la spécification formelle [71, 35] propose des languages à la sémantique mathématique
permettant d’exprimer ce que le système doit faire ;
• la vérification des modèles par rapport à leur spécification formelle [16, 17, 23, 55, 12, 6]
permettent de prouver que la spécification est respectée ;
• la génération de code à partir des modèles [13] produit du code respectant la sémantique
du language de conception haut-niveau, préservant ainsi l’effort de vérification
au moyen de compilateurs certifiés ou prouvés.
L’étude présentée dans ce mémoire se concentre sur la vérification automatique de mod-
èles. En effet, même si les organismes de certification encouragent leur utilisation, les méthodes
formelles ne sont pas capables à l’heure actuelle de résoudre les problèmes rencontrés
dans l’industrie. En pratique la vérification de propriétés fonctionnelles arbitraires sur des
systèmes réalistes demande souvent un travail d’expert autant sur le plan des systèmes
analysés que sur la (les) technique(s) employée(s). L’essort des méthodes formelles dans le
monde industriel est limité par ces interventions coûteuses financiérement et temporellement.
L’ambition de cette thèse est d’améliorer l’état de l’art de la vérification formelle dans
notre domaine d’application en (i) améliorant son automatisation sur des systèmes correspondant
à des patrons de conception rencontrés dans les systèmes avioniques ; (ii) trouvant
des preuves pouvant être rapidement vérifiées par différents outils afin d’assurer leur
véracité. Pour atteindre ces objectifs nous proposons d’étudier la collaboration de méthodes
formelles existantes –telles que la résolution SMT, la k-induction, l’élimination de quantificateurs,
etc.– afin d’introduire une méthodologie visant à la découverte automatique de
lemmes facilitant la conduite d’une preuve. De plus, cette étude s’intéresse en particulier
aux algorithmes parallèles, suivant la tendance actuelle des multi-cœurs.
Cette étude s’intéresse à l’analyse de systèmes réactifs embarqués [38]. Ces systèmes échantillonnent
leur environnement au moyen de capteurs, et calculent une commande destinée
à un actuateur. L’échantillonage est effectué à intervalles réguliers spécifiés par la fréquence
du système. Plus particulièrement nous considérons des composants logiciels de systèmes
réactifs, contribuant à la sûreté de chaînes fonctionnelles, i.e. de systèmes rassemblant des
capteurs, des unités de calcul en réseau, des actuateurs, etc.
Nous introduisons plus précisemment ces systèmes dans le Chapitre 1, dans lequel
nous introduisons également les notions sous-jacentes à leur représentation mathématique,
2ainsi que l’état de l’art en vérification formelle. Nous introduisons ensuite notre contribution
principale dans le Chapitre 2. Tout d’abord nous proposons des améliorations à
l’algorithme d’élimination de quantificateurs de Monniaux [56] permettant de calculer des
pré-images sur nos systèmes industriels. Nous exposons ensuite nos heuristiques de génération
d’invariants potentiels dans le cadre d’un framework collaboratif basé sur la k-induction,
et présentons nos expérimentation sur nos systèmes. La Section 2.4 présente Stuff2
, notre implémentation
de l’architecture et des techniques présentées en Section 2.2. Enfin, le Chapitre 3
conclut sur les résultats de l’étude et offre quelques éléments de perspective.
2
Suff’s The Ultimate Formal Framework
3CHAPTER 1
Introduction
Ce chapitre est un résumé en francais de la Partie I du mémoire. Comme mentionné
précédemment, l’aspect logiciel de ces systèmes est tout d’abord dévelopé au niveau modèle
avant que le code bas niveau destiné à des architectures temps réel ne soit généré automatiquement
en préservant la sémantique du modèle. Nous nous intéressons en particulier
au langage flot de données synchrone Lustre [36] décrit en détail dans le Chapitre 4.1. Un
modèle Lustre a une sémantique de système de transition dans lequel des calculs instantannés
sont effectués à une certaine fréquence afin de produire un signal de sortie en fonction
des signaux d’entrée. Nous présentons les systèmes auquels nous nous intéressons, appelés
chaînes fonctionnelles, en Section 1.1. Avant d’analyser un modèle Lustre, il est nécessaire
d’en extraire sa sémantique sous forme d’un système de transition. Ce chapitre présente,
en Section 1.2, les notions mathématiques nécessaires pour la représentation et l’analyse des
systèmes de transitions. La Section 1.3 présente l’état de l’art des méthodes s’intéressant à
leur vérification.
1.1 Cas d’Étude
La Figure 1.1 présente une chaîne de calcul correspondant à la fonction de “controle de
l’angle de tangage de l’avion”. Les capteurs sont tripliqués afin de réduire le taux de dé-
faillance de l’échantillonnage. Lors de chaque cycle, la chaîne échantillonne les capteurs de
Channel
Sensors
Order (x3)
Speed (x3)
Pitch (x3)
SMon
SMon
SMon
Voter
Voter
Voter
Law AMon Actuator
Figure 1.1: A Single Computation Channel.1.1 Cas d’Étude Introduction
Sensors
Order (x3)
Speed (x3)
Pitch (x3)
Channel1
Channel2
Channel3
Reconf
Reconf1
Reconf2
Reconf3
Actuator
Figure 1.2: Triple Channel Functional Chain.
vitesse (Speed), de tangage (Pitch) ainsi que la commande produite par le pilote (Order).
Des moniteurs de capteurs (SMon) examinent ces signaux afin de détecter des défaillances
temporaires ou permanentes, telles que des valeurs en dehors de l’intervalle légal du capteur.
Les signaux entrent ensuite dans un système de vote (Voter) chargé de produire un
signal unique à partir de ses trois entrées. Le bloc suivant est la loi de commande (Law) de
la chaîne qui calcule le signal commandant l’actuateur grâce à une unique valeur de vitesse,
tangage et d’ordre du pilote. Le signal passe ensuite par un moniteur d’actuateur (AMon)
s’assurant que la commande est correctement réalisée.
En pratique, les concepteurs de chaînes fonctionnelles tripliquent les canaux de calcul
afin de réduire davantage le taux de défaillance. Comme présenté sur la Figure 1.2, les
calculs sont effectués par trois chaînes redondantes évoluant sur des unités de calcul sé-
parées et communiquant au moyen de câbles distincts. Un mécanisme de reconfiguration
(Reconf) distribué sur les trois unités de calcul décide de la chaîne contrôlant effectivement
l’actuateur, et est capable de reconfigurer le système dans le cas où une chaîne est jugée
corrompue. Quels que soit les signaux produits par les différentes chaînes, la reconfiguration
doit s’assurer qu’aucune commande dangereuse pour l’actuateur ou pour l’avion n’est
produite par l’architecture tripliquée, et doit prévenir le pilote en cas de défaillance.
Il est à noter qu’une valeur de sortie incorrecte ne doit pas immédiatement faire basculer
le statut de la chaîne la produisant à “corrompue”. La défaillance peut n’être que temporaire,
par exemple à cause d’une perturbation électromagnétique causée par le passage de
la foudre à proximité de l’avion. C’est pourquoi la défaillance n’est considérée permanente
que si la valeur de sortie reste incohérente pendant plus de n cycles.
Les chaînes fonctionnelles sont donc des systèmes extrêmement complexes, et il en est
de même pour leur spécification [67]. La vérification de la partie logicielle d’une chaîne
fonctionnelle complète est donc d’une grande difficulté pour les outils actuels. Même en
suivant une approche modulaire, il loin d’être trivial de vérifier la correction des soussystèmes
séparément. L’objectif des travaux présentés dans ce mémoire est de fournir des
6Introduction 1.2 Notations et Notions Mathématiques
techniques génériques pour la vérification automatique de systèmes tels que ceux implé-
mentant la logique de vote, ou la logique de reconfiguration. Ces systèmes utilisent largement
l’arithmétique entière linéaire au travers des nombreux compteurs qu’ils utilisent pour
confirmer les défaillances et transférer le contrôle de l’actuateur d’une chaîne à une autre.
La logique de vote par exemple se doit de maintenir une certaine continuité dans les valeurs
qu’elle produit : la loi de commande est pensée pour des valeurs en accord avec le monde
réel et pourrait avoir un comportement imprévisible en cas de discontinuités irréalistes dans
ses signaux d’entrée. Plus précisemment nous nous focaliserons sur le “triplex voter”, un
système fourni par Rockwell Collins implémentant une logique de vote. Le code de ce système
est disponible dans l’annexe A. Les systèmes de loi de commande diffèrent du vote et
de la reconfiguration car ils sont basés sur des équations différentielles. Ils peuvent être nonlinéaires
ou n’être analysable qu’au moyen de méthodes non-linéaires et sortent du cadre de
cette étude.
1.2 Notations et Notions Mathématiques
1.2.1 Logique du Premier Ordre Multi-Sortée
La formalisation de la notion de système de transition s’appuie traditionellement sur le
système formel appelé logique du premier ordre1 multi-sortée, ou Many-Sorted First-Order
Logic (MSFOL), défini en Section 5.1 de façon similaire au standard SMT-LIB 2 [4]. MSFOL
permet de définir des logiques permettant à leur tour de construire des termes en combinant
des symboles dans le cadre de règles assurant le typage des expressions obtenues.
Syntaxe. Les symboles représentent des fonctions n’ayant pas d’interprétation fixée, mais
auquelles sont associées des rangsfaisant intervenir les types ou sortes autorisés par la logique.
Le symbole “+” par exemple aurait typiquement pour rangs (Int, Int) : Int et(Real, Real) :
Real. Le symbole “3”, respectivement “3.0”, peut avoir un unique rang () : Int, respectivement
() : Real. Les sortes sont des noms et n’ont pas non plus, à ce niveau, d’interprétation.
La notion de signature (Définition 5.1.1) déclare les sortes, les symboles, leurs rangs, ainsi
que les variables –sur lesquelles nous reviendrons un peu plus tard– composant la logique.
Les règles de typage définissent les termes légaux : avec les symboles et les rangs introduits
ci-dessus par exemple, le terme +(3, 3), c’est à dire “l’application du symbole + aux
symboles 3 et 3” est bien typé, de sorte Int. Le terme +(3, 3.0) au contraire n’est pas bien
typé. Dans la suite de ce mémoire, un terme sera toujours supposé bien typé, sauf indication
1Les lecteurs initiés à la logique du premier ordre remarqueront que nous ne mentionnerons quasiment pas
les quantificateurs dans cette section. En effet nous ne considérerons que des termes n’en utilisant pas par la
suite. Les quantificateurs sont formellement traités dans la Section 5.1 de la partie anglaise du mémoire.
71.2 Notations et Notions Mathématiques Introduction
contraire. Il est à noter qu’en pratique, on impose que toutes les signatures contiennent au
moins les sortes et les symboles –ainsi que leurs rangs– de la signature Core.
Core signature. Core est la signature composée du sorte Bool ainsi que des symboles et des
signatures
∨ (Bool, Bool) : Bool ∧ (Bool, Bool) : Bool ¬ (Bool) : Bool
> () : Bool ⊥ () : Bool = (Bool, Bool) : Bool
Les termes de sorte Bool sont appelées formules, et les symboles “∨”, “∧”, “¬” sont appelés
respectivement disjonction (ou), conjonction (et), négation. De plus, nous exigeons également
que pour chaque sorte σ apparaissant dans une logique le symbole “=” ait, entre autres, le
rang (σ, σ) : Bool.
Sémantique. Les notions introduites ci-dessus définissent la syntaxe de la logique. Pour
donner une sémantique aux termes, il est nécessaire d’y associer une sémantique. Une structure
(Définition 5.1.8) interprète les sortes d’une signature en ensembles de valeurs concrètes,
et les symboles comme des fonctions sur ces ensembles de façon consistante avec
leur rang. Une structure permet également d’interpréter des termes de la logique au moyen
d’une fonction d’interprétation I. Une application de symbole s(terme1, . . . , termen) est
évaluée récursivement :
I(s)
I(terme1), . . . , I(termen)
.
Une structure se doit de respecter les contraintes suivantes :
• l’interprétation du sorte Bool est l’ensemble {T, F} (True et False) ;
• I(>) est T ;
• I(⊥) est F ;
• I(¬)(p) est T si et seulement si p est F ;
• I(∨)(p, q) est T si et seulement si p ou q est T ;
• I(∧)(p, q) est T si et seulement si p et q est T ;
• I(=)(p, q) est T si et seulement si p est la même valeur concrète que q.
Étant donnée une signature Σ, une formule φ est satisfiable s’il existe une structure de
Σ qui évalue φ à T. Une telle structure est appelée un modèle de φ. Si toute structure de
Σ est un modèle de φ, alors φ est une tautologie ou est valide. Validité et satisfiabilité sont
8Introduction 1.2 Notations et Notions Mathématiques
des notions duales. En effet, si φ est valide alors sa négation, ¬φ, n’est pas satisfiable, ou
insatisfiable. Inversement, si φ est insatisfiable alors ¬φ est valide.
Soit Σ un signature et φ et ψ deux formules. Alors
• φ et ψ sont equisatisfiables si φ est satisfiable si et seulement si ψ est satisfiable ;
• ψ est une conséquence sémantique de φ, noté φ |= ψ, si tout modèle de φ est un modèle
de ψ ;
• ψ est équivalente sémantiquement à φ, noté φ ≡ ψ, si φ |= ψ et ψ |= φ.
Satisfiabilité modulo théorie. La notion de sémantique introduite ci-dessus n’est pas suffisante
pour les problèmes auquels nous nous intéressons. Malgré la possibilité d’obtenir des
résultats tels que
• φ ∧ ¬φ est insatisfiable,
• φ ∨ ¬φ est valide,
• ¬(φ ∧ ¬φ) ≡ φ ∨ ¬φ, . . .
Il n’est pas réaliste de raisonner au niveau arithmétique sans contraindre l’interprétation de
symboles tels que “+”, “42”, “7.13” dans des signatures les autorisant. C’est pourquoi une
logique est également composée d’une ou plusieurs théorie(s) restreignant l’interprétation
des symboles et sortes non purement propositionnels, les symboles et sortes autres que ceux
apparaissant dans Core. Une formule φ est alors satisfiable modulo théorie si elle admet un
modèle autorisé par la ou les théories de la logique considérée. Dans la suite de ce mé-
moire, nous utiliserons majoritairement des fragments de MSFOL permettant de construire
des termes arithmétiques linéaires réels ou entiers au moyen des symboles habituels “+”,
“−”, “0”, “1”, . . . , “0.0”, “2.3”, . . . dont l’inteprétation correspond à la sémantique usuelle
de l’arithmétique. Nous dirons dans la suite de ce mémoire qu’une formule φ est satisfiable
pour “satisfiable modulo théorie” pour des raisons de lisibilité.
Précisions sur la notion de variable d’une signature. Comme c’est le cas dans le standard
SMT-LIB 2, les variables d’une signature ne peuvent apparaître dans des termes bien typés
que si elles sont liée par un quantificateur (∃ ou ∀) ou un let-binding (parallèle). Nous ne
considérerons pas de termes quantifiés dans ce mémoire et omettons leur définition pour le
moment ; davantage d’informations sont disponibles dans les sections 5.1.1 et 5.1.2 définissant
formellement MSFOL, en particulier dans la Définition 5.1.3 pour la syntaxe abstraite, la
Définition 5.1.4 pour le typage, et la Définition 5.1.10 pour leur sémantique. Nous utilisons
91.2 Notations et Notions Mathématiques Introduction
les let-binding-s pour définir formellement le déroulement de la relation de transition d’un
système de transition en Section 6.1, mais nous n’en ferons pas usage dans ce résumé étendu
en français par soucis de concision. Nous renvoyons donc le lecteur aux sections et définitions
cîtées pour les quantificateurs traitant également de la syntaxe et de la sémantique des
let-binding-s dans MSFOL.
Les solveurs SAT et SMT sont des outils extrêmement efficaces capables, étant donnée
une formule φ exprimée dans un fragment de MSFOL, de répondre à la question “φ est-elle
satisfiable?”. Si c’est le cas, le solveur produit un modèle de φ. Par la suite nous abrégerons
souvent “satisfiable” par “sat” et “insatisfiable” par “unsat”. Le niveau de performance
actuel de ces outils est le fruit de plusieurs décennies de recherche et d’optimisation dé-
clenchées par les travaux précurseurs de [27, 28] mettant au point l’algorithme aujourd’hui
standard, nommé DPLL en l’honneur de ses créateurs (Davis-Putnam-Logemann-Loveland).
Les premiers solveurs ne s’intéressaient qu’au problème de la satisfiabilité de formules purement
propositionnel, appelé “problème SAT”. Les avancées considérables [9] dûes, entre
autres, à l’équipe à l’origine du solveur SAT Chaff [59] ont à terme rendu possible d’adapter
l’approche au problème de la satisfiabilité modulo théorie (SMT). La Section 5.2 de ce mé-
moire présente l’algorithme DPLL dans le cas SAT ainsi que dans le cas SMT au travers du
formalisme abstract DPLL [60].
L’initiative SMT-LIB [4] vise a fédérer les différents solveurs en proposant des descriptions
rigoureuses des théories qu’ils utilisent, ainsi qu’un langage d’entrée commun permettant
la construction d’une librairie de benchmarks impressionnante. L’objectif est de faciliter
l’utilisation et la comparaisons des solveurs disponibles. Les solveurs majeurs actuels sont
compatible avec le récent standard SMT-LIB 2 [4], les principaux étant les suivants :
• Z3 [29], developpé à Microsoft Research,
• MathSAT 5 [20] de l’Université de Trento, et
• CVC4 [3], developpé conjointement par l’Université d’Iowa et l’Université de New
York.
1.2.2 Systèmes de Transition
Les systèmes de transition encodent une sémantique de trace d’états partant d’états dits
initiaux. Les états représentent l’état interne du système à un moment donné. Un système de
transition encode les transitions légales pour le système lui permettant de passer d’un état
à un autre. Les systèmes de transition ayant un nombre fini d’états peuvent, en théorie, être
représentés de façon exhaustive en listant tous les états initiaux et tous les couples détats se
succédant. En pratique malheureusement les systèmes finis que nous considérons ne sont
10Introduction 1.2 Notations et Notions Mathématiques
pas représentables de cette façon à cause du nombre gigantesque d’états qu’ils peuvent atteindre,
sans parler des systèmes infinis. Il est donc plus réaliste de spécifier les états initiaux
ainsi que la relation de transition au moyen de formules dans un fragment de MSFOL.
Étant donnée une logique L, l’état interne du système de transition S est représenté par
un vecteur de variables d’états Var ∆= hv
1
, . . . , vn
i. Une fonction D associe à chaque variable
un sorte de L. Une formule d’init I(Var) portant sur les variables d’états défini les états
initiaux : ses modèles sont exactement les états initiaux du système. Un deuxième formule
T(Var, Var0
) porte sur Var vu comme “l’état courant” ainsi que sur une version primée de
Var représentant “l’état suivant”. Les modèles de cette formule de transition sont exactement
les paires d’états du système se succédant.
Afin d’encoder des traces d’états semous forme de formules, nous augmentons la logique
avec les symboles v
1
0
, . . . , vn
0
, v1
1
, . . . , vn
1
, . . . que nous appelons des variables d’état déroulées.
Nous notons la logique ainsi obtenue L(S). Par soucis de lisibilité, nous notons si
le vecteur
hv
1
1
, . . . , vn
1
i. Il est à présent possible de construire une formule dont les modèles sont , par
exemple, exactement les états atteignables en deux transitions à partir des états initiaux du
système :
φ
∆= I(s0) ∧ T(s0, s1) ∧ T(s1, s2).
Si φ est satisfiable, un modèle de φ assigne des valeurs concrètes à s0, s1 et s2 telles que s0 est
initial et les transition entre s0 et s1 et entre s1 et s2 sont légales.
Soit Scpt le système de transition composé d’une seule variable d’état n de sorte Int, de la
formule initiale I(n)
∆= (n = 0) et de la formule de transition T(n, n0
)
∆= (n
0 = n + 1). Scpt
représente un simple compteur initializé à zéro et s’incrémentant à chaque transition. Dans
ce cas, la formule φ ci-dessus est donc
φ
∆=
n0=0
z }| {
I(n0) ∧
n1=n0+1
z }| {
T(n0, n1) ∧
n2=n1+1
z }| {
T(n1, n2).
Il est alors possible de demander à un solveur SMT si φ est satisfiable, ce qui est le cas, puis
d’en obtenir un modèle :
{n0 7→ 0, n1 7→ 1, n2 7→ 2}.
Il est de plus possible d’ajouter des contraintes aux variables d’état déroulées, comme suit.
n0=0
z }| {
I(n0) ∧
n1=n0+1
z }| {
T(n0, n1) ∧
n2=n1+1
z }| {
T(n1, n2) ∧
contrainte sur n2
z }| {
(n2 ≤ 0)
Le solveur SMT nous répond alors que la formule n’est pas satisfiable. Nous lui avons
donc fait prouver qu’il n’était pas possible qu’un état à deux transitions d’un état initial soit
négatif ou nul.
Il est important de noter à ce stade que les modèles de la formule de transition ne dénotent
pas forcemment des états successeurs atteignables du système. Dans l’exemple décrit
111.3 Vérification de Systèmes de Transition Introduction
ci-dessus, {n0 7→ −10, n1 7→ −9} est un modèle de la formule T(n0, n1), mais ni l’un ni
l’autre ne sont atteignable.
1.3 Vérification de Systèmes de Transition
Nous nous intéressons à la vérification de propriétés de sûreté sur des systèmes de transition.
Ce problème correspond à une analyse d’atteignabilité. Étant donnés un système de
transition S et un objectif de preuve PO, existe-t-il un entier n ≥ 0 tel que
I(s0) ∧ T(s0, s1) ∧ · · · ∧ T(sn-1, sn) ∧ ¬PO(sn) (1.1)
soit satisfiable ? Si c’est le cas un modèle peut être extrait et constitue un contre-exemple,
c’est à dire une trace partant d’un état initial menant à une falsification de l’objectif de
preuve PO. Si ce n’est pas le cas, PO est un invariant de S : aucun état atteignable du
système ne falsifie PO. Un argument mathématique, une preuve en attestant doit être produit.
Dans le reste de ce mémoire nous nous focaliserons sur la recherche de preuve dans le
cas ou PO est effectivement un invariant de S.
1.3.1 K-induction
Pour ce faire nous utilisons la technique classique de la k-induction2
, consistant à trouver
un entier k ≥ 1 tel que deux formules soient unsat :
Basek (I, T, PO) ≡
Initial state
z }| {
I(s0) ∧
trace of k-1 transitions
z ^ }| {
i∈[0,k−2]
T(si
, si+1) ∧
PO falsified on some state
z _ }| {
i∈[0,k−1]
¬PO(si)
Stepk
(T, PO) ≡
^
i∈[0,k−1]
T(si
, si+1)
| {z }
trace of k transitions
∧
^
i∈[0,k−1]
PO(si)
| {z }
PO satisfied on first k states
∧ ¬PO(sk)
| {z }
PO falsified by last state
.
La formule Basek aussi appelée instance de base est satisfiable si une falsification de
l’objectif de preuve peut être atteinte en k −1 transitions à partir des états initiaux. Un mod-
èle de l’instance de base est donc un contre-exemple exhibant une falsification de l’objectif
de preuve. Si Basek n’est pas satisfiable, alors tous les états atteignables en k − 1 transitions
à partir des états initiaux vérifient l’objectif de preuve.
La formule Stepk aussi appelée instance de step n’est pas satisfiable si à partir du dernier état
d’une trace de k états vérifiant PO, il n’est pas possible d’atteindre une falsification de PO
en une transition.
Si les deux formules sont insatisfiable, toute trace partant des états initiaux ne peut atteindre
une falsification de PO en k − 1 transitions car l’instance de base n’est pas satisfiable. Le
2
Introduite formellement dans la Section 6.2.
12Introduction 1.3 Vérification de Systèmes de Transition
fait que Stepk ne soit pas satisfiable permet de conclure qu’il n’est pas possible d’atteindre
une falsification de PO en une transition à partir d’une trace initialisée de k états (k − 1
transitions). Par récurrence, il n’existe donc pas d’entier n ≥ 0 tel que l’Équation 1.1 soit
satisfiable, et PO est bien un invariant de S.
En revanche, le fait que l’instance de step soit satisfiable ne permet pas de conclure. La
formule de step ne prend pas en compte les états initiaux et il n’y a aucune garantie que ses
modèles dénotent des états atteignables. On parle dans ce cas de contre-exemple fallacieux.
Il est cependant possible, en théorie, de chercher itérativement à établir une preuve de
k-induction à partir de k = 1 en augmentant la valeur de k jusqu’à ce que les deux formules
soient insatisfiable –ou que l’instance de base soit satisfiable, indiquant l’existence d’une
falsification de PO.
Malheureusement, la complexité des formules augmente rapidement à chaque incré-
ment de k et il n’est pas réaliste sur des systèmes réalistes de dérouler la formule de transition
un grand nombre de fois. Les instances de base et de step deviennent rapidement trop
complexe et le solveur SMT n’est plus capable de les traiter efficacement.
Pour remédier à ce problème il est nécessaire de renforcer l’objectif de preuve : en découvrant
des invariants du système. L’intérêt est de contraindre l’instance de step dans le but de
bloquer les contre-exemples fallacieux. Les invariants non-relationels sont en général faciles à
découvrir car ils ne mentionnent qu’une seule variable d’état et correspondent à des bornes
souvent présentes dans la description du système, comme par exemple la valeur maximale
d’un compteur. Les invariants relationels en revanche expriment un lien entre plusieurs variables
d’état et ne sont que rarement apparents ce qui rend difficile leur découverte. Ils sont
en général plus informatifs que les invariants non-relationels et donc plus efficaces pour
l’exclusion de contre-exemples de step fallacieux.
1.3.2 État de l’art
Les techniques formelles récentes se concentrent sur la recherche d’invariants du système
permettant de renforcer un objectif de preuve afin de pouvoir le prouver par k-induction
pour un k relativement petit.
L’interprétation abstraite (AI [23]) est une technique travaillant sur une abstraction de la
sémantique du système qu’elle analyse. Cette approche est correcte dans la mesure ou tout
invariant pour la sémantique absraite est également un invariant pour la sémantique concrète
du programme. L’inverse n’est pas vrai cependant, AI n’est donc pas une technique
complète car l’abstraction peut être trop grossière et donc rater des invariants pour la séman-
131.3 Vérification de Systèmes de Transition Introduction
tique concrète. Les deux outils d’AI les plus intéressants dans notre cadre sont (i) Astrée [10]
qui analyse du code C, et (ii) NBac [43] analysant des modèles Lustre en combinant des calculs
de point fixes avants et arrières.
L’interprétation abstraite est une technique puissante, mais elle est loin d’être automatique.
En effet de nombreux paramètres contrôle les techniques d’abstraction et doivent être spé-
cifiés par un expert en AI ayant une bonne compréhension du système analysé.
Interpolation-based Model Checking (IMC) est une technique proposée par McMillan [55]
basée sur les solveurs SMT et le calcul d’interpolants paramétré par un entier n. Cette
approche consiste à calculer itérativement une suite de sur-approximations des états atteignables
en n transitions excluant de plus en plus de contre-exemples de l’instance destep
de n-induction à chaque itération. L’algorithme s’arrête quand il détecte que tous les contreexemples
de step sont bloqués, indiquant qu’un invariant du système permettant de prouver
l’objectif de preuve par n-induction a été découvert.
Malheureusement IMC nécessite de dérouler la relation de transition un nombre relativement
important de fois. Le méchanisme d’abstraction rend l’approche moins explosive que
la k-induction, mais limite considérablement son passage à l’échelle sur des systèmes tels
que les notres.
Property Directed Reachability (PDR, aussi appelé IC3 [12, 34]) ne construit pas de formule
déroulant la formule de transition plus d’une fois. L’approche consiste a diviser la
complexité de l’analyse en un grand nombre de problèmes plus simples. Une séquence de
frames bloquant des états dangereux est construite incrémentalement en mélangeant analyse
arrière de la négation de l’objectif de preuve et propagation en avant prenant en compte les
états initiaux. Cette technique a originellement été mise au point pour des systèmes purement
propositionels ; des généralizations au cas SMT ont été proposées [40, 19] et montrent
des résultats intéressants. Nous présentons notre propre généralisation dans la Section 8.3.
1.3.3 Motivation et Plan du Mémoire
La découverte d’invariants pour des systèmes industriels est un exercice difficile. Découvrir
des invariants relationnels dirigés par l’objectif de preuve est cependant souvent indispensable
au succès d’une analyse. Les méthodes décrites ci-dessus ne fonctionnent pas sur
nos systèmes car ils ne sont pas capables d’inférer des invariants relationels, à l’exception
de l’interprétation abstraite qui nécessite généralement une intervention experte pour les
découvrir. Notre intuition est qu’il peut s’avérer plus efficace de les deviner, i.e. de produire
des invariants potentiels grâce à une heuristique et de laisser à un moteur de k-induction le
soin de séparer les invariants potentiels falsifiables de ceux étant prouvables.
14Introduction 1.3 Vérification de Systèmes de Transition
Le moteur de preuve Kind [47] suit cette approche : des templates tirés d’une base de
données sont instanciés sur les variables d’états et les constantes apparaissant dans le systèm
[46]. Un moteur de k-induction est en suite chargé d’identifier les invariants. Cependant
les invariants ainsi trouvés ne sont pas dirigés par l’objectif de preuve, il n’y a donc
pas de garantie qu’ils aident à prouver l’objectif de preuve en bloquant des contre-exemples
fallacieux. De plus, cette approche est problématique sur des systèmes complexe car le moteur
de k-induction peut se retrouver noyé par le nombre d’invariants potentiels générés.
Le fait que la base de données de templates grossit généralement avec le temps ne fait
qu’augmenter ce risque.
Notre contribution se sépare en deux parties. Premiérement, nous définissons une architecture
parallèle basée sur un moteur de k-induction permettant à des méthodes de dé-
couverte d’invariants de collaborer entre elles et avec la k-induction. Deuxiémement, nous
proposons une heuristique de génération d’invariants potentiels dirigée par l’objectif de
preuve. Nous démontrons sa capacité à découvrir des invariants relationnels renforçant les
objectifs de preuve sur des systèmes standards dans le domaine des systèmes embarqués
critiques avioniques.
Le Chapitre 2 décrit notre méthodologie. Nous commençons par améliorer l’algorithme
d’élimination de quantificateurs (QE) introduit par Monniaux dans la Section 2.1, en termes
de performance mais aussi de pouvoir d’expression des formules qu’il est capable de traiter.
Nous introduisons ensuite notre architecture parallèle collaborative dans la Section 2.2 et
présentons une technique de découverte d’invariants par QE dans ce cadre. Nous présentons
HullQe dans la Section 2.3, notre heuristique générant des invariants potentiels dirigée
par l’objectif de preuve combinant élimination de quantificateurs et calcul d’enveloppes
convexes.
Enfin, nous concluons et donnons des perspectives pour des travaux poursuivant cette
étude dans le Chapitre 3.
15CHAPTER 2
Découverte d’Invariants par Élimination de
Quantificateurs
L’élimination de quantificateurs est un problème fondamental en mathématiques, et constitue
l’objet de recherches continues depuis des décennies. Cette section rapelle la chronologie
des progrès majeurs en QE et présente les applications les plus fréquentes de la QE pour
l’analyse de systèmes réactifs.
En 1951, Tarski prouve la décidabilité des corps algébriquement clos en exhibant une
procédure d’élimination de quantificateurs [73]. Pour décider une formule, on élimine
succsessivement toutes les variables quantifiées, chaque nouvelle formule obtenue étant
equi-satisfiable à la précédente, pour obtenir une formule ground, dont la valeur de vérité
peut facilement être réduite à vrai ou faux. L’algorithme de Tarski étant d’une complexité
non élémentaire, il est d’une utilité pratiquement nulle pour toute application. En 1975,
G. E. Collins publie la technique de Décomposition Cylindrique Algébrique (CAD) [21], avec
une complexité de 2
2
n
où n est le nombre de variables à éliminer, certes toujours élevée
mais grandement améliorée par rapport à la technique de Tarski, et permettant d’envisager
quelques applications. Les premières implémentations de CAD apparaissent au début des
années 1980 et ont depuis été continuellement améliorées [41]. Un autre saut en performance
est effectué par Weispfenning et Loos à la fin des années 1980 avec la méthode des Substitutions
Virtuelles (VS) sur les réels, d’abord pour les systèmes linéaires [52], puis pour les
systèmes au plus quadratiques [79] [80]. La méthode VS est très rapide mais tend à produire
des formules dont la taille explose, si bien que récemment, certains travaux comme [72] proposent
d’utiliser une combinaison de CAD, VS et de simplification de formule à la volée
pour traiter des problèmes non linéaires de QE issus de problèmes de vérification difficiles.
Aujourd’hui, des implémentations de ces techniques de QE générales sont disponibles dans
des suites logicielles telles que QEPCAD, Redlog, Matlab, Maple, etc..
Globalement, les méthodes de QE générales non linéaires restent très coûteuses, ce qui
justifie l’intéret de la recherche sur les algorithmes de QE très efficaces pour l’arithmétique
linéaire réelle, entière, ou combinée réelle-entière. En effet, le cadre linéaire suffit pour mod-
éliser de nombreuses classes de systèmes très courants dans les applications critiques : les2.1 Élimination de Quantificateurs Découverte d’Invariants
automates hybrides linéaires, les automates temporisés, les programmes manipulant des
compteurs entiers, les programmes synchrones mêlant Booléens, entiers et réels etc. La QE
linéaire s’utilise principalement de la même manière que la QE générale : calcul de préimage
[26], synthèse d’invariants par patrons [50], abstraction automatique de portions de
programmes [57]. Donc, se doter de techniques efficaces pour ces fragments peut être extrêmement
gratifiant dans les applications de vérification. La plus significative et récente
des avancées dans ce domaine est celle de la QE par énumération paresseuse et projection polyé-
drique publiée dans [56], et reprise dans [58]. Cette méthode capitalise les derniers progrès
de la satisfiabilité modulo théories (SMT), et apporte un gain de performance notable sur les
approches préexistantes.
Cette méthode de QE basée SMT se trouve au cœur de notre cadre logiciel pour l’analyse
de systèmes réactifs synchrones : dans [16], un calcul de préimage itéré est utilisé pour
alimenter un générateur de lemmes potentiels afin de prouver une propriété sur un système
de transitions. Dans cette application, c’est l’étape de QE qui constituait le principal goulot
d’étranglement, ce qui nous conduisit à améliorer l’algorithme original de [56], en modifiant
la phase d’extrapolation de l’algorithme.
2.1 Élimination de Quantificateurs
Definition 2.1.1 (Élimination de quantificateurs) Étant donnée une formule φ de QF_LRIA
et une collection V de variables de φ, l’élimination de quantificateurs consiste à produire une
autre formule O de QF_LRIA telle que O soit équivalente à ∃V, φ en éliminant les variables
V de φ. Cette opération est notée QE(V, φ).
Par exemple, si φ ≡ (x = 39 ∧ y ≥ 3 + x) ∨ (x ≥ 7 ∧ y = 11 − x) alors un résultat
possible pour QE(x, φ) serait O ≡ y ≥ 42 ∨ y ≤ 4.
L’algorithme d’élimination de quantificateurs par énumération paresseuse de modèles de [56]
est donné dans l’algorithme 1. Dans l’article original, φ est supposée appartenir au fragment
QF_LRA et V ne contient donc que des variables réelles. Dans cet algorithme, chaque itération
comporte trois phases. Premièrement, l’extraction de modèle, qui utilise un solveur SMT
pour trouver un modèle de φ ∧ ¬O tant qu’il en existe, sinon l’algorithme termine. Ensuite,
la phase d’extrapolation qui produit, à partir d’un modèle M de φ, une nouvelle formule E
qui se veut plus générale que le modèle dont elle est issue et qui implique φ. Une définition
formelle de la notion d’extrapolant, tirée de [62], est donnée ci-après :
Definition 2.1.2 (Extrapolant) Soient deux formules A et B. Une formule C est un extrapolant
de A et B si elle est telle que :
– si A ∧ B est unsat alors C ≡ ⊥
– si A ∧ B est sat alors A ∧ C est sat et C ∧ ¬B est unsat.
18Découverte d’Invariants 2.1 Élimination de Quantificateurs
Algorithm 1 QE par énumération paresseuse de modèles.
Require: φ : une formule QF_LRIA
Require: V : collection de variables à éliminer de φ.
Ensure: O : une formule en forme DNF telle que O ≡ ∃V, φ
function QE(V, φ)
O ← ⊥
while isSatisfiable(φ ∧ ¬O) do
M ← getModel(φ ∧ ¬O) . génération d’un modèle
E ← extrapolate(φ, M) . extrapolation du modèle
P ← project(E, V ) . projection de l’extrapolant
O ← O ∨ P . construction incrémentale du résultat
end while
return O . retrouner la formule DNF
end function
Cette définition est instanciée de la manière suivante dans le cadre de la QE : si M est un
modèle de φ, en prenant A ≡ (
V
v∈Vars(φ)
v = M (v)) pour caractériser le modèle et B ≡ φ,
un extrapolant E est tel que :
• A ∧ E est satisfiable, i.e. M(E) ≡ M(φ) ≡ >, i.e. M |= E ;
• E ∧ ¬φ est insatisfiable, i.e. E =⇒ φ.
Par extension, le calcul d’un tel E est appelé “extrapoler M par rapport à φ”.
Dans la QE de [56], l’extrapolation de M est réalisée par la technique appelée SMTtest,
par laquelle on considère l’ensemble des atomes de φ noté Atoms(φ), et l’on construit
l’ensemble des littéraux impliqués par le modèle :
L ≡ {si M (a) alors a sinon ¬a | a ∈ Atoms(φ)} (2.1)
On a alors (
V
l∈L l) =⇒ φ, i.e. (
V
l∈L l) ∧ ¬φ est insatisfiable. Ensuite, on minimise L en
en retirant successivement chaque littéral l
0
tel que ((V
l∈L, l6=l
0 l) ∧ ¬φ) devienne satisfiable.
Enfin, on retourne l’extrapolant (
V
l∈Lmin
l).
Enfin, la phase de projection élimine de E les variables de V par une projection polyé-
drique, fournie par exemple par la Parma Polyhedra Library [2]. Le résultat de chaque projection
nourrit la construction de la formule DNF résultat O, qui est équivalente à (∃V, φ)
et ne contient plus aucune variable de V lorsque l’algorithme termine, i.e. lorsque φ ∧ O n’a
plus de modèle.
Il est important de retenir le rôle clef joué par l’extrapolation dans l’algorithme de QE.
C’est en effet sa capacité à généraliser le modèle qui va permettre de limiter le nombre
d’itérations de la boucle principale. Plus un extrapolant est général, plus sa projection est
192.1 Élimination de Quantificateurs Découverte d’Invariants
générale, et sa négation bloque davantage de modèles de la formule φ. Dans l’algorithme
original, la plus grande partie de l’exécution est passée à généraliser les modèles. C’est ce
qui justifie notre travail sur l’extrapolation afin d’améliorer l’algorithme de QE.
2.1.1 Projection combinée d’atomes booléens, entiers et réels
L’algorithme de QE original imposait que les formules appartiennent au fragment linéaire
réel QF_LRA (variables réelles, relations et combinateurs booléens uniquement). Nous
généralisons ici l’approche à QF_LRIA, ce qui implique d’éliminer des variables pouvant
être booléennes, entières ou réelles. C’est la méthode de projection qu’il faut adapter ici.
En effet, en supposant qu’un solveur SMT compatible QF_LRIA soit utilisé, les phases
d’énumération de modèles et de génération d’extrapolants restent inchangées, l’essentiel du
raisonnement spécifique aux théories arithmétiques et booléennes étant délégué au solveur
SMT.
Un extrapolant n’est maintenant plus un polyèdre de variables réelles, mais un cube c
contenant des littéraux booléens, entiers et réels. Compte tenu de l’absence d’intersection
de types entre entiers et réels dans le langage QF_LRIA, ce cube peut être divisé en trois
cubes cbool, cint et creal tels que cbool (resp. cint, creal) ne contient que des littéraux booléens
(resp. entiers, réels), et c ≡ cbool ∧ cint ∧ creal.
L’ensemble V des variables à éliminer peut lui aussi être divisé en trois sous-ensembles
disjoints Vbool, Vint et Vreal tels que Vbool (resp. Vint, Vreal) ne contient que des variables
booléennes (resp. entières, réelles). Enfin, la propriété suivante nous permet d’obtenir trois
problèmes de projection distincts : projection des variables booléennes, entières et réelles,
qui peuvent être traitées en parallèle avec des méthodes dédiées.
Property 2.1.1 (Séparation de quantificateurs) Soient deux formules φ1 et φ2, et deux ensembles
de variables V1 et V2 tels que V1 ∩ F V (φ2) = ∅, V2 ∩ F V (φ1) = ∅, et F V (φ1) ∩
F V (φ2) = ∅, alors (∃V1 ∪ V2, φ1 ∧ φ2) ≡ (∃V1, φ1) ∧ (∃V2, φ2).
Cette adaptation de l’algorithme de QE à QF_LRIA permet d’aborder des systèmes typiques
du domaine avionique, dans lesquels les booléens supportent la logique de contrôle,
les entiers supportent l’implémentation de diverses primitives temporelles telles que les
timers, les watchdogs, etc. et les réels supportent les flots de données.
Ces systèmes s’expriment dans la théorie des octogones entiers et nous permettent d’éviter
d’avoir à recourir à l’opérateur modulo lors de l’élimination de quantificateurs. En effet,
QE(y, x = 7 ∗ y) où x et y sont des entiers devrait normalement renvoyer x%7 = 0 où %
est l’opérateur "modulo". En nous limitant aux octogones, nous pouvons donc projeter les
atomes entiers comme des atomes réels. Dans un contexte plus général le résultat de la projection
pourrait être faux. Avec notre méthode, QE(x, {0 < x, x < 1}) où x est un entier
20Découverte d’Invariants 2.1 Élimination de Quantificateurs
aurait pour résultat > ; cependant, l’algorithme de QE de Monniaux ne projetant que des
atomes satisfiables modulo théorie, ce genre de cas ne peut donc pas se présenter au sein de
la procédure.
2.1.2 Extrapolation : utilisation des cœurs insatisfiables
Le but de l’extrapolation est de dériver une formule E à partir d’un modèle M |= φ qui
soit plus générale que M , tout en impliquant φ. Si nous considérons tous les extrapolants
pouvant être construits à partir des atomes de φ, un meilleur extrapolant pour un modèle
M aurait un nombre minimal de littéraux. Un tel extrapolant peut être obtenu en prenant
la conjonction du sous-ensemble de littéraux U ⊆ L impliqué dans tout cœur insatisfiable
minimal de la formule ((V
l∈L l) ∧ ¬φ), où L est l’ensemble défini dans l’équation (7.1).
Calculer des extrapolants très généraux permet de limiter le nombre total d’itérations de
la boucle principale de QE. Cependant, l’extraction de cœurs insatisfiables minimaux pour
déterminer U se révèle trop coûteuse en pratique. Il est bénéfique pour la performance globale
de la QE de se contenter d’approximer les meilleurs extrapolants. Le coût des quelques
itérations supplémentaires de la boucle principale, du à la moindre qualité des extrapolants,
est amorti par le gain sur l’extrapolation plus rapide.
L’extrapolation SMT-test décrite en section 2.1 a de bonnes capacités de généralisation,
mais reste coûteuse en raison des tests SMT utilisés pour décider, pour chaque littéral de
la formule, de l’éliminer ou de le garder dans l’extrapolant. Le nombre de tests SMT peut
être réduit en utilisant les informations découvertes par le solveur SMT sur les formules
insatisfiables. Lorsqu’un littéral l
0 ∈ L tel que G ≡ ((V
l∈L, l6=l
0 l) ∧ ¬φ) est insatisfiable
est considéré, le solveur peut être interrogé pour savoir quels littéraux ont été utilisés dans
le graphe du dernier conflit. Ces littéraux font partie d’un cœur unsat de la formule G,
pas nécessairement minimal, et on peut éliminer de L tous les littéraux n’étant pas dans
ce graphe. On élimine ainsi plus d’un littéral de l’extrapolant par itération. Cette idée est
détaillée dans l’algorithme 2.
2.1.3 Extrapolation par analyse structurelle
Limiter l’utilisation du solveur SMT dans l’extrapolation est un progrès, mais la supprimer
totalement pourrait être encore mieux. Nous présentons ici une analyse structurelle
permettant d’identifier rapidement un sous-ensemble de littéraux expliquant la satisfiabilité
d’une formule par rapport à un modèle, et d’en générer un extrapolant. Cette méthode
est inspirée de [11], où les modèles découverts par un model-checker pour Simulink sont
simplifiés avant d’être présentés à l’utilisateur. Les portions du réseau à flots de données
impliquées dans la falsification de l’objectif de preuve sont identifiées par des règles structurelles.
De [11], nous retenons principalement les notions d’activité et de cause. L’idée de
212.1 Élimination de Quantificateurs Découverte d’Invariants
Algorithm 2 SMT-test avec cœurs insatisfiables.
Require: φ une formule QF_LRIA, M un modèle de φ.
Ensure: Un extrapolant de M par rapport à φ sous la forme d’un ensemble de littéraux.
function smtTestCores(φ, M )
toCheck ← L . Ensemble L de littéraux à tester (cf. Eq 7.1)
toKeep ← ∅
while toCheck 6= ∅ do . ensemble des littéraux de l’extrapolant
solver .assert(¬φ)
literal ← toCheck.first . prendre le prochain littéral à tester
toCheck ← (toCheck \ {literal}) . supprimer le littéral de l’ensemble
for lit ∈ toKeep ∪ toCheck do
solver .assert(lit) . supposer les littéraux à garder/tester
end for
if solver .checksat() = sat then
toKeep ← (toKeep ∪ {literal}) . ajouter le littéral dans l’ensemble résultat
else . supprimer les littéraux n’étant pas dans le cœur unsat
toCheck ← solver .getUnsatCore() ∩ toCheck
end if
solver .restart() . réinitialiser le solveur pour la prochaine itération
end while
return toKeep . retourner l’ensemble de littéraux formant l’extrapolant
end function
base ici est de ne pas juste considérer l’ensemble des littéraux de la formule “à plat”, mais
plutôt de garder une vision arborescente de la formule et de définir des règles permettant
d’identifier les sous-arbres expliquant la valeur de la racine.
Definition 2.1.3 (Activité d’une sous-formule) Soit f une formule et g une de ses sousformules
directes. On dit que g est active par rapport à f dans M si et seulement si la valeur
de g dans M est telle que la changer en préservant les valeurs des autres sous-formules directes
de f change la valeur de f, ou bien si cette valeur permet de déterminer complètement
la valeur de f dans M .
L’activation d’une sous-formule peut être résumée à une condition logique sur les valeurs
impliquées par un modèle pour la sous-formule et ses soeurs. Par exemple, si on considère
que a ∧ b, une sous-formule de φ, est active, alors une des situations suivantes se produit :
(a) si M (¬a) et M (b), la valeur de a dans M suffit à déterminer que a ∧ b est fausse dans M ,
mais pas la valeur de b. Donc a est active et b ne l’est pas ; (b) si M (a) et M (¬b), la valeur
de b dans M suffit à déterminer que a ∧ b est fausse dans M , mais pas la valeur de a. Donc
b est active et a ne l’est pas ; (c) si M (¬a) et M (¬b), alors la valeur de a ou celle de b dans
M permet indépendamment de déterminer que a ∧ b est fausse dans M . Donc a et b sont
22Découverte d’Invariants 2.1 Élimination de Quantificateurs
actives, c’est un cas combinaison de causes indépendantes ; (d) si M (a) et M (b), la connaissance
des valeurs de a et b est nécessaire pour déterminer que a ∧ b est vraie dans M . Donc a et b
sont actives, c’est un cas de combinaison de causes dépendantes. La condition d’activation de a
peut être réduite à M (¬a ∨ b), et celle de b à M (¬b ∨ a).
Definition 2.1.4 (Causes) Soient une formule φ et un de ses modèles M , une cause pour une
sous-formule g active par rapport à φ est un cube k sur les variables libres de φ tel que M |= k
et pour tout M 0
tel que M 0
|= k, M 0
(g) = M (g). Puisqu’il peut exister plusieurs causes pour
g dans un même modèle, l’ensemble des causes de g est noté KM (g), ou bien K(g) quand M
est évident d’après le contexte.
L’ensemble des causes d’une formule peut être construit inductivement à partir des ensembles
de causes de ses sous-formules. Pour l’opérateur unaire ¬a, les causes sont celles
de a. Pour un opérateur binaire hopi ∈ (∧, ∨), KM (a hopi b) est égal à :
• KM (a) si seulement a est active ;
• KM (b) si seulement b est active ;
• KM (a) ∪ KM (b) si a et b sont actives et leurs causes sont indépendantes ;
• {Ca ∧ Cb | (Ca, Cb) ∈ KM (a) × KM (b)} si a et b sont actives et leurs causes sont dépendantes.
Ces règles de construction et la définition d’une cause font que si a (resp. b) était active
par rapport à a hopi b dans M , alors elle l’est toujours dans tout M 0
|= k où k ∈ KM (a hopi b).
Donc, si M |= φ, tout k ∈ KM (φ) est en fait un extrapolant de M par rapport à φ, car M |= k
et tout M 0
|= k est tel que M 0
(φ) = M (φ) = >, ce qui est équivalent à k =⇒ φ, on retrouve
bien la définition 7.1.1 instanciée dans le cadre de la QE.
Il est donc possible de calculer des extrapolants pour M par rapport à φ en calculant
des causes pour φ dans M . Nous avons constaté expérimentalement que les combinaisons
de causes indépendantes augmentent la taille des ensembles de causes (par union), menant
indirectement à une explosion du nombre de causes lors du traitement des causes dépendantes
(produit cartésien). Nous avons donc décidé de n’extraire qu’un seul extrapolant
par modèle, en ne traitant que les combinaisons de causes dépendantes et en ne calculant que
la cause de la sous-formule active la plus à gauche lors de combinaisons de causes indépendantes.
L’algorithme 7 donne le parcours récursif de l’arbre de la formule et la combinaison
des causes utilisés pour générer des extrapolants.
Le Tableau 2.1 résume toutes les règles définissant les fonctions active et combine. La
colonne Terme spécifie l’opérateur en question. La colonne Condition spécifie la condition
logique à évaluer. La colonne Sous-formule active donne le comportement de la fonction
232.1 Élimination de Quantificateurs Découverte d’Invariants
Algorithm 3 Extrapolation par méthode structurelle.
Require: f une formule, M une fonction d’évaluation.
Ensure: Si M |= f alors le résultat est un extrapolant de M par rapport à f.
function struct(f, M)
activeSubFormulas ← active(f, M) . sous-formules actives (cf. Tableau 2.1)
subCauses ← activeSubFormulas map {x → struct(x, M)} . appel récursif
return combine(f, subCauses, M) . combinaison des sous-causes (cf. Tableau 2.1)
end function
active, qui retourne la liste des sous-formules actives d’une formule. La colonne Causes
générées/Combinaison donne le comportement de la fonction combine, qui retourne soit une
cause fraîchement générée dans les cas d’arrêt de la récursion (quand active renvoie une
liste vide), ou bien une cause obtenue par combinaison. Par exemple, la cinquième ligne du
tableau se lit : si la formule courante est de la forme x = y, la récursion s’arrête et alors si
M (x) est égal à M (y), la cause x = y est retournée, sinon si M (x) < M (y), alors la cause
x < y est retournée, sinon si M (y) < M (x), la cause y < x est retournée.
Terme Condition Sous-formules Causes générées/
actives Combinaison
hidi booléen T [] hidi si M (hidi), ¬hidi sinon
¬a T [a] K(a)
a ∧ b M (¬a) [a] K(a)
M (a ∧ ¬b) [b] K(b)
M (a ∧ b) [a, b] K(a) ∧ K(b)
a ∨ b M (a) [a] K(a)
M (¬a ∧ b) [b] K(b)
M (¬a ∧ ¬b) [a, b] K(a) ∧ K(b)
x = y M (x = y) [] (x = y)
M (x < y) [] (x < y)
M (y < x) [] (y < x)
x < y M (x < y) [] (x < y)
M (¬(x < y)) [] ¬(x < y)
Figure 2.1: Règles de calcul de l’analyse structurelle.
2.1.4 Combinaison de techniques d’extrapolation
L’analyse structurelle peut être intégrée dans l’algorithme 2, en remplaçant simplement
la première ligne toCheck ← L par toCheck ← struct(φ, M) où struct est la fonction de
24Découverte d’Invariants 2.1 Élimination de Quantificateurs
Algorithm 4 hybrid(φ, M ) . Extrapolation hybride.
Require: φ une formule, M un modèle de φ.
Ensure: Un extrapolant de M par rapport à φ, sous la forme d’un ensemble de littéraux.
toCheck ← struct(φ, M ) . ensemble de littéraux par analyse structurelle (cf. Alg. 7)
toKeep ← ∅
solver .assert(¬φ) . insérer ¬φ au niveau 0
solver .push(1) . à niveau 1 (littéraux à garder)
while toCheck 6= ∅ do
literal ← toCheck.first . prendre un littéral dans l’ensemble toCheck
toCheck ← (toCheck \ {literal}) . le supprimer de l’ensemble
solver .push(1) . à niveau 2 (littéral à tester)
for lit ∈ toCheck do
solver .assert(lit) . insérer le littéral à tester à niveau 2
end for
if solver .checksat() = sat then
toKeep ← (toKeep ∪ {literal})
solver .pop(1)
solver .assert(literal) . insérer le littéral à garder à niveau 1
else . éliminer les littéraux hors du cœur insatisfiable
solver .pop(1)
toCheck ← (solver .getUnsatCore() ∩ toCheck)
end if
end while
return toKeep
l’algorithme 7. Pour encore améliorer la performance, on peut utiliser la pile d’assertions
du solveur SMT sous-jacent. L’algorithme 8 illustre cette combinaison. La formule ¬φ est
insérée au bas de la pile d’assertions, les littéraux à garder pour former l’extrapolant sont
placés au niveau 1 de la pile, le littéral à tester est inséré en haut de la pile. Un simple
pop nous ramène au niveau 1, où l’on peut insérer le littéral à garder et passer au prochain
littéral à tester après un push, préservant ainsi au sein du solveur la majorité du contexte de
l’algorithme.
2.1.5 Évaluation de l’Approche
Nous avons implémenté chacune des techniques d’extrapolation discutées ci-dessus ainsi
qu’un algorithme de QE générique paramétré par la fonction d’extrapolation. Le solveur
SMT Microsoft Z3 [29] est utilisé pour couvrir les besoins SMT. Pour la projection sur contraintes
arithmétiques, décrite en section 2.1.1, nous avons utilisé la Parma Polyhedra Li-
252.1 Élimination de Quantificateurs Découverte d’Invariants
brary [2]
1
, la projection de Booléens étant réalisée par nos soins. Dans le tableau 7.4, nous
présentons les résultats obtenus avec les techniques d’extrapolation suivantes :
• SMT-test la technique de [56], fournie comme référence ;
• struct la technique purement structurelle de l’algorithme 7 ;
• hybrid la technique mêlant analyse structurelle, SMT-test et cœurs insatisfiables de
l’algorithme 8.
Les formules de test sont des problèmes de vérification générés par notre outil Stuff [16],
et correspondent à des itérations de calcul de préimage symbolique à partir de la négation
d’un objectif de preuve sur un système de transition. Plus précisément, si T(s, s0
) est la
relation de transition du système, appliquée à l’état courant s et à un successeur s
0
, le calcul
de préimage itéré est défini ainsi :
G1(s) ≡ QE(s
0
, P O(s) ∧ T(s, s0
) ∧ ¬PO(s
0
))
Gi+1(s) ≡ QE(s
0
,PO(s) ∧ T(s, s0
) ∧ Gi(s
0
))
La formule de chaque nouvelle itération contient donc le résultat de l’itération précédente
et grossit rapidement.
Comparaison de performances expérimentales.
Reconf Triplex
1 2 3 4 5 1 2 3
Durée totale
ms
SMT-test 53 172 114 371 99 953 131 855 318 257 13 855 30 163 119 771
struct 800 883 2 063 5 587 10 078 1 627 4 785 23 413
hybrid 25 078 27 837 31 024 50 160 51 913 7 005 16 978 42 063
Nb. cubes
dans O
SMT-test 55 106 125 119 264 33 38 84
struct 37 38 84 153 243 26 31 51
hybrid 37 39 45 70 74 23 28 48
Durée
ms / itération
SMT-test 966 1 078 799 1 108 1 205 419 793 1 425
struct 21 23 24 36 41 62 154 459
hybrid 677 713 689 716 701 304 606 876
Extrapol.
ms / itération
SMT-test 938 1 049 768 1 075 1 163 369 618 919
struct 1.810 0.684 0.595 0.483 0.427 0.115 0.290 0.117
hybrid 652 687 661 686 667 261 361 392
Projection
ms / itération
SMT-test 11 9 6 8 9 8 11 14
struct 5 6 5 5 5 19 30 42
hybrid 10 10 9 9 8 8 11 14
Check-sat
ms / itération
SMT-test 16 19 24 23 32 42 163 491
struct 14 16 18 31 35 43 123 416
hybrid 14 16 17 21 25 34 234 469
Nous donnons ici les résultats sur deux systèmes2
: le premier est une logique triplex
fournie par Rockwell-Collins, qui mêle Booléens et réels, pour laquelle nous calculons les
1Outil disponible à https://cavale.enseeiht.fr/redmine/projects/smt-qe/files
2Disponibles à https://cavale.enseeiht.fr/redmine/projects/smt-qe/files
26Découverte d’Invariants 2.2 Une Architecture Collaborative
trois premières préimages ; le second est une logique de reconfiguration distribuée mêlant
Booléens et entiers, pour laquelle nous calculons les cinq premières préimages. Nous ne les
détaillons pas plus ici et dirigeons le lecteur intéressé vers [16].
Le tableau 7.4 montre la performance des techniques d’extrapolation au travers de différentes
métriques. D’abord, la durée totale d’exécution en millisecondes. Ensuite, le nombre
d’itérations de la boucle principale de QE, qui correspond aussi au nombre de cubes
dans la formule DNF résultat. Nous donnons ensuite la durée moyenne d’une itération de
la boucle principale de QE, en détaillant les contributions de : (i) l’extrapolation, (ii) la
projection, (iii) l’obtention du modèle.
Les tests nous ont permis de remarquer que la durée d’exécution et le nombre total
d’itérations de la QE avec SMT-test pouvait varier grandement, jusqu’à ±50% d’une exé-
cution à l’autre, sur une même formule. Ceci est dû à la sensibilité à l’ordre dans lequel
SMT-test considère chaque littéral et – comme pour les méthodes struct et hybrid, à l’ordre
dans lequel les modèles sont découverts. La méthode struct est la plus stable de toutes avec
des variations de durée d’exécution de seulement ±5%.
Les bénéfices de l’analyse structurelle sans tests SMT sont clairement mis en avant : la
méthode de QE avec extrapolation struct est de loin la plus rapide de toutes les techniques,
parfois de plusieurs ordres de grandeur (cf. Reconf 5, struct termine en 10 secondes contre
300 secondes pour SMT-test, en produisant un nombre de cubes comparable). La contrepartie
est aussi apparente : en ne considérant pas finement la sémantique des littéraux
manipulés, mais seulement leur rôle structurel dans la formule, des littéraux inutiles peuvent
s’accumuler dans l’extrapolant et le rendre moins général. Mais, dans les rares cas où
les DNF produites contiennent plus de cubes (cf. Reconf 4), elles sont malgré tout produites
beaucoup plus rapidement qu’avec les autres techniques.
Si la taille de la formule produite est importante pour l’application en question, le meilleur
compromis entre rapidité d’exécution et pouvoir de généralisation semble être atteint avec
la méthode d’extrapolation hybrid : elle produit des formules DNF jusqu’à trois fois plus petites
en nombre de cubes que struct ou SMT-test (cf. Reconf 5, 74 cubes en 50 secondes contre
243 cubes en 10 secondes avec struct, et 264 cubes en 300 secondes pour SMT-test), montrant
donc une capacité de généralisation supérieure. En outre, hybrid s’est avérée beaucoup plus
rapide que la technique SMT-test de référence dans tous les tests conduits, et la variance des
temps d’exécution est aussi beaucoup plus faible qu’avec SMT-test, de l’ordre de ±10%.
2.2 Une Architecture Collaborative
Notre architecture est paramétrée par un entier n indiquant la profondeur maximale à
laquelle le moteur de k-induction est autorisé à dérouler la formule de transition. La Figure
2.2 illustre le fonctionnement de l’architecture à haut niveau. Des méthodes générent
272.2 Une Architecture Collaborative Découverte d’Invariants
Potential
Invariant
Generator
Potential
Invariant
Generator
Potential
Invariant
Generator
k-induction
if contains PO Done
if contains PO
Minimization
potential
invariants
Un (contains PO)
Fn Vn
counter example
V
proof
found
new invariants Vmin
Figure 2.2: Une architecture collaborative basée sur la k-induction.
des invariants potentiels et les envoient au moteur de k-induction en charge d’identifier
ceux étant effectivement des invariants. Pour ce faire la k-induction construit de manière
incrémentale trois ensembles Fn, Un et Vn à partir d’un ensemble d’invariants potentiels
s contenant l’objectif de preuve comme suit. L’ensemble Fn contient les invariants potentiels
falsifiables par n-induction, i.e. ceux pour lesquels l’instance de base est satisfiable.
L’ensemble Un contient ceux pour lesquels l’instance de base est insatisfiable mais l’instance
de step est satisfiable : leur statut est non-défini (Undefined). Enfin, l’ensemble Vn contient
les invariants potentiels prouvables par n-induction.
Si l’objectif de preuve PO est dans l’ensemble Vn, alors l’analyse est terminée, PO a été
renforcé et est prouvable par n-induction. Si PO est dans l’ensemble Fn, alors un contreexemple
existe et PO n’est pas un invariant. Si PO est dans Un alors la k-induction recommence
l’analyse décrite ci-dessus avec les nouveaux invariants potentiels générés par les
autres méthodes de l’architecture. Les invariants découverts durant une analyse –les élé-
ments de Vn– sont quant à eux communiqués aux méthodes de génération d’invariants potentiels
dans le but de raffiner les analyses qu’elles effectuent.
Nous illustrons à présent la découverte d’invariants par instanciation de templates via
élimination de quantificateurs bénéficiant des améliorations apportées à l’algorithme de
Monniaux présentées en Section 2.1. Cette méthode, appelée BrutalIQe, est fortement inspirée
des travaux de Kapur [49, 50]. Nous supposons l’existence d’une base de données de
fonctions de la forme template(vars)(params) retournant une formule, comme par exemple
template(var1, var2)(min, max )
∆= (min ≤ var1 + var2) ∧ (var1 + var2 ≤ max ).
L’argument vars de la fonction représente des variables d’état du système et params les
paramètres de la template. L’idée est de trouver des valeurs p pour ces paramètres. Notons
tout d’abord que le fait que la formule produite est (1-)inductive est équivalent à
l’insatisfiabilité de la formule
instance de base
z }| {
(I(s) ∧ ¬template(sv)(p)) ∨
instance de step
z }| {
(template(sv)(p) ∧ T(s, s0
) ∧ ¬template(sv0
)(p)).
28Découverte d’Invariants 2.3 Découverte d’Invariants Potentiels par QE
Nous construisons ensuite la formule suivante, dont les modèles sont exactement les valeurs
des paramètres pour lesquelles la template est inductive :
∀s, s0
, ¬
(I(s) ∧ ¬template(sv)(fresh))
∨ (template(sv)(fresh) ∧ T(s, s0
) ∧ ¬template(sv0
)(fresh))
où fresh est un vecteur de nouvelles variables. Cette formule peut être réécrite en
¬
∃s, s0
, (I(s) ∧ ¬template(sv)(fresh))
∨ (template(sv)(fresh) ∧ T(s, s0
) ∧ ¬template(sv)(fresh))
.
Il est à présent possible d’utiliser l’élimination de quantificateurs pour éliminer les variables
d’état du système pour obtenir un caractérisation sans quantificateurs des paramètres :
C
∆= ¬QE
s ∪ s
0
, (I(s) ∧ ¬template(sv)(fresh))
∨ (template(sv)(fresh) ∧ T(s, s0
) ∧ ¬template(sv0
)(fresh))
.
C ne porte que sur les variables fresh ; si elle est insatisfiable, alors aucune valeur de fresh
ne peut rendre la template inductive sans davantage de renforcement. Si au contraire C est
satisfiable, un modèle fournit des valeurs pour les paramètres de la template permettant
d’obtenir des invariants inductifs par construction. La formule obtenue est alors envoyée
au moteur de k-induction dans l’espoir de renforcer l’objectif de preuve mais également
afin de communiquer l’invariant découvert aux autres méthodes du framework.
En pratique, nous utilisons BrutalIQe pour découvrir des bornes sur les variables détat
du système. Cela permet de réduire fortement l’espace d’états considéré par la k-induction
et les autres méthodes, leur permettant de raffiner leurs analyses.
2.3 Découverte d’Invariants Potentiels par QE
Nous abordons à présent la contribution principale de ce mémoire, une heuristique
de génération d’invariants potentiels combinant le calcul de préimages par élimination de
quantificateurs avec le calcul d’enveloppes convexes. L’approche, nommée HullQe, bénéfi-
cie grandement des améliorations apportées à l’algorithme de QE de Monniaux présentées
dans la Section 2.1 et se décompose en deux parties. Premièrement, un calcul de pré-images
de la négation de l’objectif de preuve PO construit itérativement une caractérisation des
états gris. Les états gris sont des états vérifiant l’objectif de preuve desquels une falsification
292.3 Découverte d’Invariants Potentiels par QE Découverte d’Invariants
de PO peut être atteinte en un certain nombre de transitions. Dans un second temps, une
analyse des partitionnements de la représentation partielle des états gris essaie d’infèrer
des relations entre les variables envoyées au moteur de k-induction en tant qu’invariants
potentiels.
2.3.1 Calcul de Pré-images
Cette première étape de notre heuristique de génération d’invariants potentiels consiste
à calculer une caractérisation de tous les états gris pouvant atteindre une falsification de
l’objectif de preuve PO en une transition. Ce calcul est itéré afin d’identifier des états gris de
plus en plus éloignés des états falsifiant PO. En pratique, nous nous intéressons à la suite de
formules suivante :
G1(s)
∆= QE(s
0
, PO(s) ∧ T(s, s0
) ∧ ¬PO(s
0
))
Gi(s)
∆= QE(s
0
, PO(s) ∧ T(s, s0
) ∧ Gi−1(s
0
)) (for i > 1).
Ainsi, Gi(s) caractérise tous les états pouvant atteindre une falsification de l’objectif de
preuve en i transitions ou moins. Si pour un certain i, Gi+1(s) ne caractérise pas davantage
d’états que Gi(s), un point fixe est atteint et tous les états gris ont été découverts. Si
aucun d’eux n’intersecte les états initiaux, i.e. (
V
0≤j≤i Gj (s))∧I(s) n’est pas satisfiable, alors
PO est un invariant du système.
Malheureusement, il n’est pas réaliste de s’attendre à atteindre un point fixe sur des
système complexe tels que ceux qui nous intéressent. Les caractérisations partielles des états
gris sont donc envoyées au fur et à mesure au second composant de notre heuristique en
charge de faire apparaitre des relations entre les variables par calcul d’enveloppes convexes.
2.3.2 Extraction d’Invariants Potentiels par Calcul d’Enveloppes Convexes
Notons tout d’abord que l’algorithme que nous utilisons pour le calcul de pré-images a
la propriété de produire des formules en forme normale disjonctive ou DNF, i.e. des disjonctions
de conjonctions de littéraux. Dans cette section nous utiliserons couramment le terme
polyhèdre pour nous référer à une conjonction de littéraux. D’un point de vue géometrique,
une formule en DNF correspond à une union de polyhèdres tels que ceux représenté sur la
Figure 2.3a et la Figure 2.3b.
En raison du grand nombre de polyhèdres apparaissant dans les pré-images calculées
sur nos systèmes, il n’est pas réaliste de calculer toutes les enveloppes convexes possible.
De plus, il est important de préserver la localité des polyhèdres. Il est donc nécessaire
d’établir des critères conditionnant le calcul des enveloppes covexes dans le but d’identifier
les groupes de polyhèdres proches les uns des autres.
30Découverte d’Invariants 2.3 Découverte d’Invariants Potentiels par QE
x ≥ y
x
y
(a) x ≥ y
x ≥ y
x ≥ 3
y ≤ 8
x
y
(b) x ≥ y ∧ x ≥ 3 ∧ y ≥ 8
Figure 2.3: Polyhedra examples.
Enveloppes Convexes Exactes
Le premier critère que nous proposons consiste à ne valider l’enveloppe convexe h de
deux polyhèdres p1 et p2 que si celle-ci est exacte ; c’est à dire si elle décrit exactement les
mêmes points que l’union des deux polyhèdres dont elle est issue. Plus précisemment, cela
signifie que h a exactement les mèmes modèles que p1 ∨ p2. Ce critère est particulièrement
intéressant pour des polyhèdres dont les littéraux sont dans l’arithmétique entière linéaire.
La Figure 2.4 illustre les nouvelles relations pouvant apparaître lors du calcul d’ECH sur des
polyhèdres entiers. Dans le cas réel, aucune de ces enveloppes convexes ne serait exacte, et
de façon plus générale il n’est pas possible de faire apparaître de nouvelles relations entre
des variables réelles au moyen d’ECH. Nous verrons que nous utilisons un critère différent
pour les traiter.
x
y
0 1 2 3 4
0
1
2
3
s1
s2
s3
s4
s5
Figure 2.4: ECH de polyhèdres entiers.
Nous proposons un algorithme hautement optimisé décrit dans la Section 9.2.1 permettant
de calculer efficacement toutes les ECHs calculables à partir d’un ensemble non redondant
de polyhèdres. Cela nous permet de faire apparaître de nouvelles relations entre les
variables d’états dirigées par le calcul de pré-images présenté dans la section précédente.
Cependant, les enveloppes convexes ainsi générées caractérisent des états gris, c’est à
dire des états que nous souhaitons bloquer lors d’une tentative de preuve par k-induction.
312.3 Découverte d’Invariants Potentiels par QE Découverte d’Invariants
tobs
ti
0
boundobs
boundi
tobs − ti < (max obs − max i − 1)
0 ≤ tobs ≤ max obs ∧ 0 ≤ ti ≤ max i
First pre-image
Second pre-image
Figure 2.5: Découverte d’invariant relationnels sur le système de reconfiguration.
C’est pourquoi l’extraction d’invariants potentiels considère l’ensemble des littéraux découverts
indépendamment de l’enveloppe convexe à laquelle ils appartiennent. Les invariants
potentiels envoyés à la k-induction sont finalement l’ensemble des négations de chacun de
ces littéraux. Les éléments de cet ensemble confirmés comme étant des invariants par le
moteur de k-induction sont garantis de bloquer au moins une partie des contre-exemples de
step fallacieux apparaissant dans un tentative de preuve par k-induction.
Nous illustrons à présent l’intérêt de cette approche sur notre système de reconfiguration.
L’objectif de preuve PO de ce système est que “aucune chaîne n’est en contrôle de
l’actuateur” ne peut pas être vrai pendant plus de n cycles. Pour détecter une falsification de
PO un observateur du système utilise un compteur s’incrémentant tant qu’aucune chaîne de
calcul n’est en contrôle, et est remis à zéro sinon. Aucun outil de vérification formelle n’est
capable, à notre connaissance, de conclure sur ce système. La difficulté de l’analyse réside
dans le besoin d’identifier des relations entre les compteurs du système pour la confirmation
des défaillances, ainsi que le transfert de contrôle d’une chaîne à une autre.
Grâce au calcul exhaustif d’enveloppes convexes exactes, notre outil est capable de renforcer
l’objectif de preuve en quelques secondes. Après le calcul de la deuxième pré-image,
150 invariants potentiels sont envoyés à la k-induction. 70 sont prouvés et renforcent PO. Il
s’avère que seulement trois sont nécessaire au renforcement de l’objectif de preuve, exprimant
des relations entre le compteur de l’observateur et ceux apparaissant dans le système
de reconfiguration. La Figure 2.5 illustre le processus de découverte de ces relations.
Il est à noter que les résultats obtenus ne dépendent pas de la valeur des bornes des
compteurs, auxquelles sont sensibles la plupart des autres techniques formelles. Ces compteurs
peuvent être amenés à compter des centaines, voire des milliers de cycles suivant la
spécification du système. La k-induction, IMC, ainsi que PDR doivent dérouler la relation
de transition un nombre de fois proportionnel ce qui provoque la divergence de l’analyse.
32Découverte d’Invariants 2.3 Découverte d’Invariants Potentiels par QE
Enveloppes Convexes Modulo Intersection
Le second critère que nous proposons consiste à n’accepter l’enveloppe convexe h de
deux polyhèdres p1 et p2 que si p1 et p2 ont au moins un point en commun, c’est à dire si
p1 ∧ p2 est exacte. Si h est légale par ce critère, nous dirons que h est l’ICH de p1 et p2.
Ce critère n’est pas plus permissif que ECH. En effet, les ECH présentées ci-dessus dans
le cadre de la vérification du système de reconfiguration ne sont pas légales par rapport à ce
second critère. Les ICHs diffèrent également des ECH de par le fait qu’elle font apparaître
de nouveaux points dans les enveloppes convexes qu’elles calculent. Leur but est de surapproximer
des régions de l’espace d’états gris tout en évitant de fusionner des polyhèdres
distants.
Sur nos systèmes, le nombre d’ICH calculable est en général beaucoup trop grand pour
adopter une approche exhaustive. C’est pourquoi nous proposons, dans la Section 9.2.4, un
algorithme consistant à éliminer les polyhèdres fusionnables et à les remplacer par leur ICH
avant de rechercher d’autres combinaisons de polyhèdre légales. Ce faisant, une abstraction
des zones disjointes de l’espace d’états gris est calculée. Nous appliquons ensuite la même
stratégie d’extraction d’invariants potentiels que pour les ECHs : L’ensemble des négations
de chaque littéral apparaissant dans le résultat de l’algorithme est envoyé à la k-induction.
Nous illustrons l’intérêt de cette approche sur le système de logique de vote fournit
par Rockwell Collins. L’objectif de preuve que nous considérons est que si les entrées du
système sont bornées, alors c’est également le cas de sa sortie. Des invariants relationels
renforçant la propriété ont été trouvés à la main [32] au prix de longues simulations, une
approche inadaptée à la vérification de systèmes critiques dans le cadre d’un processus de
développement. À notre connaissance, aucun outil de vérification formelle n’est capable de
vérifier ce système. La difficulté de l’analyse réside dans la nécessité de trouver des invariants
reliant les trois variables d’égalisation du système desquelles dépend directement la
valeur du signal de sortie. Grâce au calcul d’ICHs, notre outil est capable de vérifier ce système
industriel en quelques secondes. Environ 60 invariants potentiels sont générés, dont
30 sont prouvés par k-induction et renforcent l’objectif de preuve. Il s’avère que seulement
deux sont nécessaires. La Figure 2.6 illustre le processus de découverte de ces invariants,
les invariants trouvés par simulation sont représentés en gris clair. La Figure 2.6a montre
la première préimage de la négation de l’objectif de preuve en noir, alors que la Figure 2.6b
montre le résultat du calcul d’ICH.
Comme c’est le cas pour le calcul d’ECHs sur le système de reconfiguration présenté
dans la section précédente, l’analyse menée ici n’est pas sensible à la taille des intervalles de
validité supposés sur les entrées du système de vote ni de celui à prouver sur sa sortie. Ce
n’est pas le cas de la k-induction, ni d’IMC ou de PDR qui doivent dérouler la relation de
332.4 Le Framework Formel Stuff Découverte d’Invariants
(a) Logique de vote, première pré-image
(en noir). (b) Résultat du calcul d’ICHs (en noir).
Figure 2.6: Logique de vote en dimension deux.
transition un nombre de fois proportionnel à la taille de ces intervalles, et donc ne parviennent
pas à conclure.
2.4 Le Framework Formel Stuff
Nous avons implémenté l’architecture collaborative parallèle décrite dans la Section 2.2
dans notre framework formel Stuff (Stuff’s The Ultimate Framework). Ce dernier est écrit
en Scala et utilise le framework Akka qui propose une API, basée sur le formalisme des acteurs
[39], pour le développement de logiciels parallèles. Nous détaillons notre utilisation
des acteurs dans la Section 10.1 du mémoire. Le framework Akka confère à Stuff la possibilité
de spécifier, après compilation, comment déployer ses composants sur plusieurs coeurs,
voire même sur plusieurs machines au travers d’un réseau.
De plus, Stuff est également extensible dans l’implémentation de nouvelles techniques
qui se fait sans impact sur le code existant. Comme décrit dans la Section 10.2, les techniques
sont gérées à l’exécution au moyen du patron de conception des chaînes de responsabilité,
permettant au framework de gérer des techniques avec un minimum de connaissance sur la
façon dont elles fonctionnent.
Enfin, les solveurs SMT utilisés par Stuff peuvent être spécifiés après compilation, grâce
à une librairie générique implémentée par nos soins. Cette librairie, appelée Assumptio, est
détaillée dans le Chapitre 11. Assumptio est compatible avec les principaux solveurs SMT
respectant le standard SMT-LIB 2 : Z3, CVC4 et MathSat 5.
Stuff s’est montré très utile dans nos récents travaux visant à la vérification d’une chaîne
fonctionnelle complète. En le combinant avec un interprétateur abstrait [65] développé à
l’Onera, nous avons pu vérifier la stabilité en boucle ouverte de la chaîne représentée en Fig-
34Découverte d’Invariants 2.4 Le Framework Formel Stuff
ure 2.7. Bien que considérablement plus simple que les chaînes fonctionnelles industrielles,
la vérification de cet exemple exécutable est un premier pas vers l’analyse de systèmes plus
complexe. Les moniteurs de capteurs (Sat) sont vérifiés par interprétation abstraite en utilisant
des intervalles en tant que domaines abstraits. Stuff se charge de vérifier la correction
des systèmes de vote au moyen de l’analyse basée sur les enveloppes convexes modulo intersection
présentée en Section 2.3.2. Enfin, l’interpréteur abstrait conduit une analyse utilisant
des ellipsoides permettant de prouver la stabilité de la loi de commande. La stabilité
de la chaîne est ainsi vérifiée de bout en bout.
u
Controller
in0_d in1_d
Triplex
in0
Triplex
in1
System
in0_v
in1_v
in0a Sat
in0b Sat
in0c Sat
in1a Sat
in1b Sat
in1c Sat
Figure 2.7: Une chaîne fonctionnelle simplifiée.
35CHAPTER 3
Conclusion
3.1 Conclusion
La vérification de logiciels est un domaine de recherche très actif, mais malgré les impressionnantes
avancées de ces dernières décennies certains systèmes restent hors de portée
des techniques actuelles. Le but de cette étude était d’améliorer l’état de l’art sur le problème
de la vérification automatique des composants logiciels issus de systèmes critiques embarqués
avioniques, présentés dans le Chapitre 1. Nous nous sommes en particulier concentrés
sur la découverte d’invariants relationels dans le cadre d’un framework collaboratif centré
autour d’un moteur de k-induction. Nous espérons que nos travaux aideront à la diffusion
de la vérification formelle dans la communauté industrielle.
Tout d’abord, nous avons formalisé la notion de systèmes de transition en termes de
prédicats dans MSFOL (logique du premier ordre multi-sortée) en Section 1.2.1 et Section 1.2.2.
La formalisation complète est donnée en Chapitre 5 et Chapitre 6. Nous avons défini une
catégorie de signatures MSFOL dans laquelle les notions de trace, d’objectif de preuve, de
validité, etc. sont précisemment formalisés. Ce type de représentation est très répandu
dans la littérature, mais les détails mathématiques et en particulier la sémantique précise du
déroulement de la relation de transition sont souvent omis.
Nous avons présenté notre contribution principale dans le Chapitre 2, exposée en détail
dans la Partie II. Nous avons commencé par améliorer l’algorithme d’élimination de quantificateurs
(QE) de Monniaux sur l’arithmetique réelle linéaire en Section 2.1 (correspondant
au Chapitre 7). Cela nous a permis de gagner plusieurs ordres de grandeur dans le calcul
de pré-images sur des systèmes de transition, gain mis en évidence par nos expérimentations
sur un grand nombre de benchmarks. Nous avons également adapté l’algorithme
aux formules mélangeant arithmétique réelle, octogones entiers et booléens. Nous avons
ensuite proposé des méthodes de découverte d’invariants profitant des améliorations apportées
à l’algorithme de QE. Premièrement, une méthode basée sur des templates, appelée
BrutalIQe, s’inspirant des travaux de Kapur [49] en Section 2.2 (cf. Section 8.2). En pratique
cette technique est utilisée pour decouvrir des invariants sous forme d’intervalles en-3.2 Perspectives Conclusion
cadrant les variables d’état du système. Dans un deuxième temps, nous avons proposé,
HullQe, une nouvelle heuristique de découverte d’invariants en Section 2.3 –correspondant
au Chapitre 9. HullQe calcule des pré-images d’états dangereux et étudie leurs partitionnements
pour en extraire des invariants potentiels relationels. Enfin, nous avons proposé
une architecture de moteur de preuve parallèle collaboratif centré autour de la k-induction
en Section 2.2 (voir Section 8.1). Cette architecture permet aux techniques de découverte
d’invariants de coopérer grâce à l’intégration continue des invariants découverts.
Stuff est l’implémentation de cette architecture, présentée en Section 2.4 –et détaillée dans
la Partie III. Nous avons présenté le formalisme des acteurs sur lequel Stuff est bâti, ainsi
que son caractère extensible, notamment par rapport à l’ajout de technique sans impact sur
les techniques déjà implémentées, et par rapport aux solveurs SMT utilisés pouvant être
spécifiés après compilation.
Nous avons évalué l’intêret de notre approche collaborative proposée dans ce mémoire
sur un système de reconfiguration et un système de vote fourni par Rockwell Collins. Stuff
conclut en quelques secondes grâce à la collaboration entre les différentes méthodes du
framework.
Enfin, nous avons étudié la combinaison de notre outil avec un interpréteur abstrait [65]
dans l’optique de la vérification d’une chaîne fonctionnelle complète. Grâce à cette combinaison
nous avons pu vérifier automatiquement une partie d’une chaîne fonctionnelle comportant
des entrées correspondant à des capteurs tripliqués, des moniteurs de capteurs, des
systèmes de vote et une loi de commande contrôllant un actuateur. Les résultats obtenus
sur un système exécutable représentatif sont une avancée vers la vérification de chaînes
fonctionnelles industrielles.
3.2 Perspectives
3.2.1 Élimination de Quantificateurs
L’élimination de quantificateurs (QE) est une brique de base utilisée par toutes les techniques
de découverte d’invariants présentées dans ce mémoire. Une direction naturelle de
recherche est donc d’étendre notre technique de QE à des fragments plus généraux, tels
que l’arithmétique entière linéaire et l’arithmétique réelle non-linéaire. De telles extensions
impacteraient l’ensemble du framework et permettraient d’évaluer la pertinence de notre
approche sur des systèmes s’exprimant dans des fragments plus complexes. De ce point de
vue, les limitations se situent au niveau de la phase de projection. En effet, les solveurs SMT
actuels sont déjà capables de traiter ces fragments, et notre analyse structurelle est tout à fait
compatible avec eux.
38Conclusion 3.2 Perspectives
Pour ce qui est de la projection de (conjonction de) littéraux, les techniques Cylindrical
Algebraic Decomposition (CAD [21]) et Virtual Substitution (VS [79, 80]) sont capables de
manipuler l’arithmétique entière non-linéaire. Malheureusement, elles sont loin de passer
à l’échelle sur des problèmes d’élimination de quantificateurs extraits de la vérification de
systèmes industriels tels que les notres. Augmenter le pouvoir d’expression des formules
d’entrée de la procédure de QE ne doit pas se faire au détriment de ses performances : toutes
nos techniques, excepté la k-induction, s’appuient fortement sur la rapidité de la procédure
de QE. Changer la phase de projection pour CAD ou VS causerait une baisse en performance
conséquente, et pourrait rendre le framework dans son ensemble inutilisable. Nous pensons
que davantage de recherche sur ce sujet est nécessaire, par exemple en identifiant des
sous-fragments de l’arithmétique non-linéaire pour lesquels des algorithmes de QE efficaces
existent. Une autre direction d’intêret est la combinaison des approches susnommées [72].
3.2.2 HullQe
La méthode HullQe est composée de deux parties : un calcul incrémental de pré-image
et les heuristiques étudiant celles-ci afin d’en extraire des invariants potentiels. Des invariants
relationel pertinents sont découverts en fusionnant les différents polyhèdres apparaissant
dans les pré-images. L’explosion du nombre d’invariants potentiels générés est limitée
par des critères conditionnant la fusion de deux polyhèdres. Une première heuristique
n’autorise une fusion que si celle-ci est exacte, la deuxième impose que les deux polyhè-
dres aient au moins un point en commun. Il serait intéressant d’évaluer des critères plus
permissifs sur des systèmes réalistes.
De plus, introduire un mécanisme d’abstraction dans le calcul de pré-image pourrait
accélérer le calcul des états gris et permettre de découvrir de nouveaux invariants. Des
travaux récents [22] introduise une technique d’abstraction adaptable a priori dans le calcul
de pré-images : si une trace contre-exemple partant des états initiaux est découverte, un
algorithme détermine quelles approximations la rendent possible –dans le cas où cette trace
ne constitue pas un vrai contre-exemple– et les annule.
3.2.3 Property-Directed Reachability
PDR est une technique très prometteuse, conçue à l’origine pour des systèmes purement
propositionnels. Généraliser cette approche au cas SMT n’est pas simple : les auteurs de [19]
proposent une adaptation de PDR à l’analyse de programmes sous la forme de Control Flow
Graphs (CFG) contenant de l’arithmétique. Ils proposent une version “ramifiée” de PDR qui
réduit l’explosion combinatoire de l’espace de recherche en bloquant des cubes pour des
branches abstraites du propramme au lieu d’essayer de les bloquer pour le système entier.
Il serait très intéressant d’adapter cette approche à l’analyse de programmes Lustre.
393.2 Perspectives Conclusion
3.2.4 Stuff
Les travaux présentés dans ce mémoire omettent le cas où l’objectif de preuve n’est pas
un invariant du système considéré. Il est alors important de produire un ou plusieurs contreexemple(s)
de manière efficace, ce qui peut s’avérer problématique pour des systèmes réalistes.
PDR prend en compte les états initiaux tout au long de l’analyse, et effectue une
exploration en arrière des antécédents de la négation de l’objectif de preuve. Cette stratégie
rend PDR capable de trouver des contre-exemples bien plus rapidement que le BMC et la
plupart des autres méthodes formelles, a fortiori dans sa version ramifiée.
La recherche de contre-exemples est d’un grand intêret pour les industriels de notre domaine
et dans le cadre de la coûteuse phase de détection et correction de bugs. Malheureusement
les traces contre-exemple produites par les méthodes formelles sont généralement constituées
d’états concrets trouvés par des solveurs SMT. Il est donc souvent difficile pour les
dévelopeurs d’identifier l’origine du bug dans le modèle, en particulier pour des traces de
centaines ou de milliers d’états. PDR diffère de la plupart des autres méthodes et produit,
non pas une unique trace, mais une classe de contre-exemples sous la forme d’une séquence
de cubes. Il serait intéressant d’évaluer l’intêret de ces contre-exemples abstraits pour les
concepteurs de systèmes critiques lors de la phase de correction de bugs dans un contexte
industriel.
Enfin, nous projetons de continuer nos travaux visant à la vérification de chaînes fonctionnelles
complètes grâce à la combinaison de notre framework et de l’interpréteur abstrait
introduit dans [65]. Nous insistons sur le besoin de cas d’étude, idéalement industriels.
Nous avons étudié avec succès une famille importante de propriété en boucle ouverte, mais
davantage de recherche est nécessaire pour étendre et améliorer ces résultats. En particulier
pour automatiser la décision de la méthode à employer pour analyser chaque sous-système.
Il est également primordial d’assurer le passage à l’échelle de l’approche aux système réels,
pouvant utiliser plus de dix fois plus de variables d’état.
40PART I
Introduction
Critical systems are systems the failure of which has catastrophic consequences such
as human casualties, economic loss, etc. They are typically encountered in fields such as
aerospace, avionics, automotive, rail transport, nuclear plants, medical equipment, hardware
design. . . There is thus a strong interest in (i) establishing precise specifications of
those systems, and (ii) making sure that the final product is correct with respect to the specifications.
The work presented in this thesis focuses on the latter in the context of software
components of avionics critical embedded systems.
Until recently, the industry in our domain is mostly relying on a process-based quality
assurance approach. The introduction of the DO-178C avionics norm and of its formal methods
supplement DO-333 published by RTCA1
shows a will to consolidate this process-based
approach with a product-based quality assurance one.
Process-based quality assurance consists in a thorough inspection of the process leading
to the creation of the product. If the process is deemed trustworthy, then so is the resulting
product. For avionics hardware parts for example the design and production of components
are closely monitored at the process level. They are then tested against their specification by
sampling the global production rather than testing all of them.
Product-based quality assurance on the other hand aims at verifying, in a sound way,
that the final product itself meets its specification. This especially applies to software, for
which there exists methods amenable to automation to prove mathematically that the software
itself respects its specification. These methods, established by the research community
in computer science, are called formal methods. The interest of the approach is strengthened
by the fact that software is made of zeros and ones which can be easily duplicated without
any margin of error, which is not the case of hardware.
Avionics critical embedded systems are traditionally developed in a high-level language
(model level) different from the final implementation language (code level). Formal methods
are available for each phase of this development process:
• formal specification [71, 35] provides languages with mathematical semantics and al-
1http://www.rtca.org/lows one to express what the system should do;
• verification of models against high-level specifications [16, 17, 23, 55, 12, 6] proves
mathematically that the design of the system respects its specification;
• code generation from high-level models [13] produces code respecting the semantics
of the high-level language, thus preserving the verification effort thanks to certified /
proved compilers.
The work presented in this thesis focuses on the automatic verification of models against
their specification. Indeed, while certification organisms acknowledge the existence of formal
methods and advise to use them, there is a gap to bridge between their capabilities and
the systems and specifications encountered in the industry. In practice verification of arbitrary
functional properties on realistic systems often requires expert knowledge about the
systems analyzed and the verification technique(s) used. The spread of formal verification
in the industrial community is hindered by this need for costly and time-consuming expert
intervention.
The goal of this thesis is to improve on the state of the art of formal verification in our
application domain by (i) improving its automation on common design patterns found in
avionics systems; (ii) finding proofs that can be quickly re-checked and are thus trustworthy.
To achieve these goals we propose to study the collaboration of existing formal methods –
such as SMT solving, k-induction, Quantifier Elimination, etc. – to propose a methodology
for the automatic discovery of lemmas easing the process of concluding the proof. Also, this
work focuses on parallel algorithms, consistently with the current trend of multi-core and
many-core computers.
In this part of the thesis, we expose further the problem of formal verification of avionics
critical systems at the model level in Chapter 4. We discuss languages used in model
level conception in Section 4.1 and present common avionics design patterns in Section 4.2.
Chapter 5 introduces basic formal notions to model the verification problems in Section 5.1
and presents building blocks to work on said verification problems, SAT and SMT solvers,
in Section 5.2. Then, Chapter 6 formalizes the representation of critical systems thanks to
transition systems in Section 6.1 and reviews the state of the art of transition system verification
in Section 6.2 and Section 6.3. Part II presents our main contribution, a parallel
collaborative proof engine architecture as well as invariant discovery methods to incorporate
in this framework. Part III presents the most interesting aspects of our implementation
of this proof engine, called Stuff.
2CHAPTER 4
Problem
In this thesis, we focus on the analysis of embedded reactive systems [38]. These systems
sample their environment using sensors, and compute an output used as a command
for an actuator. Sampling is performed at regular intervals specified by the frequency of
the system. We consider embedded reactive software functions which contribute to the
safe operation of collections of hardware sensors, networked computers, actuators, moving
surfaces, etc. called functional chains. A functional chain can for instance be in charge of
"controlling the aircraft pitch angle", and must meet both qualitative and quantitative safety
requirements depending on the effects of its failure. Effects are ranked from MIN (minor effect
with no casualties) to CAT (catastrophic effect with casualties). For instance, the failure
of a pitch control function is ranked CAT, and it shall be robust to at least a double failure
and have an average failure rate of at most 10 −9 per flight hour. In order to meet these requirements,
engineers must introduce hardware and software redundancy and implement
several fault detection and reconfiguration mechanisms in their software.
Software development is hard, even more so when developing real-time systems. To
address this issue, programmers first design their programs in a language abstracting away
real-time constraints. A code generator then produces low-level code targeted in real-time
operating systems. We present design languages, and in particular the Lustre language, in
Section 4.1. We then present our use case in Section 4.2, a typical avionics functional chain.
We will focus in particular on the reconfiguration and voting subsystems.
4.1 Lustre: A Synchronous Programming Language
Embedded systems in general and functional chains in particular have to comply with
real-time constraints such as release dates and deadlines on the computations, assuming a
non-faulty hardware. Low-level Application Programming Interfaces (API) such as POSIX [37]
are now widely used for development of small real-time systems. To develop complex functional
chains however, using such a low-level approach is tedious and error-prone, and
overall unrealistic. This is why during the eighties synchronous languages such as Lustre [36],
Esterel [7] and Signal [5] were proposed. The idea behind the synchronous paradigm is to4.1 Lustre: A Synchronous Programming Language Problem
provide designers with a language which (i) allows one to design real-time systems at a
higher level of abstraction; (ii) is formal, i.e. the semantics of a program is not ambiguous.
In the following we will refer to this level of abstraction as the model level, as opposed to code
level which is the code generated from a synchronous language. At the model level, realtime
constraints are abstracted to the notion of steps or cycles, and the following hypothesis
is assumed.
Definition 4.1.1 (Synchronous Hypothesis) The Synchronous Hypothesis consists in viewing
time as a succession of discrete instants at which computations take place instantly. Each of
these instants defines a global state, yielding a state machine or transition system semantics.
System design the at model level has many benefits. The most immediate from an industrial
point of view is that it shortens development processes by letting the code generator
handle the difficult part of implementing the high-level design by generating the low-level
code. It is thus not surprising that synchronous languages have been rapidly adopted by
embedded system designers. Most notably, the Esterel Technologies company1 provides
them with a complete suite of tools, the SCADE SuiteR , including the KCG code generator
certified/qualified according to international rail transport, nuclear energy, automotive
and avionics standards. The SCADE suite is centered around the SCADE language, which
is similar to Lustre. Verification, debug, coverage analysis. . . techniques are applied at the
model level, on SCADE programs. Verification at the model level is a rewarding approach:
as the code generator is trustworthy, a proof at the model level ensures the code generated
respects the specification.
Let us now give a brief overview of the Lustre language. It is the input language of the
verification tool in which the techniques discussed in this thesis have been implemented. In
addition to being a synchronous language, Lustre is a dataflow language: every variable or
expression is an infinite flow, or stream, of values following the rhythm of a clock. Every
Lustre program has a base clock, which represents the smallest, indivisible discrete steps for
the program. All the other clocks are streams of Boolean values for each instant defined by
the base clock and sample streams at a different, slower rate than the base clock. Consider
for instance the following Lustre program defining a node, i.e. a set of equations. Counter
c1 counts the number of cycles of the base clock and c2 counts the number of times clock,
the Boolean input of the system, is true.
1http://www.esterel-technologies.com/
4Problem 4.1 Lustre: A Synchronous Programming Language
node counters(clock: bool) returns (c1,c2: int);
let
c1 = 0 -> pre(c1) + 1;
c2 = 0 -> if clock then (pre(c2) + 1) else pre(c2);
tel
The equations linking the counters to the input are between the let and tel keywords.
Output c1 is initially zero, and at each step after that – operator -> – is equal to its value in
the preceding step plus one. Keyword pre is a unit delay operator defining a memory or latch.
The memory contains the value of the expression given as argument at the previous step. So
pre(c1) represents the value of stream c1 at the previous step. Stream c2 is also initially
zero but must stay the same when clock is false, and be equal to its previous value plus
one otherwise. Now, this node is observationally equivalent to the following one.
node counters(clock: bool) returns (c1,c2: int);
var
c2C: int;
let
c1 = 0 -> pre(c1) + 1;
c2C = (0 -> (pre(c2C) + 1)) when (true -> clock);
c2 = current(c2C);
tel
A local variable, c2C, has been introduced and follows a different clock than the base
one. The when keyword indicates that c2C is present – its clock ticks and its value is defined
– when (true -> clock) is true, i.e. in the initial state and whenever clock is true.
When it is not present, c2C is absent: it has no value. An example of trace – sequence of legal
values for the flows of the system – follows. With the exception of the line corresponding to
c2C, it is also a trace for the first version of the counters node since they are equivalent.
base clock true true true true true true true . . .
pre(c1) – 0 1 2 3 4 5 . . .
c1 = 0 -> pre(c1) + 1 0 1 2 3 4 5 6 . . .
clock false false true true false false true . . .
true -> clock true false true true false false true . . .
c2C 0 – 1 2 – – 3 . . .
c2 0 0 1 2 2 2 2 . . .
Notice that Lustre is a declarative language: "=" denotes a constraint via an equation,
and is not an assignment. Hence the body of the node is defined in a declarative manner by
a set of equations. Now, consider the Lustre program on Figure 4.1. Node middleValue
returns the middle value of its three inputs. It also outputs a Boolean flag faulty which
54.1 Lustre: A Synchronous Programming Language Problem
-- Returns the absolute value of its input.
node abs(n: int) returns (result: int);
let
result = if (n < 0) then -n else n;
tel
-- "ok" becomes and stays false as soon as "in" escapes
-- the -"bound", +"bound" interval.
node bounded(in, bound: real) returns (ok: bool);
let
assert(bound > 0);
ok = true -> pre(ok) and (abs(in) < bound);
tel
-- Returns the middle value of "in1", "in2" and "in3", and
-- "faulty" which is true as soon as an input escapes its interval.
node middleValue(in1, in2, in3, bound: real) returns (middle:
real; faulty: bool);
var
c12, c13, c23, toProve: bool;
let
assert(bound > 0);
c12 = in1 > in2;
c23 = in2 > in3;
c31 = in3 > in1;
middle = if (c12 = c23) then in2 else
if (c23 = c31) then in3 else in1;
faulty = not (bounded(in1,bound) and
bounded(in2,bound) and
bounded(in3,bound));
tel
Figure 4.1: A simple Lustre program.
indicates whether the inputs have always been in a specified interval or not, i.e. it becomes
true as soon as an input escapes its bounds, and stays that way forever. This nodes use the
assert keyword specifying a constraint on the flows.
6Problem 4.1 Lustre: A Synchronous Programming Language
bounded
in
bound
ok
true
abs
<
and →
pre
Figure 4.2: Network representation of the bounded node.
A Lustre program is a hierarchical network of nodes and operators connected by dataflow
variables. Figure 4.2 for instance represents the bounded node in SCADE-like representation.
Note the instantiation of the abs node, which means that an instance of the network
corresponding to abs should be placed here. As another example, the middleValue node
instantiates the bounded node three times, each with their different pre memories. The
result is clear and unambiguous semantics for the Lustre programs.
Verification. The node observer on Figure 4.3 illustrates the usual approach to the verifi-
cation of Lustre programs. Its inputs correspond to the inputs and outputs of the middleValue
node. It produces the value true at steps for which the value of result is within a certain
range, and at steps where faulty is true. Node top instantiates nodes of the system and
returns the status of the observers – only one in this example. The verification challenge is to
prove that the observers always produce the value true. If this is the case on our example,
then in all possible executions, whenever an input escapes its legal boundaries the faulty
flag is raised and stays that way. Such properties are called safety properties: they specify
the correct behavior of the system and should hold in any state of the system.
They differ from liveness properties which express that "if is true,
then eventually it must be true that ". For instance, it could be the case
that the faulty flag is not raised immediately when an input escapes its bound. Instead,
the system could wait for the input to stay out of its bounds for n steps to confirm that
the input is indeed faulty. The specification could then be the bounded liveness property
"if an input stays out of bounds for n consecutive steps, then the faulty flag is raised".
Bounded liveness properties can be seen as safety properties as illustrated on Figure 4.4
using a counter node to count the number of cycles the inputs have been out of bounds
for. This is not the case for unbounded liveness properties, such as "if an input stays out
of bounds (for an arbitrary long time), then eventually the faulty flag will be raised",
unless the system has a finite number of states [8], or for some special classes of infinite state
systems [68].
74.2 Safety Critical Avionics Systems Verification Problem
node observer(in1, in2, in3, bound, result: real; faulty: bool)
returns(
toProve: bool
);
let
assume(bound > 0);
-- As long as "faulty" is false, "result" is bounded by "bound".
toProve = bounded(result,bound) or faulty;
tel
node top(in1, in2, in3, bound: real) returns (ok: bool)
var
result: real;
faulty: bool;
let
assume(bound > 0);
(result,faulty) = middleValue(in1,in2,in3,bound);
ok = observer(in1,in2,in3,bound,result,faulty);
tel
Figure 4.3: The observer pattern.
The last category of properties are those of fairness, which express the fact that if something
is always possible then it must be done infinitely often. These properties are typically
used to specify that when some concurrent processes run in parallel and try to access a resource
concurrently, then if a process can always gain access to it then at some point it will.
In the following however we will only consider safety properties.
As we shall see in the presentation of our use case, industrial critical embedded systems
are very complex: this results in what is known as the combinatorial explosion of the state
space. The reachable state space, the set of all states the system can reach from its initial states,
is so huge that it cannot be represented, or is simply infinite. Chapter 6 discusses a compact
representation to conduct formal analyses on.
8Problem 4.2 Safety Critical Avionics Systems Verification
node counter(condition: bool; max: int) returns (maxed: bool);
var cpt: int;
let
assume(max > 0);
cpt = 0 -> if (condition) pre(cpt)+1 else 0;
maxed = cpt > max;
tel
node observer(
in1, in2, in3, bound, result: real; faulty: bool
) returns(ok: bool)
let
assume(bound > 0);
problemConfirmed = counter(not bounded(result,bound),42);
ok = (not problemConfirmed) or faulty;
tel
Figure 4.4: Bounded liveness property as a safety property.
Channel
Sensors
Order (x3)
Speed (x3)
Pitch (x3)
SMon
SMon
SMon
Voter
Voter
Voter
Law AMon Actuator
Figure 4.5: A Single Computation Channel.
4.2 Safety Critical Avionics Systems Verification
Figure 4.5 presents a computation channel corresponding to the function "controlling the
aircraft pitch angle" as usually found in avionics functional chains. Note that the sensors
are triplicated to tolerate sensor faults and hence reduce the failure rate of the sampling.
At each cycle, the channel samples the Speed, Pitch, and Order2
sensors. All the values
sampled go through sensor monitors (SMon) in charge of detecting temporary or permanent
failures such as out-of-bounds values. The signals then enter a triplex voter (Voter); the voter
2Order is the command from the pilot.
94.2 Safety Critical Avionics Systems Verification Problem
Sensors
Order (x3)
Speed (x3)
Pitch (x3)
Channel1
Channel2
Channel3
Reconf
Reconf1
Reconf2
Reconf3
Actuator
Figure 4.6: Triple Channel Functional Chain.
performs additional failure detection and outputs one single signal for, say, speed based on
the three speed values sampled – the simple Lustre program from Figure 4.1 can be seen
as a toy example of voting logic. The next block is the control law (Law) which computes
the signal to send to the actuator using a single input value for order, speed and pitch. The
signal also goes through an actuator monitor (AMon) which makes sure that the command
is indeed enforced by the actuator. If it is not the case, a failure flag is raised.
In order to further reduce the failure rate of this critical function of the aircraft, computation
channels are triplicated (Figure 4.6): the computations are performed by three redundant
channels running on separate hardware, each using distinct communication wires. To
decide which channel actually controls the actuator, a reconfiguration mechanism (Reconf) is
distributed over the three channels. It is responsible of the safety aspect of the triplication,
reconfiguring the system in case a channel is considered corrupted because it either consumes
or produces invalid data. In fact, whatever the output of each channel is, the reconfiguration
mechanism should ensure that no command dangerous for the actuator or the aircraft
is output by the triplicated architecture, and that proper flags are raised to inform the pilot
whenever a failure is detected.
Note that an incorrect output should not immediately mark a channel as corrupted. It
could be that the disturbance is temporary, e.g. because of a thunderbolt nearby causing
an electromagnetic perturbation. So, only if the output is incoherent for more than n cycles
will the failure be considered permanent. To detect incoherent outputs and be able to produce
a correct command while a timer counts the n cycles, functional chain designers can
use a technique called shuffle. It typically takes place after the control law computation, as
illustrated on Figure 4.7: each channel has access to the control law output computed by the
other channels. The actual output of a channel is the result of a vote between those three
values. This allows a channel to detect that it is incoherent on its own and count the n cycles
while still producing a correct output. There is also a timer used before switching between
a corrupted channel and a safe one; it can be the case that because of a temporary perturbation
the channel in control stops sending a command for a short time. Also, channels
10Problem 4.2 Safety Critical Avionics Systems Verification
Law Voter
Law Voter
Law Voter
Figure 4.7: The shuffle mechanism.
usually need to perform several checks before taking control to assess precisely the state of
the actuator.
As mentioned above, each channel runs on separate hardware, but it can be the case that
the different parts of one channel also run on different hardware components. In that case
functional chain designers can go further and allow the system to deactivate only part of a
channel. For instance, assume channel 1 has control but realizes that the voter after the control
law does not produce any output anymore because of a hardware failure. If the control
law of channel 1 – running on different hardware than the voter – is still operative then it
could be decided that control is transferred to channel 2, but that the control law of channel
1 keeps computing and participates in the voting now taking place on channel 2.
Functional chains are extremely complex, and so is their specification [67]. Verification
of the software of a full functional chain is thus a challenge for current techniques and tools.
Even with a modular approach, individual verification problems are far from trivial. The
objective of this thesis is to provide generic techniques for the verification of systems such
as voting and reconfiguration logic implementations. These systems make extensive use of
linear integer arithmetic because of the many timers they rely on for fault confirmation and
transition between faulty channels, as well as linear real arithmetic when handling a signal.
The voting logic for instance has to maintain a certain continuity in its output: the control
law expects values consistent with the real world and unexpected behavior could arise, were
its inputs to show discontinuities because of sensor failures. In particular, we will focus on
the Rockwell Collins triplex voter system and an implementation of reconfiguration logic,
the code of which is available in Appendix A. Control law systems differ from voting and
reconfiguration in that they are based on differential equations. They can be non-linear or
require a non-linear analysis and are outside the scope of this study.
11CHAPTER 5
Mathematical Background and Notation
This chapter gives notation and notions in order to define the problem of Boolean satisfi-
ability (SAT) and Satisfiability Modulo Theory (SMT). We will use SMT solvers extensively
in this thesis. We begin by defining many-sorted first-order logic in Section 5.1. We then
present the modern approach to solving SAT and SMT problems in Section 5.2. Last, we
discuss the SMT-LIB 2 standard and additional features encountered in most state of the art
solvers in Section 5.3.
5.1 Many-Sorted First-Order Logic
This section formalizes the concepts required to define many-sorted first-order logic. The
syntax of the logic allows the construction of sequences of symbols and is defined in Subsection
5.1.1 with the notions of many-sorted first-order signature and formula. In Subsection
5.1.2, semantics is given by structures over a many-sorted signature. Semantics gives
meaning to the sequences of symbols allowed by the syntax. We then formally introducing
logics in Subsection 5.1.3 before briefly discuss proof systems in Subsection 5.1.4.
5.1.1 Syntax
Definition 5.1.1 (Many-sorted signature) A many-sorted first-order signature Σ is a tuple h
Sorts, Var, Fun, Rank i consisting of:
• a set of sorts Sorts containing at least the sort Bool;
• a countably infinite set of variable symbols Var ∆= {v1, v2, . . . }, usually implicit when
defining an actual signature;
• a set of function symbols Fun such that Fun ∩ Var is empty and Fun contains ∧, ∨, ¬, ⊥,
>, and =;
• a left-total relation Rank on Fun × Sorts+.
Each sort sequence associated to f by Σ is a rank of f.5.1 Many-Sorted First-Order Logic Mathematical Background and Notation
Intuitively, the sorts of a signature are types used by the function symbols to specify their
ranks. Note that overloading is supported: a function can have multiple ranks. We will rely
heavily on the following notation to discuss function symbols ranks. Given a signature Σ,
we write f(σ1, . . . , σn) : σ for (f, σ1 . . . σn σ) ∈ Rank and f : σ if n = 0, in place of f() : σ.
Core signature. Core is the many-sorted signature h{Bool}, ∅, Funcore , Rank core i composed
of the following function symbols:
∨ (Bool, Bool) : Bool ∧ (Bool, Bool) : Bool ¬ (Bool) : Bool
> () : Bool ⊥ () : Bool = (Bool, Bool) : Bool
Definition 5.1.2 (Legal many-sorted signatures) A legal many-sorted signaturehSorts, Var, Fun, Ranki
is a many-sorted signature such that Bool ∈ Sorts, Fun ∈ Funcore , Rank ∈ Rank core , and for
all σ ∈ Sorts: = (σ, σ) : Bool ∈ Rank. In the following we consider only legal signatures.
For the sake of readability we will omit the word "legal".
Definition 5.1.3 (Abstract syntax) Given a many-sorted signature Σ, the abstract syntax of
Σ-terms is given by the following Extended Backus-Naur Form (EBNF [53]):
T ::= v | f T∗
| f
σ T
∗
| ∃(x : σ)
+ T | ∀(x : σ)
+ T | let (x = T)
+ in T | (T)
where f ∈ Fun, σ ∈ Sorts and v ∈ Var. f T∗
is called a function application, and so is f
σ T
∗
.
let . . . in . . . is called a (parallel) let-binding. Symbols ∀ and ∃ are called quantifiers.
Function application f
σ distinguishes between applications of function symbols with
more than one rank. This is made explicit in the rule (sfun) in the following rules of wellsortedness.
Definition 5.1.4 (Rules of well-sortedness) Given a many-sorted signature Σ, an environment
E is a set of statements v : σ, read as “v has sort σ”, where v ∈ Var and σ ∈ Sorts. We
say that “term t is well-sorted of sort σ in E”, written E ` t : σ, if t is derivable by the following
sorting rules:
E ` v : σ
(var) if v : σ ∈ E
E ` t1 : σ1 . . . E ` tn : σn
E ` (f t1 . . . tn) : σ
(fun) if
f(σ1, . . . , σn) : σ ∈ Σ and
f(σ1, . . . , σn) : σ
0 6∈ Σ for all σ
0 6= σ;
E ` t1 : σ1 . . . E ` tn : σn
E ` (f
σ
t1 . . . tn) : σ
(sfun) if
f(σ1, . . . , σn) : σ ∈ Σ and
f(σ1, . . . , σn) : σ
0 ∈ Σ for some σ
0 6= σ;
14Mathematical Background and Notation 5.1 Many-Sorted First-Order Logic
E ∪ {v1 : σ1, . . . , vn : σn} ` t : Bool
E ` (Q v1 : σ1 . . . vn : σn t) : Bool
(Q) if Q ∈ {∃, ∀} and n > 0;
E ` t1 : σ1 . . . E ` tn : σn E ∪ {v1 : σ1, . . . , vn : σn} ` t : σ
E ` (let v1 = t1 . . . vn = tn in t) : σ
(let) if n > 0.
We say that a term t is well-sorted of sort σ if it is well-sorted of sort σ in {}, the empty
environment. A well-sorted term is quantifier free if no quantifier appears in it – the (Q) rule
is never used in its well-sortedness derivation. A well-sorted formula in E is a well-sorted
term of sort Bool in E.
Definition 5.1.5 An atom is a formula in which the logical connectives ∧ (conjunction), ∨
(disjunction) and ¬ (negation) do not appear. A literal is a or ¬(a) where a is an atom. A cube
(resp. a clause) is a conjunction (resp. a disjunction) of literals. A formula is in Disjunctive
Normal Form (DNF) if it is a disjunction of cubes. A formula is in Conjunctive Normal Form
(CNF) if it is a conjunction of clauses.
Additional notation. It is possible to define a concrete syntax using Polish prefix notation:
an application of f(σ1, . . . , σn) : σ is of the form (f t1 . . . tn). While this notation is ideal
for machines as it is easy to parse and print, it is usually painful to process for humans
who are more accustomed to infix notation for applications of common function symbols,
e.g. (n + 1 > 3) ∧ b instead of (∧ (> (+ n 1) 3) b). In this thesis we will manipulate
terms extensively. We thus lighten their representation: application of f(σ1, . . . , σn) : σ will
usually be written f(t1, . . . , tn) instead of f t1 . . . tn with the following alternatives:
(t1 f t2) if n = 2, (f t1) if n = 1, or simply f if n = 0. Also, we allow ourselves to write
Q(v1 : σ1, . . . , vn : σn) t for Q v1 : σ1 . . . vn : σn t
where Q ∈ {∀, ∃}, and
let (v1 = t1, . . . , vn = tn) in t for let v1 = t1 . . . vn = tn in t.
The following operator precedence rules apply, where Q is a quantifier: = ¬ ∧ ∨
Q(. . .). where means “has precedence over”. Also, in a signature with function symbols
∗, −, +, ≥, ≤, >, < the following precedence convention will be followed:
∗ − + {≥, ≤, >, < } =
For example, n + 1 > 3 ∧ b is the same as ((n + 1) > 3) ∧ b and as ∧(> (+(n, 1), 3), b). Last,
we will often use the shorthand ⇒ defined as φ ⇒ ψ
∆= ¬φ ∨ ψ where φ and ψ are formulas.
Note that "∆=" represents meta-equality and should be read as "is defined as". It differs from
"=" which is just a function symbol in the signature.
15
Méthodes s´equentielles de Monte Carlo pour le suivi
d’objets multiples h´et´erog`enes en donn´ees brutes de
t´el´em´etrie laser
Elodie Vanpoperinghe ´
To cite this version:
Elodie Vanpoperinghe. M´ethodes s´equentielles de Monte Carlo pour le suivi d’objets multiples ´
h´et´erog`enes en donn´ees brutes de t´el´em´etrie laser. Other. Universit´e du Littoral Cˆote d’Opale,
2014. French. .
HAL Id: tel-00983352
https://tel.archives-ouvertes.fr/tel-00983352
Submitted on 25 Apr 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Thèse de doctorat
De l’Université du Littoral Côte d’Opale
Présentée par
Élodie Vanpoperinghe
Pour obtenir le grade de
Docteur de l’Université du Littoral Côte d’Opale
Domaine
Automatique, génie informatique, traitement du signal et de l’image
Méthodes séquentielles de Monte Carlo pour
le suivi d’objets multiples hétérogènes en
données brutes de télémétrie laser
Thèse soutenue le 27 janvier 2014 devant le jury composé de
Michèle ROMBAUT Professeur des Universités Université Joseph Fourier Président
Régis LHERBIER Maître de Conférences Université du Littoral Côte
d’Opale
Examinateur
Véronique CHERFAOUI Maître de Conférences - HDR Université de Technologie de
Compiègne Rapporteur
Yassine RUICHEK Professeur des Universités Université de Technologie de
Belfort Montbéliard
Rapporteur
Jean-Charles NOYER Professeur des Universités Université du Littoral Côte
d’Opale
Co-directeur
Martine WAHL Chargé de Recherche Institut Français des Sciences et
Technologies des Transports, de
l’Aménagement et des Réseaux
Co-directeur
Année 2013 École Doctorale SPI
Numéro d’ordre : Sciences pour l’ingénieuri
À tous ceux que j’aimeiiRemerciement
Ce travail de thèse a été réalisé au laboratoire électronique, ondes et signaux pour les transports (LEOST
du département COSYS de l’Ifsttar) dirigé successivement par Mme Marion Berbineau et M. Charles Tatkeu
que je tiens à remercier. C’est avec bonne humeur et sympathie qu’ils m’ont accueillie au sein de leur équipe
durant ma thèse.
Je tiens à remercier l’Ifsttar et la région Nord-Pas-De-Calais pour avoir financé ce travail.
Je tiens tout particulièrement à remercier M. Jean-Charles Noyer, mon directeur de thèse sans qui celle-ci
n’aurait pu aboutir. Je suis reconnaissante du temps qu’il m’a accordé, ses qualités pédagogiques et scienti-
fiques, son écoute, ses conseils, sa franchise et sympathie. J’ai beaucoup appris grâce à lui et je lui adresse
ma gratitude pour cela.
J’adresse de chaleureux remerciements à mon encadrant de thèse Mme Martine Wahl, pour son attention
de tout instant sur mes travaux, pour ses conseils et son écoute qui ont mené à la réussite de cette thèse.
Je souhaite remercier Dominique Gruyer pour m’avoir permis d’utiliser les données SiVIC qui ont été
utilisées dans cette thèse. Je souhaite également remercier Sébastien Lefebvre pour m’avoir aidée dans l’utilisation
de ce logiciel.
Je souhaite remercier l’ensemble des membres du jury Véronique CHERFAOUI, Yassine RUICHEK,
Régis LHERBIER, Michèle ROMBAUT qui m’ont fait l’honneur de lire ma thèse et participer à ma soutenance.
Je voudrais leur témoigner ma gratitude et les remercier de l’intérêt qu’ils ont porté à mon travail.
Comment ne pas remercier les membres du site de Villeneuve d’Ascq qui m’ont accueillie, conseillée
et ont rendu agréable ces années : Isabelle, Corinne, Lidwine pour leurs attentions, leurs accompagnements
administratifs et leurs échanges amicaux, Émilie, Mohamed qui m’ont supportée comme voisine de bureau.
Manu qui a tout essayé pour avoir une JSS sans succès. Et enfin tous ceux que je ne cite pas mais avec qui
j’ai eu l’honneur de discuter et d’échanger des idées.
Un merci tout particulier a ceux qui ont parsemé ces trois années de souvenirs inoubliables : Sonia,
Aurélie, Stephen, Élody, Paola, Camille, Wilfried, Cyril, Philippe, Greg, Manu et tant d’autres qui se reconnaitront.
Sur un plan plus personnel, je tiens à remercier mes parents et grand-parents pour leur soutien sans faille
depuis tant d’année. Merci à eux de toujours être là pour moi dans les bons comme les mauvais moments.
Enfin je terminerais par mes amis sans qui rien ne serait possible, sans qui ma vie ne serait pas la même.
Pour tous les moments de détente, les week-ends, les rires et les larmes que nous avons partagées. Pour leur
présence et leur soutien dans ce voyage qui se termine. Fanny, Anne-Laure, Daisy, Béatrice, Jimmy, Élody,
Aurélie et Florent, les mots ne suffisent pas pour exprimer ma gratitude et mon amour pour vous.
iiiivTable des matières
Liste des figures xiii
Liste des tableaux xv
Glossaire xvii
Introduction 1
I Problématique, capteurs et architectures de traitement 3
I.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.2 Capteurs et architectures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.2.1 Capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.2.1.1 Système de vision par caméra . . . . . . . . . . . . . . . . . . . . . . . . 7
I.2.1.2 Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I.2.1.3 Lidar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
I.2.2 Architectures de traitement de données . . . . . . . . . . . . . . . . . . . . . . . . 11
I.2.2.1 Architectures multicapteur classiques . . . . . . . . . . . . . . . . . . . . 11
I.2.2.2 Exemple d’une architecture autonome dans le domaine automobile . . . . 13
I.2.2.3 Architecture monocapteur pour lidar . . . . . . . . . . . . . . . . . . . . 13
I.3 Le télémètre laser à balayage : capteur lidar . . . . . . . . . . . . . . . . . . . . . . . . . . 15
I.3.1 Principe du télémètre laser à balayage . . . . . . . . . . . . . . . . . . . . . . . . . 15
I.3.2 Exemple de mesures lidar issue de capteur monoplan et multiplan . . . . . . . . . . 17
I.3.3 Évolution des capteurs lidar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
I.3.3.1 Capteur IBEO LD Automotive . . . . . . . . . . . . . . . . . . . . . . . . 20
I.3.3.2 Capteur IBEO LD-ML (Ladar Digital MultiLayer) . . . . . . . . . . . . . 20
I.3.3.3 Capteur ALASCA (Automotive Laser SCAnner) . . . . . . . . . . . . . . 21
I.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
II Problème de détection et suivi d’objets multiples 23
II.1 Architecture fonctionnelle classique du problème de détection et de suivi d’obstacles . . . . 23
II.2 Détection dans les données télémétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
II.2.1 Partitionnement de données (clustering) . . . . . . . . . . . . . . . . . . . . . . . . 25
II.2.1.1 Algorithme de partitionnement . . . . . . . . . . . . . . . . . . . . . . . 25
II.2.1.2 Seuil adaptatif de Dietmayer et al. (2001) . . . . . . . . . . . . . . . . . 26
II.2.1.3 Seuil adaptatif de Santos et al. (2003) . . . . . . . . . . . . . . . . . . . 26
II.2.1.4 Seuil adaptatif de Borges et Aldon (2004) . . . . . . . . . . . . . . . . . 27
II.2.2 Segmentation de partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
II.2.2.1 Approche incrémentale . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
II.2.2.2 Approche Split and Merge . . . . . . . . . . . . . . . . . . . . . . . . . . 28
II.2.2.3 Approche RANSAC (Random Sample Consensus) . . . . . . . . . . . . . 30
vvi TABLE DES MATIÈRES
II.2.2.4 Transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
II.2.2.5 Approche de maximisation de l’espérance (EM, Expectation-Maximization) 33
II.2.3 Identification et classification d’objets . . . . . . . . . . . . . . . . . . . . . . . . . 34
II.3 Modélisation des objets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
II.4 Association de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
II.5 Méthode de suivi : filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
II.6 Filtre de Kalman et ses filtres dérivés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
II.6.1 Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
II.6.2 Filtre de Kalman étendu (EKF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
II.6.3 Filtre de Kalman sans parfum (UKF) . . . . . . . . . . . . . . . . . . . . . . . . . 39
II.7 Filtrage particulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
II.7.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
II.7.2 Échantillonnage d’importance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
II.7.3 Problème de la dégénérescence des particules . . . . . . . . . . . . . . . . . . . . . 43
II.7.3.1 Résolution de la dégénérescence par choix d’une densité d’importance optimale
pour une application donnée . . . . . . . . . . . . . . . . . . . . . 43
II.7.3.2 Résolution de la dégénérescence par rééchantillonnage des poids . . . . . 44
II.8 Présentation de différents filtres particulaires . . . . . . . . . . . . . . . . . . . . . . . . . . 46
II.8.1 Filtre à échantillonnage séquentiel par importance (SIS) . . . . . . . . . . . . . . . 46
II.8.2 Filtre Bootstrap ou SIR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
II.8.3 Filtre à rééchantillonnage adaptatif (SIR adaptatif) . . . . . . . . . . . . . . . . . . 48
II.8.4 Filtre particulaire auxiliaire (APF) . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
II.8.5 Filtre de Rao-Blackwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
II.9 Exemples d’application au suivi de cibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
II.10 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
III Approche conjointe de détection et suivi 55
III.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
III.2 Présentation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
III.3 Architecture fonctionnelle proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
III.4 Module de surveillance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
III.4.1 Détecteur d’objets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
III.4.1.1 Restriction des mesures d’un balayage à une zone d’étude . . . . . . . . . 60
III.4.1.2 Algorithme de partitionnement des mesures d’un balayage utilisant le seuil
de Santos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
III.4.1.3 Algorithme de segmentation basé sur la théorie de Split and Merge . . . . 62
III.4.1.4 Calcul du centre de gravité de la partition . . . . . . . . . . . . . . . . . . 64
III.4.1.5 Résultats de détection . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
III.4.2 Gestionnaire de pistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
III.4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
III.5 Module de détection, association et suivi DAT . . . . . . . . . . . . . . . . . . . . . . . . . 70
III.6 Approche conjointe de détection et suivi (ITPF) . . . . . . . . . . . . . . . . . . . . . . . . 70
III.6.1 Modélisation d’état du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
III.6.1.1 Équation dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
III.6.1.2 Équation de mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
III.6.2 Approche proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
III.6.2.1 Initialisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
III.6.2.2 Évolution des particules . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
III.6.2.3 Pondération des particules : exploitation du modèle d’état . . . . . . . . . 74
III.6.2.3.1 Calcul du poids sur la zone complète . . . . . . . . . . . . . . . 75TABLE DES MATIÈRES vii
III.6.2.3.2 Calcul du poids sur une restriction de l’espace d’observation . . 75
III.6.2.4 Redistribution des particules . . . . . . . . . . . . . . . . . . . . . . . . 79
III.6.2.5 Prédiction de la partie linéaire (Kalman) du filtre de Rao-Blackwell . . . . 79
III.6.2.6 Estimation d’état . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
III.7 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
III.7.1 Cas synthétique de suivi multivéhicule . . . . . . . . . . . . . . . . . . . . . . . . . 80
III.7.1.1 Scénario et caractéristiques du capteur . . . . . . . . . . . . . . . . . . . 80
III.7.1.2 Comparaison de l’approche proposée ITPF à une approche classique (CDG)
sur les données du simulateur de la thèse . . . . . . . . . . . . . . . . . . 82
III.7.2 Résultats obtenus avec les données du logiciel SiVIC . . . . . . . . . . . . . . . . . 92
III.7.2.1 Scénario et caractéristiques du capteur . . . . . . . . . . . . . . . . . . . 92
III.7.2.2 Comparaison de l’approche proposée ITPF à une approche classique (CDG)
sur des données du simulateur SiVIC . . . . . . . . . . . . . . . . . . . . 94
III.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
IV Approche conjointe de détection et de suivi d’objets multiples hétérogènes par laser multiplans109
IV.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
IV.2 Détection et suivi d’objets multiples hétérogènes (approche VS-ITPF) . . . . . . . . . . . . 110
IV.2.1 Problématique du cas multi-objets . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
IV.2.2 Adaptation du module de surveillance au cas multi-objets hétérogènes . . . . . . . . 111
IV.2.3 Résumé des algorithmes du module de surveillance dans le cas multi-objets hétérogènes
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
IV.2.4 Adaptation du module DAT au cas multi-objets hétérogènes . . . . . . . . . . . . . 115
IV.2.5 Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
IV.2.5.1 Scénario et caractéristiques du capteur pour le simulateur de la thèse . . . 116
IV.2.5.2 Résultat de l’approche multi-objets pour les données du simulateur de la
thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
IV.2.5.3 Scénario et caractéristiques du capteur pour le simulateur SiVIC . . . . . 125
IV.2.5.4 Résultat de l’approche VS-ITPF pour les données du simulateur SiVIC . . 126
IV.2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
IV.3 Détection et suivi d’obstacles multiples homogènes avec un lidar multiplan (approche MLITPF)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
IV.3.1 Problématique et mesures d’un capteur multiplan . . . . . . . . . . . . . . . . . . . 130
IV.3.2 Notation : extension au cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . 132
IV.3.3 Adaptation du détecteur d’objet du module de surveillance au cas multiplan . . . . . 132
IV.3.4 L’approche ML-ITPF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
IV.3.4.1 Modélisation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 134
IV.3.4.2 Filtrage de Rao-Blackwell . . . . . . . . . . . . . . . . . . . . . . . . . . 135
IV.3.4.3 Évolution des particules . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
IV.3.5 Résultats expérimentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
IV.3.5.1 Scénario et caractéristiques du capteur . . . . . . . . . . . . . . . . . . . 137
IV.3.5.2 Résultats de l’approche ML-ITPF . . . . . . . . . . . . . . . . . . . . . . 138
IV.3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Conclusion 149
A Simulateur de données 153
A.1 Le capteur lidar à balayage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
A.1.1 Principe du générateur de données télémétriques . . . . . . . . . . . . . . . . . . . 154
A.1.2 Modélisation d’un scénario routier . . . . . . . . . . . . . . . . . . . . . . . . . . . 154viii TABLE DES MATIÈRES
A.1.3 Modélisation de la trajectoire des véhicules cibles . . . . . . . . . . . . . . . . . . . 156
A.1.4 Construction d’une image pour un balayage donné . . . . . . . . . . . . . . . . . . 156
A.1.4.1 Représentation d’un véhicule dans le repère cartésien du capteur . . . . . 156
A.1.4.2 Représentation d’un véhicule dans le repère polaire du capteur . . . . . . 158
A.1.4.3 Calcul d’une image d’un véhicule dans le repère polaire du capteur . . . . 158
A.1.4.4 Calcul de l’image capteur d’une scène multivéhicule pour un balayage donné158
A.1.5 Exemple de données obtenues à partir du simulateur . . . . . . . . . . . . . . . . . 158
A.2 Le simulateur SiVIC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
A.2.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
A.2.2 Fonctionnalités du simulateur SiVIC . . . . . . . . . . . . . . . . . . . . . . . . . . 161
A.2.3 Exemple de données obtenues avec le simulateur SiVIC pour un lidar multiplan . . . 161
Références bibliographiques 174Table des figures
I.1 Nombre de tués sur les routes de 1950 à 2011 (Sécurité-routière, 2012) . . . . . . . . . . . . 3
I.2 Évolution du nombre de tués sur les routes en fonction des nouvelles législations (Sécurité-
routière, 2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
I.3 Architecture minimale de détection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.4 Une camera avec objectif de type Fisheye à gauche et photo du ciel prise avec la caméra à
droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.5 Système stéréoscopique expérimental (LEOST) à gauche et image d’une scène prise par un
système stéréoscopique et sa carte de disparité à droite . . . . . . . . . . . . . . . . . . . . 8
I.6 Image d’un radar SRR extraite de (Bank, 2007) . . . . . . . . . . . . . . . . . . . . . . . . 9
I.7 Principe du lidar multicouche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
I.8 Architecture de fusion centralisée extraite de (Waltz et Llinas, 1990) . . . . . . . . . . . . . 11
I.9 Architecture de fusion autonome extraite de (Waltz et Llinas, 1990) . . . . . . . . . . . . . 12
I.10 Architecture de fusion hybride extraite de (Waltz et Llinas, 1990) . . . . . . . . . . . . . . . 12
I.11 Architecture du système de fusion de données du projet CARSENSE extraite de Wahl (2002) 13
I.12 Architecture de traitement monocapteur lidar extraite de (Kiehn et al., 2002) . . . . . . . . . 14
I.13 Architecture de traitement monocapteur lidar extraite de Jida (2008) . . . . . . . . . . . . . 15
I.14 Principe du balayage horizontal (en haut) et vertical (en bas) extrait de (Besesty, 1999) . . . 15
I.15 Schéma de fonctionnement du télémètre laser à balayage extrait de (Besesty, 1999) . . . . . 16
I.16 Principe de mesure du temps de vol d’une onde émise par le télémètre laser à balayage extrait
de (Besesty, 1999) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
I.17 Image CCD de la scène et le balayage capteur associé vu par le lidar monoplan (en bas à
gauche) et par le lidar multiplan (en bas à droite) . . . . . . . . . . . . . . . . . . . . . . . 18
I.18 Agrandissement de la représentation de la scène vue par le lidar multiplan (figure I.18 à
gauche) sur le véhicule en bas de la voie droite (à gauche) et sur le véhicule voie centrale (à
droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
I.19 Présentation des capteurs DENSO, SICK LD-MRS et Velodyne HDL-64E (de gauche à
droite) extrait de (com, 2014) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
I.20 Le capteur IBEO LD-ML (à gauche) et ses caractéristiques (à droite) . . . . . . . . . . . . . 20
I.21 Le capteur IBEO ALASCA XT (à gauche) et ses caractéristiques (à droite) . . . . . . . . . 21
II.1 Étapes classiques d’un algorithme de détection et de suivi . . . . . . . . . . . . . . . . . . . 23
II.2 Seuil SNA fixe d’un algorithme non adaptatif . . . . . . . . . . . . . . . . . . . . . . . . . . 25
II.3 Paramètres du seuil adaptatif SSantos selon Santos et al. (2003) . . . . . . . . . . . . . . . . 26
II.4 Paramètres du seuil adaptatif SBorges selon Borges et Aldon (2004) . . . . . . . . . . . . . . 27
II.5 Exemple de dispersion des inliers et outliers . . . . . . . . . . . . . . . . . . . . . . . . . . 30
II.6 Paramètres (Θ,ρ) tels que Θ est l’angle polaire de la normale à la droite (d) (Duda et Hart,
1971) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II.7 Biais de l’estimateur de Kalman étendu . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
II.8 Évolution des particules (figure extraite de Diginext (1996)) . . . . . . . . . . . . . . . . . 42
ixx TABLE DES FIGURES
II.9 Rééchantillonnage des particules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
II.10 Sélection des particules selon le vecteur U . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
III.1 Illustration d’un scénario de détection et de suivi . . . . . . . . . . . . . . . . . . . . . . . 56
III.2 Représentation d’un véhicule dans le repère du capteur . . . . . . . . . . . . . . . . . . . . 57
III.3 Représentation des impacts lidar pour différentes orientations de véhicules dans le référentiel
du capteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
III.4 Architecture fonctionnelle de l’approche ITPF proposée . . . . . . . . . . . . . . . . . . . . 58
III.5 Architecture fonctionnelle simplifiée du module de surveillance . . . . . . . . . . . . . . . 59
III.6 Entités étudiées du détecteur d’objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
III.7 Zone d’étude d’une autoroute à trois voies : la zone est construite de façon à rejeter les points
de bordures de routes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
III.8 Point de rupture d’un ensemble de mesures dont on cherche les droites d’interpolation . . . . 63
III.9 Illustration des cinq configurations possibles d’une partition selon la position relative de
l’objet au capteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
III.10Estimation du centre de gravité des partitions détectées (données SiVIC) . . . . . . . . . . . 67
III.11Gestion des pistes d’une famille d’objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
III.12Véhicule particulaire reconstruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
III.13Une région d’intérêt (ROI) de la zone d’étude considérée . . . . . . . . . . . . . . . . . . . 76
III.14Paramètres (θ
ROI
min , θ
ROI
max , ρ
ROI
min , ρ
ROI
max ) d’une zone de suivi ou région d’intérêt (ROI) . . . . . 77
III.15Région ROI+ d’une région d’intérêt ROI . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
III.16Cas limite de la région ROI+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
III.17Illustration des trajectoires relatives au véhicule porteur du capteur pour le scénario établi
aux tableaux III.1 et III.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
III.18Comparaison du nombre de pistes créées avec le nombre de véhicules pour les méthode ITPF
à gauche et CDG à droite appliquées aux données du simulateur de la thèse . . . . . . . . . 83
III.19Perception du lidar au temps t = 5s (mesures en rouge) superposée aux modèles estimés des
véhicules (rectangle en bleu) : approches ITPF à gauche et CDG à droite appliquées aux
données du simulateur de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
III.20Agrandissement des véhicules de la scène figure III.19, au temps t = 5s, véhicule de la voie
centrale en haut et de la voie de gauche en bas : approches ITPF à gauche et CDG à droite
appliquées aux données du simulateur de la thèse . . . . . . . . . . . . . . . . . . . . . . . 84
III.21Perception du lidar au temps t = 10s (mesures en rouge) superposée aux modèles estimés
des véhicules (rectangle en bleu) : approches ITPF à gauche et CDG à droite appliquées aux
données du simulateur de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
III.22Agrandissement du véhicule de la voie de droite, au temps t = 10s, de la figure III.21 :
approches ITPF à gauche et CDG à droite appliquées aux données du simulateur de la thèse . 85
III.23Agrandissement du véhicule de la voie de gauche, au temps t = 10s, de la figure III.21 :
approches ITPF à gauche et CDG à droite appliquées aux données du simulateur de la thèse . 86
III.24Agrandissement du véhicule de la voie centrale, au temps t = 10s, de la figure III.21 : approches
ITPF à gauche et CDG à droite appliquées aux données du simulateur de la thèse . . 86
III.25Courbes des Vitesses et accélérations de référence et estimées, du véhicule de la voie de
droite en fonction du temps : approches ITPF à gauche et CDG à droite appliquées aux
données du simulateur de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
III.26Courbes des Vitesses et accélérations de référence et estimées, du véhicule de la voie de
gauche en fonction du temps : approches ITPF à gauche et CDG à droite appliquées aux
données du simulateur de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
III.27Courbes des Vitesses et accélérations de référence et estimées, du véhicule de la voie centrale
en fonction du temps : approches ITPF à gauche et CDG à droite appliquées aux données du
simulateur de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90TABLE DES FIGURES xi
III.28Erreur sur la position du véhicule de la voie de droite en fonction du temps : approches ITPF
à gauche et CDG à droite appliquées aux données du simulateur de la thèse . . . . . . . . . 91
III.29Erreur sur la position du véhicule de la voie de gauche en fonction du temps : approches
ITPF à gauche et CDG à droite appliquées aux données du simulateur de la thèse . . . . . . 91
III.30Erreur sur la position du véhicule cible de la voie centrale en fonction du temps : approches
ITPF à gauche et CDG à droite appliquées aux données du simulateur de la thèse . . . . . . 92
III.31Illustration des trajectoires des véhicules relativement au véhicule porteur du capteur pour le
scénario établi au tableau III.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
III.32Quatre images de la scène au temps t = 0s, t = 2,5s, t = 5s et t = 10s . . . . . . . . . . . . 94
III.33Comparaison du nombre de pistes créées avec le nombre de véhicules détectés pour les
méthodes ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . 95
III.34Nombre de pistes créées avec le nombre de véhicules détectés pour la méthode ITPF appliquées
aux données du simulateur SiVIC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
III.35Illustration de la perte d’un véhicule par masquage, image de la scène à t = 6,3s, t = 6,5s et
t = 6,7s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
III.36Image CCD de la scène, au temps t = 5s et la même scène perçue par le laser à balayage (en
rouge) superposée aux modèles estimés des véhicules (rectangle en bleu) : approches ITPF
à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . . . . . . . . . . 99
III.37Agrandissement du véhicule de la voie de droite haut, au temps t = 5s, de la figure III.36 :
approches ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . 99
III.38Agrandissement du véhicule de la voie centrale, au temps t = 5s, de la figure III.36 : approches
ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . . 100
III.39Agrandissement du véhicule de la voie de droite bas, au temps t = 5s, de la figure III.36 :
approches ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . 100
III.40Agrandissement du véhicule de la voie de gauche, au temps t = 5s, de la figure III.36 :
approches ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . 101
III.41Image CCD de la scène, au tempst = 10s et la même scène perçue par le laser à balayage (en
rouge) superposée aux modèles estimés des véhicules (rectangle en bleu) : approches ITPF
à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . . . . . . . . . . 101
III.42Agrandissement des véhicules de la scène figure III.41, au temps t = 10s, véhicule de la voie
de gauche en haut, de la voie de droite au centre et de la voie centrale en bas : approches
ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC . . . . . . . . 102
III.43Courbes de vitesse selon x en haut et y estimées du véhicule de la voie de droite en fonction
du temps : approches ITPF à gauche et CDG à droite appliquées aux données SiVIC . . . . 104
III.44Courbes d’accélération selon x en haut et y estimées du véhicule de la voie de droite en
fonction du temps : approches ITPF à gauche et CDG à droite appliquées aux données SiVIC 105
III.45Courbes de vitesse selon x en haut et y estimées du véhicule de la voie centrale en fonction
du temps : approches ITPF à gauche et CDG à droite appliquées aux données SiVIC . . . . 106
III.46Courbes d’accélération selon x en haut et y estimées du véhicule de la voie centrale en
fonction du temps : approches ITPF à gauche et CDG à droite appliquées aux données SiVIC 107
IV.1 Calcul du nouveau centre de gravité après modification du modèle véhicule . . . . . . . . . 115
IV.2 Illustration des trajectoires relatives au véhicule porteur pour le scénario (défini par les tableaux
IV.1 et IV.2), constitué d’un camion et de deux voitures . . . . . . . . . . . . . . . . 118
IV.3 Comparaison du nombre de pistes actives avec le nombre de véhicules estimé par le détecteur
au cours de la simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
IV.4 Perception du lidar aux temps t = 5s (figure haut gauche), t = 7,5s (figure haut droite),
t = 11s (figure bas gauche) et t = 14s (figure bas droite) superposée aux modèles de véhicules
estimés par le filtre ITPF, pour un cas multi-objets . . . . . . . . . . . . . . . . . . . . . . . 119xii TABLE DES FIGURES
IV.5 Courbes des vitesses à gauche et accélération à droite en fonction du temps, du camion situé
à droite (figure du haut), du véhicule central (figure du centre) et du véhicule de gauche
(figure du bas), pour un cas multi-objets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
IV.6 Longueur et largeur estimées des boîtes englobantes des véhicules de la simulation en fonction
du temps, en haut le camion et en bas les deux voitures . . . . . . . . . . . . . . . . . . 122
IV.7 Courbes d’erreur sur la position en fonction du temps, du camion situé voie de droite (figure
haut gauche), pour la voiture voie centrale (figure haut droite) et pour la voiture voie de
gauche (figure du bas) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
IV.8 Illustration des trajectoires relatives au véhicule porteur pour le scénario du simulateur SiVIC 125
IV.9 Quatre images de la scène au temps t = 1s, t = 4s, t = 7,5s et t = 10s . . . . . . . . . . . . 126
IV.10Scènes aux instants t = 1s (figure haut gauche), t = 4s (figure haut droite), t = 7,5s (figure
bas gauche) et t = 10s (figure bas droite) et véhicules estimés par le filtre VS-ITPF . . . . . 127
IV.11Longueur et largeur estimées des véhicules en fonction du temps à gauche l’Espace et à
droite la Mini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
IV.12Représentation de l’Espace avant à t = 1s (à gauche) et après à t = 4s (à droite) mise à jour
des dimensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
IV.13Architecture fonctionnelle de l’approche VS-ITPF modifiée . . . . . . . . . . . . . . . . . . 129
IV.14Exemple de deux véhicules vus par un capteur lidar multiplan au temps t = 5s (en bleu tir à
0˚ d’élévation, en rouge tir à 0,4˚ d’élévation, en vert tir à 0,8˚ d’élévation et en cyan tir à
1,2˚ d’élévation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
IV.15Nombre de véhicules détectés en fonction du temps pour les plans 1 (à gauche) et 3 (à droite) 132
IV.16Illustration d’un véhicule vu par quatre plans capteur et la détection qui en découle . . . . . 134
IV.17Double restriction, ROI+ d’une région d’intérêt ROI de la zone d’étude considérée . . . . . 136
IV.18Trajectoires relatives au véhicule porteur de l’ensemble des véhicules de la scène . . . . . . 138
IV.19Quatre images de la scène au temps t = 0s, t = 2,5s, t = 5s et t = 10s . . . . . . . . . . . . 138
IV.20Comparaison du nombre de pistes créées avec le nombre de véhicule estimé par le détecteur
présent au cours de la simulation, pour les méthodes ML-ITPF à gauche et CDG à droite
appliquées aux données du simulateur SiVIC . . . . . . . . . . . . . . . . . . . . . . . . . 140
IV.21Image CCD de la scène, au temps t = 5s et la même scène perçue par le laser à balayage
(en rouge) superposée aux modèles estimés des véhicules (rectangle en bleu) : approches
ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC, pour un
cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
IV.22Agrandissement du véhicule de la voie de droite haut, au temps t = 5s, de la figure IV.21 :
approches ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC,
pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
IV.23Agrandissement du véhicule de la voie centrale, au temps t = 5s, de la figure IV.21 : approches
ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC,
pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
IV.24Agrandissement du véhicule de la voie de gauche, au temps t = 5s, de la figure IV.21 :
approches ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC,
pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
IV.25Image CCD de la scène, au temps t = 10s et la même scène perçue par le laser à balayage
(en rouge) superposée aux modèles estimés des véhicules (rectangle en bleu) : approches
ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC, pour un
cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
IV.26Agrandissement du véhicule de la voie de droite, au temps t = 10s, de la figure IV.25 :
approches ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC,
pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143TABLE DES FIGURES xiii
IV.27Agrandissement du véhicule de la voie centrale, au temps t = 10s, de la figure IV.25 : approches
ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC,
pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
IV.28Agrandissement du véhicule de la voie de gauche, au temps t = 10s, de la figure IV.25 :
approches ML-ITPF à gauche et CDG à droite appliquées aux données du simulateur SiVIC,
pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
IV.29Courbes de vitesse selon x en haut et y en bas estimées du véhicule de la voie de droite en
fonction du temps : approches ML-ITPF à gauche et CDG à droite appliquées aux données
SiVIC, pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
IV.30Courbes d’accélération selon x en haut et y en bas estimées du véhicule de la voie de droite
en fonction du temps : approches ML-ITPF à gauche et CDG à droite appliquées aux données
SiVIC, pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
IV.31Courbes de vitesse selon x en haut et y en bas estimées du véhicule de la voie de gauche en
fonction du temps : approches ML-ITPF à gauche et CDG à droite appliquées aux données
SiVIC, pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
IV.32Courbes d’accélération selon x en haut et y en bas estimées du véhicule de la voie de gauche
en fonction du temps : approches ML-ITPF à gauche et CDG à droite appliquées aux données
SiVIC, pour un cas multiplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
A.1 Modélisation de la route, du capteur et des véhicules cibles . . . . . . . . . . . . . . . . . . 155
A.2 Modèle de la voiture dans les repères cartésien et polaire du capteur . . . . . . . . . . . . . 157
A.3 Données générées pour le scénario considéré (deux véhicules V1, V2 dont l’un change de voie)160
A.4 Modélisation de la rotation du capteur lidar pour générer des données multiplans . . . . . . 162
A.5 Exemple de données générées par le simulateur SiVIC . . . . . . . . . . . . . . . . . . . . 163xiv TABLE DES FIGURESListe des tableaux
I.1 Comparaison des capteurs DENSO, SICK LD-MRS et Velodyne HDL-64E extrait de (com,
2014) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
III.1 Paramètres de simulation du capteur positionné relativement à la route (données du simulateur
de la thèse) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
III.2 Paramètres de simulation initiaux des véhicules cibles relativement à la route (données du
simulateur de la thèse) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
III.3 Écart-type de l’erreur d’estimation des positions, vitesses et accélérations pour les véhicules
cibles sur une période de convergence de les méthodes ITPF et CDG appliquées aux données
du simulateur de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
III.4 Paramètres de simulation du capteur positionné relativement à la route (données SiVIC) . . . 93
IV.1 Paramètres de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
IV.2 Paramètres de simulation initiaux des véhicules cibles relativement à la route et au véhicule
porteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
IV.3 Écart-type de l’erreur d’estimation des positions, vitesses et accélérations pour les véhicules
cibles sur une période de convergence de la méthode VS-ITPF appliquées aux données du
simulateur de la thèse, dans un cas multi-objets . . . . . . . . . . . . . . . . . . . . . . . . 124
IV.4 Paramètres de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
IV.5 Paramètres du capteur positionné relativement à la route . . . . . . . . . . . . . . . . . . . 137
A.1 Données paramétrables pour un scénario donné . . . . . . . . . . . . . . . . . . . . . . . . 155
A.2 Données paramétrables pour chaque sous-ensemble du scénario . . . . . . . . . . . . . . . 156
A.3 Paramètres de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
A.4 Paramètres du véhicule V1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
A.5 Paramètres du véhicule V2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
A.6 Paramètres de simulation du véhicule capteur, du capteur et de la route pour un scénario
donné associé au simulateur SiVIC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
xvxvi LISTE DES TABLEAUXGlossaire
(i) une particule.
N le nombre de particules.
Xt
le vecteur d’état de position, vitesse et accélération à l’instant t, Xt = [x, y, vx, vy, ax, ay].
X
(i)
t
le vecteur d’état estimé à l’instant t pour la particule (i).
Zt
le vecteur des mesures du balayage capteur de l’instant t, Zt = {zθ ;θ ∈ {θmin,θmin +∆θ,...,θmax}} .
t l’indice de l’échantillon de mesure.
w
(i)
t
le poids de la particule (i) à l’instant t.
(ρ,θ) les mesures en sortie du capteur.
(θmin,θmax) l’ouverture angulaire du capteur.
Z
(i)
t
le vecteur à l’instant t des échos reconstitués d’un véhicule à partir de la particule (i).
∆θ la résolution angulaire du capteur.
∆t la période d’échantillonnage du capteur.
Pt
l’ensemble des partitions de Zt
, Pt =
n
P(n);n ∈ [0,Nmax],Nmax ≤
θmax−θmin
∆θ +1,P(0) = ∅
o
.
ρ la distance de l’impact au capteur.
θ la résolution angulaire du capteur (pas de tir du capteur).
z
+
θ
la mesure de l’écho par le capteur à l’angle de tir suivant, θ
+ = θ +∆θ .
z
−
θ
la mesure de l’écho à l’angle de tir précédent, θ
− = θ −∆θ .
zθ la mesure d’un écho exprimée en coordonnées polaires, zθ=(ρθ ,θ), ou en coordonnées cartésiennes,
zθ=(xθ ,yθ ).
xviixviii GlossaireIntroduction
Avec l’augmentation globale du trafic routier, la sécurité est devenue une problématique de plus en plus
importante. Limiter les risques d’accidents et les dégâts corporels sont des soucis permanents tant chez les
constructeurs automobiles que pour l’État. Ces dernières années, on a pu voir de nombreuses campagnes publicitaires
et de nombreuses lois visant à limiter ces risques. Depuis les années 80, de nombreuses recherches
sont effectuées dans le domaine de la sécurité routière et notamment sur les systèmes d’aide à la conduite
dits « intelligents » tels que les ADAS (Advance Driver Assistance System). Ceux-ci exploitent les informations
de l’environnement proche du véhicule afin de mettre en place des systèmes d’aide à la conduite. La
difficulté réside dans le choix des systèmes de perception et des traitements associés. Les travaux effectués
durant cette thèse se placent dans ce cadre général. On s’intéresse à un système coopératif de perception
active distribué et interconnecté par réseaux de communication (véhicule à véhicule ou V2V). Ce type de
système a pour but d’accroître le champ de vision de chacun des véhicules d’une scène par la prise en compte
de données provenant des véhicules situés dans son voisinage. Pour cela, chaque véhicule est composé d’un
système de perception local (pour la détection et le suivi des objets) et d’un système de communication (pour
la réception et le transfert des données). Dans cette thèse, nous nous sommes intéressés, plus particulièrement,
au système de perception local avec l’étude des problèmes de détection et de suivi multi-objet à partir
de données télémétriques de type lidar à balayage. Ainsi, notre objectif est de surveiller en permanence l’environnement
proche du véhicule, par une détection et un suivi des obstacles afin de détecter les situations
potentiellement dangereuses.
L’étude générale du problème de détection et de suivi a attiré notre attention sur les problèmes de pertes
d’informations et les cas de fausses alarmes. Les mesures issues des capteurs de type lidar sont de nature
spatialement distribuées ce qui conduit généralement à l’utilisation d’une étape de prétraitement (composée,
dans ce cas, de la détection et de l’association des objets de la scène). Cette phase permet d’extraire les vé-
hicules présents dans la scène et de délivrer une information sur leur position et vitesse relative. Il est connu
que cette étape de prétraitement peut engendrer des pertes d’informations menant à des cas de non détection
ou à des données aberrantes. Par ailleurs, les non-linéarités liées à la transformation polaire-cartésien des
mesures lidar ne permettent plus de préserver la statistique des bruits de mesure après traitement. La conclusion
qui en découle est que seule une approche exploitant directement les données brutes permet de garantir
l’optimalité des traitements (association, suivi, etc.). Pour cela, on s’est intéressé plus particulièrement aux
méthodes de Monte Carlo séquentielles (également appelées filtrage particulaire) pour leur aptitude à traiter
toute non-linéarité de modèle de manière naturelle.
Pour résoudre ce problème, nous avons développé une approche conjointe de détection et de suivi, que
nous appellerons Integrated Tracking Particle Filter (ITPF). Parmi l’ensemble des méthodes particulaires
disponibles, nous nous sommes focalisés sur les approches de filtrage hybride de type Rao-Blackwell. Ces
méthodes permettent d’exploiter les linéarités du modèle d’état de manière indépendante par un filtre conditionnellement
linéaire de type Kalman, optimal dans ce contexte. Le traitement de la partie non-linéaire est
dévolu au filtre particulaire. Le problème ainsi posé repose sur une exécution conjointe des phases de dé-
tection et de suivi des objets dans l’espace d’étude. Nous excluons de notre approche, tout recours à une
phase de détection isolée, utilisée comme entrée de l’étape de suivi. L’information utilisée correspond donc
à la mesure en sortie de capteur et non pas à une information potentiellement tronquée par un détecteur.
12 INTRODUCTION
Comme tout filtre récursif, il est connu que la vitesse de convergence de la méthode peut dépendre de l’information
dont on dispose a priori sur l’environnement. C’est pourquoi, nous mettons en place un module
de surveillance dont le but est de fournir au filtre ITPF une information a priori sur les objets présents. Ce
module agit alors comme un module de « veille » qui observe en permanence l’environnement du véhicule
porteur et alimente en continu le filtre de détection/suivi.
Comme dans toute méthode de suivi, une place importante doit être laissée à la validation des approches
proposées sur des données expérimentales. Nous avons donc choisi de les évaluer sur deux simulations dont
les détails sont donnés en annexe :
– un premier simulateur dont l’objectif est d’évaluer les performances en estimation qui permet, par une
connaissance exacte des paramètres dynamiques de tester les performances limites de la méthode ;
– le simulateur SiVIC développé par le LIVIC qui permet, par un rendu très proche de la réalité, d’évaluer
la robustesse de nos approches vis-à-vis des géométries variables d’objets, de non détection et de
fausse alarme.
Dans ce contexte, il est toujours difficile de pouvoir qualifier une nouvelle approche vis-à-vis de l’état
de l’art sur le domaine. Nous avons donc choisi de comparer notre approche ITPF à une méthode classique
basée sur un suivi du centre de gravité après une étape de détection, pour la même méthode de filtrage
particulaire. Cette méthode CDG (centre de gravité) est fondée sur la mise en œuvre séquentielle de la
détection, de l’association et du suivi des centres de gravité des objets de la scène. Ceci permet également
d’évaluer l’apport d’une approche conjointe de détection et suivi.
Cette thèse s’articule autour de quatre chapitres :
Le premier chapitre expose le contexte général applicatif de la thèse. Il met en avant les différentes dif-
ficultés liées aux choix du capteur et de l’architecture fonctionnelle à mettre en place. Ce chapitre permettra
d’amorcer nos choix pour la résolution du problème.
Le second chapitre propose un état de l’art des techniques de détection et de suivi d’objets multiples à
partir de mesures lidar. Nous nous sommes inspirés des différentes étapes de détection, association et suivi
d’une architecture fonctionnelle de traitement classique pour présenter les différentes étapes. Ce chapitre
permet d’exposer, d’une part, les techniques de détection et de suivi les plus couramment utilisées dans la
littérature et, d’autre part, il permet de proposer une comparaison de quelques méthodes de filtrage (particulaire)
par rapport au filtre de Kalman (plus classiquement utilisé pour le suivi de véhicule). Ce dernier point
permettra de détailler les raisons de notre choix de méthode de filtrage.
Maintenant que nous avons parcouru l’ensemble du problème, le chapitre trois propose de décrire notre
méthode conjointe de détection et de suivi multi-objet (ITPF). Cette méthode a la particularité de ne pas
utiliser de phase de détection ni d’association, puisque la détection et le suivi sont réalisées par le filtre
particulaire mis en place. La méthode présentée propose d’utiliser, tout au long des traitements, la mesure
brute en sortie du capteur. On s’intéressera, dans ce chapitre, au cas simplifié d’une détection et d’un suivi
multi-objet de forme et taille semblable sur des données lidar monoplan (c’est-à-dire que le capteur lidar
balaye la scène sur un seul plan vertical durant toute la simulation).
Les capteurs lidar monoplans ayant montré, sur route, leur vulnérabilité au tangage et roulis, le chapitre
quatre se propose de traiter le cas de capteur lidar multiplan. Afin de traiter le problème dans sa globalité,
nous choisissons également d’accroître notre champ de recherche à l’étude d’objet de différentes natures
(tels que camion, piéton...) dans ce chapitre. De même, la possibilité d’obtenir plusieurs plans verticaux de
balayage va modifier les structures de détection et de filtrage afin de prendre en compte les informations
des différents plans de balayage. L’intégration des différents plans de mesures va ainsi être discutée dans un
second temps.
Enfin, nous conclurons sur les apports et perspectives de nos travaux.Chapitre I
Problématique, capteurs et architectures de
traitement
I.1 Problématique
Les accidents de la route sont la première cause de mortalité chez les 15−29 ans et restent importants
dans les autres classes d’âges. Le parc automobile français, constitué de l’ensemble des véhicules immatriculés
en France, est passé de 4,5 millions en 1955 contre plus de 38 millions de véhicules au premier janvier
2012. Selon les chiffres de la sécurité routière (figure I.1), issus de l’observatoire national interministériel
de sécurité routière (ONISR), nous sommes passés d’environ 18000 tués sur les routes dans les années 70 à
3963 personnes tuées en 2011.
FIGURE I.1. Nombre de tués sur les routes de 1950 à 2011 (Sécurité-routière, 2012)
Il existe plusieurs causes et facteurs de risque d’accident dont nous faisons une liste non-exhaustive :
– comportement des usagers (non respect du code, ingestion de substances influençant le comportement,
téléphone...),
– fatigue, baisse de vigilance et somnolence,
– vitesse,
– infrastructures routières,
– véhicules automobiles.
Bien qu’il soit impossible d’agir sur l’ensemble de ses facteurs, de nombreuses mesures sont mises en
34 Problématique, capteurs et architectures de traitement
place pour en limiter les risques. Par exemple, dans les années 70 où le taux de mortalité sur les routes atteint
un pic, le port obligatoire de la ceinture de sécurité et l’apparition des limitations de vitesse sur routes et
autoroutes ont initié une baisse du nombre de tués sur les routes (figure I.2 issue de l’observatoire national
interministériel de sécurité routière (ONISR)). Par la suite, de nouvelles législations relatives au code de
la route apparaissent. Leur mise en place permet la poursuite de la baisse de mortalité sur les routes. Les
plus récentes (2012) concernent l’interdiction des avertisseurs radar et le durcissement des sanctions contre
l’utilisation du téléphone portable au volant.
FIGURE I.2. Évolution du nombre de tués sur les routes en fonction des nouvelles législations (Sécurité-
routière, 2012)
Dans le même temps, les constructeurs automobiles conçoivent des véhicules de plus en plus sûrs. Ils
mettent en place des systèmes de sécurité dits actifs ou passifs :
– les systèmes passifs n’interviennent pas directement sur la conduite. Ils permettent de sécuriser les
passagers ou les usagers de la route. Citons par exemple, la ceinture de sécurité, les airbags (coussins
gonflables de sécurité) ou également les études sur l’optimisation des déformations de la structure du
véhicule.
– les systèmes actifs eux interviennent directement sur la conduite. Ils permettent d’aider le conducteur.
L’aide au freinage ABS (Anti Blockier System), par exemple, est apparu pour la première fois en
1966 (Wikipedia, 2013). Cependant, ces systèmes ne permettent pas d’anticiper des situations à risque
mais seulement de répondre à un problème survenu. Idéalement, un système de freinage va s’activer
lorsque la pédale de frein est activée. Par contre, les systèmes d’aide à la conduite dits « intelligents »
sont capables d’interagir avec le conducteur sans s’y substituer. C’est ce genre de système qui est
étudié dans cette thèse.
Comme nous venons de le voir, la sécurité routière est, de nos jours, très importante. Limiter les risques
d’accidents est un souci permanent tant chez les constructeurs automobiles que pour l’État. Actuellement,
les recherches sont centrées sur les systèmes d’aide à la conduite dits « intelligents » tels que les ADAS
(Advanced Driver Assistance Systems). Les ADAS exploitent les informations de l’environnement proche
du véhicule afin de mettre en place des systèmes d’aide à la conduite. Les recherches portent sur des aspects
perceptifs comme la détection de signalisation, la détection d’obstacle, les systèmes de conduite autonome.Problématique 5
La détection et le suivi d’obstacle s’avèrent prometteurs pour anticiper les collisions, principales causes
d’accidents corporels.
Depuis les années 90, de nombreux travaux ont été menés sur ce sujet. La difficulté réside ici dans le choix
du système de perception, d’une méthode de détection et de suivi. Dans la suite, nous faisons une rapide étude
des techniques d’exploitation des informations de l’environnement qui se basent sur trois principales étapes
dont l’architecture est présentée en figure I.3.
FIGURE I.3. Architecture minimale de détection
Les travaux portés par les chercheurs diffèrent en particulier par le système de perception utilisé : radar
(Tan et al., 2007; Bank, 2007), lidar (Takagi et al., 2006) et image (Tango et al., 2008; Richter et al., 2008).
Dans la suite, nous présentons des exemples utilisant l’un ou l’autre de ces capteurs. Dans ce cadre, une
thématique importante est la détection d’obstacle au voisinage du véhicule.
Dans notre contexte d’étude autoroutier, nous considérerons comme l’a fait (Perrollaz, 2008) qu’un obstacle
est un objet de taille significative susceptible de couper la route de notre véhicule dans un laps de temps
court, compte tenu du temps de réaction du conducteur et des vitesses mises en jeu.
Le problème peut être étudié selon deux points de vue, que cherche-t-on à détecter, et quels outils de
détection peut-on mettre en œuvre ? Dans le premier cas, nous cherchons à déterminer des obstacles potentiels
au voisinage du véhicule. Le type d’obstacle diffère selon l’environnement dans lequel nous nous
trouvons. Par exemple, sur autoroute, les principaux objets à suivre sont des véhicules motorisés (tels que
véhicule, camion...), par contre, à un carrefour, il faut également prendre en compte les piétons, les cyclistes,
etc. Citons les travaux de (Koller et al., 1992) qui proposent une détection des véhicules dans des séquences
d’images et les travaux de (Sato et al., 2010; Ogawa et al., 2011) qui travaillent à partir de données lidar,
pour la détection de piétons.
Après avoir décrit quel type d’objet nous cherchons à détecter, le deuxième aspect de la détection
concerne les outils. Comment détecter ces objets dans des séquences d’images ou de données ? Pour cela,
plusieurs méthodes existent pouvant être utilisées à la fois dans le cas de séquences d’images et dans le cas
de séquences de données (radar, lidar). Deux types d’algorithmes de détection existent :
– les algorithmes de partitionnement qui consistent à regrouper les mesures qui partagent un caractère
commun. Citons, par exemple, l’algorithme de K-means, méthode dont le but est de diviser des observations
en K partitions dans lesquelles chaque observation appartient à la partition avec la moyenne la
plus proche, ou encore les algorithmes reposant sur la comparaison de critère de distance entre deux
données successives telles que les seuils adaptatifs de Santos (Santos et al., 2003), de Borges (Borges
et Aldon, 2000, 2004) et de Dietmayer (Dietmayer et al., 2001).
– les algorithmes de segmentation qui consistent à retrouver des formes (droites, rectangles, etc) dans
des ensembles de données. Leur but est d’extraire les contours des objets. Citons quelques exemples
d’algorithmes. L’algorithme Split and merge (Ray et Ray, 1995) permet de réaliser des approximations
polygonales de lignes par une succession de division de ces lignes en deux, puis par une phase
de fusion. La transformée de Hough (Duda et Hart, 1971) cherche à déterminer les paramètres géomé-
triques d’une forme donnée au moyen de vote. L’approche de maximisation de l’espérance (Dempster
et al., 1977) repose sur la recherche du maximum de vraisemblance ou du maximum a posteriori pour
estimer les paramètres de modèle statistique. L’algorithme de Ransac, méthode destinée à estimer les6 Problématique, capteurs et architectures de traitement
paramètres d’un modèle mathématique à partir d’un ensemble de données observées contenant un
grand nombre de valeurs aberrantes.
Il reste une étape à étudier, le suivi des objets détectés. Cette étape est indispensable afin de déterminer si
un objet est un futur obstacle ou non. Là encore, différentes méthodes existent. En effet, au début des années
90, dans le contexte automobile, c’est le filtre de Kalman (KF) qui est utilisé pour le suivi des objets car
il a prouvé son efficacité dans de nombreux domaines applicatifs. Différentes méthodes seront alors mises
en œuvre comme l’utilisation de plusieurs capteurs (Baig et al., 2011; Darms et al., 2008), l’utilisation des
lignes de la route qui permettent d’améliorer les précisions de modèle (Tan et al., 2007). Cependant, ce filtre
ne permet pas l’étude de système non-linéaire. Des extensions du filtre de Kalman prenant en compte ce type
de systèmes existent : le filtre de Kalman étendu (EKF) permettant de linéariser les systèmes non-linéaires
et le filtre de Kalman sans parfum (UKF) qui est une extension de la transformation sans parfum (méthode
pour calculer les statistiques d’une variable aléatoire issue d’une transformation non-linéaire). De même que
pour le filtre de Kalman, ces filtres sont exploités. Depuis les années 2000, une nouvelle catégorie de filtres,
reposant directement sur l’estimation de la densité de probabilité conditionnelle, solution du problème de
filtrage, fait son apparition. Ces filtres, appelés filtres particulaires ou méthodes de Monte-Carlo séquentielles
ont été introduis en 1992. Contrairement au filtre de Kalman et ses extensions, ces derniers sont applicables
quelles que soient les non-linéarités de modèle.
Une autre difficulté réside dans l’environnement dans lequel nous nous trouvons. En effet, la technique
mise en œuvre pour suivre un véhicule de jour sera différente de celle de nuit, compte tenu des différences de
visibilité. Le jour, les véhicules sont entièrement visibles (s’ils ne sont pas occultés par les autres), par contre
de nuit, les véhicules sont partiellement visibles (sans pour autant être occultés). Cela implique des méthodes
de suivi variées. Considérons l’exemple de O’Malley et al. (2011), où les auteurs partent du constat que, la
nuit, les premiers éléments visibles des véhicules sont ses phares. C’est pourquoi, ils proposent un système de
traitement des images vidéo pour détecter et suivre les véhicules de nuit à partir de leurs phares. Pour le suivi
de jour, il existe plusieurs méthodes, par exemple, celle de Tan et al. (2007), qui met en place un système
de vision monoculaire guidé par radar combiné à la détection et au suivi de la signalisation horizontale de
la route afin de détecter les véhicules et prédire leur intention de changer de voie. Leur but est de mettre en
place des systèmes d’aide à la conduite et de prévention de collision.
On peut constater le même phénomène avec le suivi des piétons. Olmeda et al. (2009) proposent de dé-
tecter et suivre, de nuit, des piétons à partir d’une caméra infrarouge avec laquelle ils peuvent extraire les
caractéristiques de distribution de la chaleur du corps humain. Dans les travaux de Masoud et Papanikolopoulos
(2001), les auteurs s’intéressent à la modélisation et au suivi des piétons, de jour, aux intersections de
type carrefour. Pour cela, ils présentent un système temps réel pour le suivi de piétons dans des séquences
d’images acquises par caméra fixe.
Compte tenu du nombre important de recherches sur le sujet, il est évident que nous n’avons pas balayé
l’intégralité des techniques et méthodes utilisées pour la détection et le suivi d’obstacles sur route. Cependant,
nous avons mis en évidence que le choix d’un capteur, d’un outil et plus généralement d’une méthode de
détection et de suivi est déterminé par le système que nous souhaitons étudier. Toute la difficulté réside donc
dans les choix réalisés pour la mise en place de notre approche de détection et de suivi multicible. Quel
capteur est le plus approprié ? De quels outils de détection et de suivi avons-nous besoin ? Et enfin quelle
méthode allons-nous mettre en place ? Le paragraphe suivant sera consacré à l’étude des capteurs utilisés
dans le domaine automobile et aux architectures fonctionnelles existantes.Capteurs et architectures 7
I.2 Capteurs et architectures
La section précédente a mis en évidence la complexité des systèmes de suivi multi-objets, liés aux
contraintes du domaine autoroutier et à l’environnement. Dans cette section, nous cherchons des solutions à
ces contraintes en étudiant les différents capteurs utilisés et également les différentes architectures de traitement
qui existent, pour la détection d’objets sur route. Nous étudierons dans un premier temps les différents
capteurs, puis dans un second temps les architectures existantes.
I.2.1 Capteurs
I.2.1.1 Système de vision par caméra
Les systèmes de vision par caméra sont utilisés dans les systèmes d’aide à la conduite. Suivant le système
mis en place, ils sont composés d’une ou plusieurs caméras. Elles permettent d’accéder à une grande
quantité d’informations sur un champ de vue large (les données maximales peuvent atteindre 180˚ d’angle
de vue sur environ 90m). L’image résultante peut être en couleur, en niveau de gris ou encore une image
infrarouge, cela dépend de la caméra utilisée. L’un des inconvénients de la caméra pour ce type d’application
est qu’elle ne fournit pas directement l’information de mesure des distances. Pour cela, elle doit faire
appel à des algorithmes de traitement d’image plus ou moins complexes pour réaliser la détection. Dans la
littérature, différents systèmes sont mis en place à partir de caméra.
– Les systèmes de vision par caméra monoculaire se distinguent généralement par le type d’objectif qui
les composent. Nous pouvons distinguer deux types d’objectif, ceux de petit angle de vue, celui-ci
correspond généralement à un objectif de longue focale et ceux de grand angle de vue, qui peuvent
atteindre jusqu’à 180˚ dans la diagonale. Dans cette dernière catégorie, il existe des objectifs de type
Fisheye (figure I.4 gauche).
FIGURE I.4. Une camera avec objectif de type Fisheye à gauche et photo du ciel prise avec la caméra à droite
L’intérêt premier de ces caméras est leur grand angle de champ, cependant, celui-ci cause une distorsion
de l’image. La figure I.4 de droite montre une photo prise par la caméra Fisheye appartenant
au LEOST, c’est une vue du ciel qui présente des distorsions (le centre est grossi par rapport aux cô-
tés de l’image). L’utilisation de ce type de caméra implique donc de mettre en place des traitements
particulier afin de réduire ces effets de champ.
Dans le contexte routier, la plupart des algorithmes de détection visent à trouver dans l’image un
modèle d’objet connu, le plus souvent voiture ou piéton. Selon (Perrollaz, 2008), deux étapes sont
nécessaires pour la détection. La première consiste à extraire des primitives pouvant appartenir à des
obstacles (par exemple, utiliser les contours images des objets, utiliser les symétries des objets à suivre,
les textures et les ombres, l’utilisation de capteur particulier comme les caméras infrarouges permettent
de distinguer efficacement les sources de chaleur), et la deuxième cherche à vérifier que celles-ci
correspondent effectivement aux modèles d’obstacles recherchés.8 Problématique, capteurs et architectures de traitement
– Les systèmes stéréoscopiques sont généralement constitués de deux caméras identiques fixées sur
un support rigide. Elles sont alignées, et ont leur objectif parallèle, pointant vers la même direction,
sans pour autant converger. La figure I.5 de gauche montre un système stéréoscopique appartenant au
LEOST. Il est composé de deux caméras positionnées sur un support rigide à une distance connue l’un
de l’autre. Le système est tel que les deux caméras sont déclenchées au même instant. Ceci implique
une synchronisation importante d’autant plus si le ou les objets à suivre sont mobiles. L’utilisation de
ce genre de système permet d’obtenir des informations de profondeur de la scène. Il est également possible
de faire de la vision stéréoscopique avec une unique caméra en utilisant deux instants successifs
et la donnée temps, les traitements des images sont ensuite similaires.
FIGURE I.5. Système stéréoscopique expérimental (LEOST) à gauche et image d’une scène prise par un
système stéréoscopique et sa carte de disparité à droite
La stéréovision permet d’obtenir une image 3D de la scène à partir des deux images prisent au même
instant. Pour cela, il existe plusieurs techniques décrites dans (Perrollaz, 2008) que nous présentons
rapidement :
Les approches par appariement qui correspondent à la mise en correspondance des informations issues
des différentes images du système stéréoscopique. Cette méthode correspond à l’algorithme de stereo
matching qui cherche à définir les pixels en correspondance, c’est-à-dire, ceux formés par un seul point
de l’objet observé sur chacune des images. Cela permet de construire une image ou carte de disparité,
la segmentation de celle-ci permet de réaliser la détection des objets. La figure I.5 de droite, prise avec
le matériel du LEOST, montre une scène prise sur autoroute à gauche, et à droite sa carte de disparité
associée. La carte de disparité correspond à une image de profondeur, on l’interprète ainsi, lorsque les
couleurs tendent vers le rouge foncé, cela signifie que l’on est proche du véhicule porteur, à l’inverse
lorsque les couleurs tendent vers le bleu foncé, cela signifie que l’on est loin du véhicule porteur.
Les approches par rectification homographique qui consistent à appliquer une transformation homographique
à l’une des images, ou une transformation perspective inverse aux deux, pour que l’apparence
de la route soit semblable dans les deux images. Les pixels n’appartenant pas au plan de la route
sont alors extraits par la différence entre les deux images, associés à un seuillage. Ces pixels sont alors
segmentés et correspondent aux objets.
Les systèmes de vision par caméra sont intéressants car ils permettent d’obtenir des informations sur une
distance pouvant atteindre les 90 mètres. En dépit de leurs hautes performances en vision de la scène, on
distingue quatre types de contraintes relatives à l’information transmises par une caméra :
– les problèmes de synchronisation des différentes caméras entre elles,
– les temps de transfert,
– les temps de traitement,
– les problèmes de stockage.
Les trois dernières sont consécutives à la quantité d’information à traiter. En effet, la quantité d’information
contenue dans une image est importante (2048x1944 pixels) suivant la résolution de l’objectif, le temps de
transfert, le temps de traitement et les problèmes de stockage d’une image dépendent de la quantité d’information
qu’elle contient. Il est possible de réduire cette quantité d’information en réduisant la taille de l’imageCapteurs et architectures 9
cependant, cette manipulation implique une perte de précision qui, si elle est trop prononcée, implique une
perte de précision au niveau des traitements. Une autre possibilité pour "réduire" la quantité d’information à
traiter est de choisir de ne pas traiter toutes les images en provenance de la caméra. Cela permet de stocker
une quantité d’information moins importante mais également de réduire le coût de traitement.
I.2.1.2 Radar
Le radar est un système utilisant les ondes radio afin de détecter la présence, la position et la vitesse
d’objets. Pour cela, il émet une onde produite par un oscillateur radio. C’est la réflexion de cette onde sur un
objet qui sera analysée à son retour. Le temps de vol aller et retour mesuré permet de localiser l’objet détecté.
Il existe différentes façons d’émettre ces ondes. Les plus utilisées sont :
– les radars à impulsions, où le radar émet périodiquement une impulsion et attend son retour. Le temps
de vol aller et retour de l’onde entre l’antenne et la cible est alors mesuré.
– les radars à émission continue qui émettent continuellement à partir d’une antenne et reçoivent à l’aide
d’une seconde.
L’analyse du signal réfléchi offre la possibilité de localiser et d’identifier l’objet responsable de la ré-
flexion, ainsi que le calcul de sa vitesse de déplacement grâce à l’effet Doppler (dans le cas des radars
cohérents). Ainsi, le radar peut détecter des objets ayant une large gamme de propriétés réflectives alors que
les autres types de signaux, tels que le son ou la lumière visible revenant de ces objets, seraient trop faibles
pour être détectés. De plus, les ondes radio peuvent se propager avec une faible atténuation à travers l’air
et divers obstacles tels les nuages, le brouillard ou la fumée, qui absorbent rapidement un signal lumineux.
Cela rend possible la détection et le pistage dans des conditions qui paralysent les autres technologies.
Dans le domaine automobile, citons à titre d’exemple les travaux de Bank (2007) qui introduisent un
algorithme de traitement du signal Radar pour le développement d’une fonction d’alerte de collision latéral.
Pour cela, ils utilisent un capteur radar SRR (figure I.6) de fréquence 24,125GHz pour la détection d’objets
de 0,2m à 30m avec une résolution en distance de 0,15m. Ils utilisent un filtre de Kalman pour réaliser le suivi
multicapteur, multicible. Pour appliquer ce filtre, un modèle de vitesse constante est choisi. Enfin, l’approche
globale du plus proche voisin est utilisée pour associer les nouveaux objets avec des pistes existantes.
FIGURE I.6. Image d’un radar SRR extraite de (Bank, 2007)
Skutek et al. (2003) mettent en place un système anticollision pour voiture, fonctionnant sous toutes les
conditions météorologiques. Il est basé sur quatre radars courte portée de 24GHz et un système de traitement
du signal associé. Ce dernier fournit l’information sur une situation de collision potentielle. Le système est
décrit en quatre étapes, d’abord, les mesures passent dans un filtre d’entrée qui crée un masque et filtre la
distance entre objet et radar. Ensuite, la vitesse relative des objets est estimée. Puis, les auteurs estiment les
distances critiques entre deux véhicules et enfin, ils classifient les objets par rapport à cette distance.
Perrollaz (2008) montre que le radar présente quelques limites pour les applications automobiles. En
premier lieu, l’angle de vue du capteur est faible, environ 10 degrés pour un radar longue portée (∼ 120m) et10 Problématique, capteurs et architectures de traitement
70 degrés pour les radars courtes portées (∼ 30m). Cette faible résolution angulaire ne permet pas toujours
de distinguer deux objets situés côte à côte par exemple. En second lieu, la présence de nombreux échos
parasites dans la chaussée ou sur les bords de la route provoque un grand nombre de fausses détections. Pour
limiter ces fausses détections, les objets situés en milieu de voie et immobiles par rapport au véhicule porteur
sont filtrés, par comparaison de leur vitesse avec celle du porteur. Enfin, ce type de capteur ne permet pas la
détection fiable des piétons car ceux-ci créent peu d’échos.
I.2.1.3 Lidar
Un télémètre laser permet de réaliser une mesure précise entre le capteur et un obstacle. Ce système
de mesure, également appelé LIDAR (LIght Detection And Ranging) est conçu à l’aide de lasers. C’est un
système utilisant la lumière afin d’estimer la distance d’un objet. Pour cela, il émet une onde lumineuse, la
distance à un objet ou à une surface est donnée par le délai entre le temps d’émission de l’impulsion et le
temps de détection du signal réfléchi. Contrairement au radar, le lidar permet de détecter tout type d’objets
(aussi bien véhicule que piéton) à partir du moment où celui-ci renvoie tout ou une partie de la lumière
incidente. Les mesures transmises par le lidar correspondent à une distance et un angle.
À la différence du radar, le capteur lidar émet une onde très focalisée et non sur un cône d’ouverture
angulaire donnée. Dans le domaine autoroutier, ce sont les capteurs télémétriques à balayage qui sont géné-
ralement utilisés car ils permettent de balayer la scène par envoi de multiple rayons. L’orientation du rayon
est permise par un miroir rotatif, commandé par un moteur électrique. Cette technique permet d’orienter le
rayon dans un grand nombre de direction, ainsi un angle de vue large peut être étudié et ce avec une grande
précision angulaire.
En raison de sa directivité plus grande, le capteur lidar est plus sensible aux mouvements du véhicule
que les autres capteurs. Le tangage de celui-ci peut provoquer une désorientation du rayon capteur et ainsi
toucher la route émettant un écho factice. L’utilisation d’un capteur télémétrique multicouche permet de
remédier partiellement à cette difficulté en donnant une vision 3D de la scène. Ce type de capteur émet
plusieurs niveaux de tir comme le montre la figure I.7. Des traitements et un paramétrage supplémentaire
sont donc indispensables.
FIGURE I.7. Principe du lidar multicouche
Takagi et al. (2006) présentent un algorithme de reconnaissance de l’environnement routier à partir d’un
capteur lidar. Pour cela, ils utilisent un capteur DENSO multiplan à trois nappes pour détecter les véhicules
et les signalisations horizontales jusqu’à 120m. Dans cet article, la fréquence est de 10Hz, l’élévation du
rayon est de (−4˚, 4˚) et son azimut est de (−18˚, 18˚) avec une résolution angulaire de 0,08˚. Les auteurs
utilisent un algorithme de détection en trois étapes, reconnaissance des objets, reconnaissance des signalisations
horizontales et reconnaissance de l’environnement routier par l’intégration des deux premières étapes.
Nous choisissons de nous focaliser sur le capteur lidar pour résoudre notre problème de détection et
de suivi d’obstacle. En effet, ce capteur permet d’obtenir une grande quantité d’informations concernant laCapteurs et architectures 11
scène, et ceci avec une faible demande en mémoire. Ceci a notamment un impact sur les temps de transfert
et les problèmes de stockage. La capacité du capteur à détecter tous types d’objets et cela sur une distance
pouvant atteindre 120m sur une ouverture angulaire de (−18˚, 18˚) (exemple de (Takagi et al., 2006)) correspond
à nos besoins. Un dernier aspect est la capacité des fournisseurs à gérer les difficultés liées au domaine
automobile, avec notamment la mise en place d’un balayage horizontal et d’un balayage vertical pour pallier
les difficultés liées au contexte routier (déplacement sur la route, tangage). La section I.3 concernant le lidar
réalise une étude plus poussée des capteurs lidar avec notamment un tour d’horizon des différents capteurs
du marché.
I.2.2 Architectures de traitement de données
Dans cette section, nous cherchons à caractériser les différentes architectures de traitement des systèmes
de détection et de suivi d’obstacles. Ces systèmes sont représentés par une suite de tâches liées, qui effectuées
les unes après les autres, permettent d’obtenir l’objet suivi ou à suivre à partir des données reçues en entrée
du système.
L’architecture de traitement d’un problème de détection et de suivi d’objets varie suivant plusieurs
points : le nombre de capteurs utilisés, l’utilisation d’une tâche de fusion de données, le nombre d’objets
à suivre. Nous présentons ici les architectures permettant la détection et le suivi d’un ou plusieurs objets à
partir d’un ou plusieurs capteurs. Les cas multicapteur et monocapteur sont étudiés séparément.
I.2.2.1 Architectures multicapteur classiques
La présence de plusieurs capteurs implique la présence d’une étape de fusion de données. Dans les
livres (Waltz et Llinas, 1990; Hall, 1992; Hall et Llinas, 1997), les auteurs présentent trois types distincts
d’architecture basés sur la fusion des données que nous présentons ci-après :
– architecture de fusion centralisée (figure I.8). Dans cette approche, les données brutes de chaque capteur
sont transmises à une unité de traitement composée successivement d’une étape de fusion centralisé
qui réalise l’association des données, suivie par une étape de corrélation, une étape de filtrage qui
réalise l’estimation dynamique et enfin une étape de classification des objets ciblés. Ce type d’architecture
permet d’obtenir à la fois une estimation du vecteur d’état de chaque objet mais également une
classification des objets suivis.
FIGURE I.8. Architecture de fusion centralisée extraite de (Waltz et Llinas, 1990)
– architecture de fusion autonome (figure I.9). Les données brutes de chaque capteur sont localement
prétraitées pour générer un vecteur d’état et classifier les objets. Les informations résultantes sont
transmises à l’unité de traitement, identique à celle de l’architecture de fusion centralisée, pour le
calcul de l’estimation d’état.12 Problématique, capteurs et architectures de traitement
FIGURE I.9. Architecture de fusion autonome extraite de (Waltz et Llinas, 1990)
– architecture de fusion hybride (figure I.10). Cette architecture est une combinaison des architectures
centralisées et autonomes. On a donc deux étapes distinctes. La première partie de l’architecture est
identique à celle de fusion autonome. Ensuite, une deuxième partie récupère les informations brutes
en sortie des capteurs et les transmet à une unité centrale qui effectue la détection suivant le même
schéma que l’architecture de fusion centralisée. Les informations résultantes sont transmises à l’unité
de filtrage qui calcule l’estimation des vecteurs d’états et classe les objets.
FIGURE I.10. Architecture de fusion hybride extraite de (Waltz et Llinas, 1990)
Dans ces trois cas, on utilise les données brutes de chacun des capteurs. Il existe également une autre
alternative qui ajoute une étape de prétraitement local associé à chaque capteur (en pointillés sur les figures).
Cette étape permet d’extraire des données brutes les vecteurs caractéristiques pour chaque objet détecté.
C’est cette étape de prétraitement qui diffère suivant le capteur utilisé.
Dans ce type d’architecture, l’abondance de capteurs peut vite devenir problématique et ce pour diffé-
rentes raisons. L’utilisation de capteurs de types différents implique des prétraitements de données locaux
afin de fusionner des informations de même type, ce qui peut augmenter le coût de calcul. Par contre, cette
multiplicité des informations est un avantage majeur qui permet la redondance des informations. Ainsi, un
objet peut être vu par plusieurs capteurs. Cela a pour avantage de limiter les fausses alarmes, non détection
et autres. Ceci implique également que la défaillance d’un capteur peut être compensé par les autres ce qui
n’est pas le cas dans les architectures monocapteurs.
Quand plusieurs capteurs coexistent, un autre souci est la synchronisation des données. En effet, il est
possible que les informations émises par les différents capteurs ne proviennent pas des mêmes instants rendant
nécessaire l’utilisation d’une étape de synchronisation.Capteurs et architectures 13
I.2.2.2 Exemple d’une architecture autonome dans le domaine automobile
Le projet européen CARSENSE (Wahl, 2002) a conçu un démonstrateur de fusion de données multicapteurs
pour détecter les objets devant le véhicule porteur. Son architecture comporte (figure I.11) deux
capteurs extéroceptifs autonomes dotés de capacité locale de suivi (laser scanner) et de traitement d’images
(unité vidéo) et des capteurs proprioceptifs fournissant au système de fusion de données et aux capteurs
extéroceptifs les informations d’angle de braquage, de vitesse, de vitesse de lacet et d’accélération latérale
du véhicule. Dans cette architecture, l’unité de fusion est en charge de la gestion centralisée du bus capteur
auquel sont connectés les unités vidéo et laser scanner. Elle transfère périodiquement du bus véhicule au
bus capteur, les informations proprioceptives nécessaires aux capteurs extéroceptifs. Elle réalise également
la fusion des informations du laser scanner et de l’unité vidéo sur un matériel spécifiquement conçu pour
accueillir les algorithmes de fusion de données.
FIGURE I.11. Architecture du système de fusion de données du projet CARSENSE extraite de Wahl (2002)
I.2.2.3 Architecture monocapteur pour lidar
Dans le cas d’une détection et d’un suivi monocapteur, l’architecture de traitement est simplifiée quant au
nombre de capteurs mais reste similaire au niveau des étapes de traitement. Prenons l’exemple monocapteur
(figure I.12) du projet CARSENCE (Kiehn et al., 2002). L’objectif est le suivi des objets, via des informations
de haut niveau, obtenues à partir d’un laser à balayage. Les données brutes sont segmentées puis transmises à
un module d’affectation, correspondant à la fusion. Celui-ci associe les données provenant de la segmentation
à celles de la prédiction des objets (de l’instant précédent). Les informations résultantes sont transmises à un
module de classification des objets puis à un module de mise à jour, il en ressort l’objet suivi.14 Problématique, capteurs et architectures de traitement
FIGURE I.12. Architecture de traitement monocapteur lidar extraite de (Kiehn et al., 2002)
Si maintenant nous observons le choix d’architecture monocapteur de Jida (2008) présenté en figure I.13.
On remarque que l’architecture est simplifiée au niveau des capteurs, a contrario elle se complique fortement
au niveau de l’unité de traitement. Dans cette thèse (Jida, 2008), l’auteur cherche à estimer les paramètres
dynamiques des objets observés sur une scène afin de mettre en place un système d’aide au conducteur.
Pour cela, il part du constat que la nature du suivi multi-objets implique d’associer, efficacement et à chaque
instant, les mesures disponibles à chaque objet présent dans la scène pour permettre une estimation de leurs
paramètres dynamiques. Dans un premier temps, les paramètres prédéfinis des objets sont extraits par trois
phases :
– une phase d’acquisition des signaux qui utilise un capteur rotatif laser,
– une phase de prétraitement qui met en forme les signaux sous forme de mesures,
– une phase de détection des objets qui identifie des groupes de mesures correspondant à des objets à
suivre selon différents critères et connaissances, a priori, de la forme des obstacles.
Dans un second temps, il met en relation les objets détectés avec les données précédentes. Cela correspond
à l’étape d’association. Il s’en suit une étape d’estimation, de suivi et enfin de prédiction correspondant
notamment aux différentes phases d’un filtre prédictif de Kalman et à la gestion du suivi des objets dans le
temps. Des pistes sont créées (une piste est un ensemble de variables caractérisant les objets suivis), d’autres
sont maintenues et mises à jour en fonction des apparitions et disparitions des objets détectés devant le véhicule,
enfin certaines sont détruites lorsqu’aucune nouvelle observation ne leur a été affectée depuis un temps
prédéfini.Le télémètre laser à balayage : capteur lidar 15
FIGURE I.13. Architecture de traitement monocapteur lidar extraite de Jida (2008)
I.3 Le télémètre laser à balayage : capteur lidar
I.3.1 Principe du télémètre laser à balayage
La technologie laser est directive, elle permet d’envoyer un signal lumineux dans une direction donnée.
Dans les systèmes embarqués, la directivité du signal lumineux a pour conséquence le décrochage régulier
de l’obstacle suivi, qui entre et sort régulièrement de la ligne de tir. Pour pallier cette directivité, les concepteurs
de capteur télémétrique ont, à partir des années 2000, augmenté l’ouverture angulaire horizontale des
capteurs (Fuerstenberg et al., 2001c; Velodyne, 2013; Ogawa et Takagi, 2006). Ainsi le signal balaye la scène
(figure I.14 haut) sur l’ouverture angulaire. Ce balayage est rendu possible par l’utilisation d’un prisme rotatif
couvrant 360˚. La résolution angulaire varie en général de 0,25˚ à 1˚ et dépend de la fréquence du balayage.
La portée du laser dépend de la taille et de la réflectivité de l’objet. Par exemple, pour un objet de forte
réflectivité, la portée peut atteindre 250m à l’inverse pour un objet peu réflectif (5% de réflectivité) la portée
atteint les 40m (Fuerstenberg et Willhoeft, 2001a,b; Fuerstenberg et al., 2001c).
Ces capteurs sont également sensibles au roulis et au tangage du véhicule, dans ce cas, le signal lumineux
change d’inclinaison, cela a pour conséquence le décrochage de l’obstacle suivi, menant comme précédemment
à des pertes du signal. Dans les années 2000−2002 la société IBEO a conçu, à partir d’une première
expérience (capteur laser scanner IBEO LD), une nouvelle génération de capteurs capables de mesurer les
distances sur différents plans verticaux de balayage (IBEO LDML). Ceci correspond au balayage vertical
(figure I.14 bas) de la scène et permet d’être moins sensible au tangage du véhicule (Fuerstenberg et al.,
2002a,b, 2003). Le capteur balaye ainsi la scène suivant deux plans, un vertical et un horizontal.
FIGURE I.14. Principe du balayage horizontal (en haut) et vertical (en bas) extrait de (Besesty, 1999)16 Problématique, capteurs et architectures de traitement
Dans notre contexte d’étude, c’est la technologie laser à balayage qui est donc utilisée. Le laser émet
une onde lumineuse par son émetteur laser et la reçoit via son récepteur comme le montre la figure I.15. La
distance à la cible étant proportionnelle à l’intervalle de temps entre transmission et réception de l’impulsion,
c’est le temps de vol aller et retour de l’émetteur au récepteur en passant par la cible qui donne la distance à
l’objet.
FIGURE I.15. Schéma de fonctionnement du télémètre laser à balayage extrait de (Besesty, 1999)
Selon (Besesty, 1999), il existe deux méthodes pour mesurer les temps de parcours :
– un faisceau lumineux est modulé, dans ce cas, c’est la notion de retard de phase qui est importante
pour la mesure. Cette méthode est le plus souvent employé pour mesurer des distances courtes,
– une impulsion optique courte est générée, le système mesure alors le temps mis par la lumière pour
revenir au récepteur. Cette méthode est la plus souvent utilisée pour déterminer des grandes distances.
La distance correspond alors à :
D =
c
2
(Tstop −Tstart) (I.1)
où D est la distance du capteur à la cible, c est la vitesse de la lumière, Tstart est le temps de départ du
signal et Tstop celui de fin d’émission (comme le montre la figure I.16).
FIGURE I.16. Principe de mesure du temps de vol d’une onde émise par le télémètre laser à balayage extrait
de (Besesty, 1999)Le télémètre laser à balayage : capteur lidar 17
I.3.2 Exemple de mesures lidar issue de capteur monoplan et multiplan
Le capteur lidar est généralement muni d’un système interne de traitement qui permet de transformer
le signal présenté ci-dessus en échos (ρ, θ). Ce sont ces échos qui sont délivrés par le lidar et que nous
étudions, c’est pourquoi nous les présentons, dans cette section.
Les mesures télémétriques d’un lidar décrivent la scène par un ensemble de points, appelés impacts
ou échos, correspondant à la scène qu’il balaye. Dans cette scène, les véhicules présents sont représentés
par des ensembles d’impacts correspondant à la partie visible de leurs contours. Ces ensembles de points
contiennent un nombre variable d’impacts suivant l’orientation et la distance de l’objet. Ils peuvent être
séparés en segment contour du véhicule représentant un ou deux côtés du véhicule (Fuerstenberg et al.,
2003).
Les figures présentées ci-après sont issues d’une simulation, d’un capteur de type télémètre laser à balayage,
avec le logiciel SiVIC (Livic, 2011). Le véhicule porteur du capteur est situé voie centrale. Les
figures I.17 du bas présentent deux types de mesures, converties dans le repère cartésien. La première (à
gauche) représente les mesures de la scène prises par un capteur monoplan et l’autre (à droite) celles prises
par un capteur multiplan. La scène représentée par les deux figures est celle présentée en figure I.17 du haut
où quatre véhicules, situés à des distances différentes, évoluent sur les trois voies de la route.
Sur la figure I.17 de gauche, le capteur lidar monoplan visualise les données de la route sur une ouverture
angulaire de 180˚ avec une résolution angulaire de 0,25˚. La portée du capteur est de 10m à 180m (les
éléments considérés à l’infini sont à 180m). La fréquence d’échantillonnage est de 20Hz. Le capteur lidar
multiplan (à droite) visualise les données de la scène avec les mêmes caractéristiques que le capteur monoplan.
Les tirs capteurs sont effectués suivant une élévation de 0˚ en bleu, 0,4˚ en rouge, 0,8˚ en vert et 1,2˚ en
cyan.
Sur la figure I.18 de gauche, un agrandissement, du véhicule situé en bas à droite de la scène vue par
le capteur lidar multiplan (figure I.17 à droite), permet de montrer les différents plans déterminant un objet.
Ce véhicule est proche du véhicule porteur du capteur, l’élévation du tir permet de voir tous les plans, par
contre pour le véhicule situé voie centrale, seuls les plans d’élévation 0˚ et 0,4˚ sont visibles (figure I.18
de droite ). Cette disparition des informations constitue la principale difficulté de l’étude de ces données
capteurs multiplans.18 Problématique, capteurs et architectures de traitement
−8 −6 −4 −2 0 2 4 6 8
0
20
40
60
80
100
120
140
160
180
x (m)
y (m)
scène monocouche
−60 −50 −40 −30 −20 −10 0 10 20 30
0
20
40
60
80
100
120
140
160
180
x (m)
y (m)
scène multicouche
FIGURE I.17. Image CCD de la scène et le balayage capteur associé vu par le lidar monoplan (en bas à
gauche) et par le lidar multiplan (en bas à droite)
2 2.5 3 3.5 4 4.5 5
15
15.5
16
16.5
17
17.5
18
18.5
19
19.5
20
x (m)
y (m)
zoom véhicule voie de gauche bas de la scène multicouche
−1.5 −1 −0.5 0 0.5 1 1.5
94
94.5
95
95.5
96
96.5
97
97.5
98
98.5
99
x (m)
y (m)
zoom véhicule voie centrale de la scène multicouche
FIGURE I.18. Agrandissement de la représentation de la scène vue par le lidar multiplan (figure I.18 à gauche)
sur le véhicule en bas de la voie droite (à gauche) et sur le véhicule voie centrale (à droite)Le télémètre laser à balayage : capteur lidar 19
I.3.3 Évolution des capteurs lidar
Après avoir vu le fonctionnement des capteurs lidar, nous nous focalisons sur leur évolution, dans le domaine
automobile, en décrivant quelques exemples de capteur. Bien que similaires dans leur fonctionnement,
ils diffèrent par leurs caractéristiques et leurs évolutions. Différents fournisseurs réalisent et commercialisent
des capteurs de type lidar, tel que DENSO, IBEO, SICK et Velodyne.
Dans la littérature, beaucoup d’articles font références aux capteurs de la gamme IBEO. Par contre pour
les fournisseurs DENSO, SICK et velodyne, peu d’articles y font référence et nous trouvons peu d’informations
concernant les capteurs qu’ils réalisent. (com, 2014) donne tout de même une comparaison rapide des
capteurs DENSO, SICK LD-MRS et Velodyne HDL-64E présentés en figure I.19 et tableau I.1.
FIGURE I.19. Présentation des capteurs DENSO, SICK LD-MRS et Velodyne HDL-64E (de gauche à droite)
extrait de (com, 2014)
DENSO SICK LD-MRS Velodyne HDL-64E
Distance 120m > 50m pour 10% de réflectivité
50m pour 10% de réflectivité,
120m pour 80% de
réflectivité
Précision en distance < 10m < 100mm < 20mm
Angle d’ouverture horizontale
36˚ 110˚ (2 plans), 85˚ (4 plans) 360˚
Angle d’ouverture verticale
8˚ 1,6˚ (2 plans) 3,2˚ (4 plans) 26,8˚
Fréquence de balayage 10Hz 12,5Hz, 50Hz 5−15Hz
Résolution angulaire 0,08˚ 0,25˚ (à 12,5Hz) et 0,5˚ (à
50Hz)
0,09˚
Nombre de plan 6 2 ou 4 64
Tableau I.1. Comparaison des capteurs DENSO, SICK LD-MRS et Velodyne HDL-64E extrait de (com,
2014)
Nous choisissons d’étudier les capteurs de la gamme IBEO et leurs évolutions. La société IBEO , créée
en 1998 et située à Hambourg en Allemagne devient « IBEO Automobile Sensor » en devenant filiale de la
société SICK. Son activité est concentrée sur les lasers à balayage pour l’automobile.20 Problématique, capteurs et architectures de traitement
I.3.3.1 Capteur IBEO LD Automotive
Le premier capteur réalisé et commercialisé par IBEO, est un capteur laser à balayage « IBEO LD Automotive
» à forte résolution. Le système mis en place est généralement muni d’un capteur et d’un ordinateur
pour le traitement interne des données. Le champ de vision de ce capteur est ouvert à 270˚, il peut détecter un
véhicule à partir de 3m jusqu’à 250m suivant la réflectivité de l’objet (40m pour un objet à 5% de réflectivité)
avec une précision de ±5cm. Sa résolution varie de 0,25˚ à 1˚ pour une fréquence allant de 10Hz à 40Hz
(Fuerstenberg et Willhoeft, 2001a,b; Fuerstenberg et al., 2001c).
Fuerstenberg et Willhoeft (2001a) partent du constat que la classification des objets détectés est importante
pour estimer la dangerosité des obstacles. Ils constatent, par ailleurs, qu’il est intéressant d’obtenir des
informations sur le risque potentiel des objets environnants afin de protéger les piétons en cas de collision.
Les auteurs présentent, dans cet article, le laser « IBEO LD Automotive » et leurs algorithmes de détection,
suivi et classification. Les mesures brutes, en sortie du capteur, sont divisées en groupes représentant un
même objet. Un filtre de Kalman est utilisé pour estimer la vitesse longitudinale et latérale de l’objet. Enfin,
les objets sont classés suivant les données.
Ce capteur a également été utilisé dans le projet CHAMELEON (« Pre-crash application all around
the vehicle »). Ce projet portait sur le développement d’une plateforme sensorielle de détection de collision
imminente, autour du véhicule et pour tout type de scénario (Fuerstenberg et al., 2001d; Chameleon, 2013).
Dans ce projet, le capteur « IBEO LD Automotive » a été utilisé pour la détection, le suivi et la classification
des objets (voiture, piéton, ...).
I.3.3.2 Capteur IBEO LD-ML (Ladar Digital MultiLayer)
(Fuerstenberg et al., 2002a,b, 2003) partent du constat que le capteur « IBEO LD Automotive » est sensible
aux mouvements du véhicule, perturbant ainsi la détection. La société IBEO présentent alors une nouvelle
génération du capteur IBEO (décrit dans ces articles) permettant de pallier ce problème : le capteur
« IBEO LD-ML » (Ladar Digital MultiLayer). Celui-ci possède des caractéristiques similaires à celle du
capteur « IBEO LD Automotive ». Elles sont présentées en figure I.20.
FIGURE I.20. Le capteur IBEO LD-ML (à gauche) et ses caractéristiques (à droite)
Ce capteur a la capacité de détecter deux distances avec un unique tir laser. Cela se produit si le faisceau
frappe une cible à faible réflectivité et transmission élevée ou des cibles de petites tailles tels que le verre ou
les gouttes de pluie. Dans ce cas, une partie du faisceau est déviée vers le capteur, déclenchant la première
mesure. Par la suite, le faisceau restant frappe une seconde cible, et l’écho de cette cible déclenche la seconde
mesure. Ainsi pour un angle donné, le capteur peut recevoir jusqu’à huit valeurs de distance en prenant en
compte le balayage vertical. Avec un capteur monocible, la réception du faisceau dévié arrêterait la mesure,
et l’objet resterait caché. Concrètement, le capteur « IBEO LD-ML » attend la pulsation du second écho pourLe télémètre laser à balayage : capteur lidar 21
générer la mesure d’un objet. À moins que trop de lumière soit absorbée par la distorsion, ceci permet au
laser à balayage de voir à travers la pluie (Fuerstenberg et al., 2002a,b).
Le capteur laser « IBEO LD-ML » a été développé pour supporter une large gamme d’application automobile,
incluant le freinage d’urgence, le « Stop and Go », la reconnaissance de piéton et le « Pre-Crash »
(Fuerstenberg et al., 2002a).
Une application de ce type de capteur est donnée dans (Gidel et al., 2008). Les auteurs de cet article
présentent une méthode de détection, d’identification et de suivi de piétons à partir d’un unique capteur laser
quatre plans. Pour cela, les points du balayage sont regroupés en différentes classes géométriques, dont le
but est de filtrer le fond de l’image (murs, voiture, ...). Les auteurs utilisent ensuite une méthode exploitant
la technique de fenêtrage de Parzen afin d’isoler les piétons. Enfin, ils utilisent un filtre à particules pour
caractériser la trajectoire du piéton.
I.3.3.3 Capteur ALASCA (Automotive Laser SCAnner)
Le successeur du capteur « IBEO LD-ML » est l’ALASCA (Automotive Laser SCAnner). La version
suivante est l’ALASCA XT. Ces deux capteurs IBEO comptent jusqu’à quatre réflexions par impulsion laser
contrairement au capteur « IBEO LD-ML » qui n’en comptait que deux. Ces capteurs ont la capacité de dé-
terminer si la mesure reçue provient d’un signal retourné par un réflecteur (type plaque d’immatriculation,
...) ou d’une autre surface à moindre pouvoir réfléchissant. En effet, la réflexion totale ou diffuse d’un objet
crée des différences dans le rayonnement de l’impulsion de l’écho. Ces disparités se situent au niveau
du récepteur du capteur et peuvent être mesurées grâce au rayonnement qui provient de la distance et de
l’angle d’incidence de la cible. Cette principale évolution permet d’améliorer le pistage des objets et leur
classification (Fuerstenberg et al., 2004).
FIGURE I.21. Le capteur IBEO ALASCA XT (à gauche) et ses caractéristiques (à droite)
Ce capteur est notamment utilisé dans le projet INTERSAFE qui a débuté en 2004 et s’est terminé en
2007. Il portait sur la création d’une approche Européenne pour augmenter la sécurité aux intersections
(Rössler et Fürstenberg, 2013). L’objectif de celui-ci était d’augmenter la sécurité et réduire (à long terme,
éliminer) les collisions fatales aux intersections (Fuerstenberg, 2005a,b). La méthode est basée sur deux
approches parallèles. La première utilise un capteur et les infrastructures de communication de véhicule. La
communication est bidirectionnelle entre le véhicule et les infrastructures. La seconde utilise un simulateur
de conduite qui analyse les situations potentiellement dangereuses.22 Problématique, capteurs et architectures de traitement
I.4 Conclusion
De nos jours, la sécurité routière est de plus en plus importante. Limiter les risques d’accidents est un
souci permanent tant chez les constructeurs automobiles que pour les nations. Aujourd’hui, les recherches
sont notamment axées sur les systèmes d’aide à la conduite permettant à la fois de prédire une situation
potentiellement dangereuse et d’aider le conducteur à en limiter les conséquences, voire les neutraliser.
Ce chapitre a notamment permis de mettre en évidence les contraintes qu’implique la mise en œuvre
d’un système de détection et de suivi d’obstacle mobile sur route. Le type d’application mis en œuvre est
fonction de l’environnement dans lequel nous nous trouvons, mais également du capteur choisi et des outils.
Nous avons vu que le choix d’un système monocapteur ou multicapteur est complexe et est fortement dé-
pendant du résultat recherché. Dans notre cas, nous cherchons à mettre en place un système proche du temps
réel. L’étude a montré que la multiplicité de capteur peut vite devenir lourde à gérer au niveau mémoire,
temps de transfert des données et temps de traitement. Compte tenu de ces difficultés, nous choisissons de
mettre en place un système monocapteur plus proche de nos besoins, limitant les coûts de traitement.
Une rapide étude des capteurs automobiles a permis de choisir le capteur lidar comme notre source de
données. En effet, sa capacité à détecter tous types d’objets et ce sur une distance pouvant atteindre 120m
pour un balayage de la scène pouvant atteindre 160˚ répond à nos besoins. De plus, ce capteur permet
d’obtenir une grande quantité d’informations concernant la scène et notamment les distances capteur/objet
sans nécessité de traitement. Cependant, une difficulté de ce type de mesure est leur nature spatialement
distribué dans le cas monoplan. Dans le cas multiplan, la difficulté réside dans la disparition d’informations
(due à une élévation du tir trop élevé) sur certain plan.
La section suivante est dédiée à l’état de l’art des techniques de détection et de suivi d’objets multiples à
partir de données de type lidar.Chapitre II
Problème de détection et suivi d’objets
multiples
II.1 Architecture fonctionnelle classique du problème de détection et de suivi
d’obstacles
Les mesures télémétriques d’un lidar décrivent les véhicules par un ensemble de points correspondant
à la partie visible de leurs contours. Une difficulté de ce type de données est leur nature : l’ensemble de
mesures décrivant un véhicule est spatialement corrélé. C’est pourquoi une étape préliminaire d’agrégation
avant le processus de suivi est généralement nécessaire, comme l’illustre la figure II.1.
FIGURE II.1. Étapes classiques d’un algorithme de détection et de suivi
Ainsi, dans un premier temps, les mesures brutes, en sortie du capteur physique, sont utilisées pour
détecter les objets présents dans le champ de vision du capteur. Un module de détection prend en compte
des attributs caractéristiques du capteur et de son environnement pour extraire, des mesures du capteur, les
paramètres d’objets d’intérêt (Nashashibi et Bargetin, 2008).
Dans un deuxième temps, une étape d’association temporelle associe les objets en sortie du module de
détection à ceux en sortie du module de suivi en vue de mettre à jour le module d’estimation et de suivi. Le
module d’association temporelle crée et maintient une liste des objets en cours de suivi. Ceci lui permet de
mettre en relation les objets qui viennent d’être détectés avec ceux de sa liste. Il associe des objets détectés
aux estimés d’objets présents dans la liste et en identifie d’autres comme des objets venant d’apparaître dans
le champ de vision. Enfin, il élimine, de cette liste, les objets identifiés comme étant disparus du champ
de vision du capteur. Plusieurs méthodes ont été proposées pour réaliser cette étape d’association. On peut
citer, parmi les plus populaires, les approches de suivi à hypothèses multiples, Multiple Hypothesis Tracking
(MHT), et celles d’association probabiliste conjointe de données ou Joint Probabilistic Data Association
(JPDA). Les méthodes MHT envisagent, pour un horizon temporel donné, toutes les associations possibles
entre les mesures et les pistes (Reid, 1979). JPDA modélise le problème d’association de manière probabiliste
(Bar-Shalom et Fortmann, 1988; Bank, 2007).
2324 Problème de détection et suivi d’objets multiples
Dans un troisième temps, une étape de filtrage rafraîchit l’estimation des paramètres des objets suivis à
partir des informations d’associations de la liste d’objets, précédemment mises à jours. Elle initie celle des
objets nouvellement détectés à partir des informations de création. Différents filtres peuvent être appliqués
selon la nature de la modélisation du système. Si le système est décrit par un modèle linéaire ou qui a été
rendu linéaire, un filtre de Kalman (Bank, 2007; Sato et al., 2010) ou un filtre de Kalman étendu (Tango
et al., 2008) sera choisi. S’il est décrit par un modèle non-linéaire, un filtre de Kalman sans parfum (Julier
et Uhlmann, 2004; Richter et al., 2008), une approche à base de grille (Homm et al., 2010) ou encore une
approche de Monte Carlo séquentielle sera utilisé. Les approches de Monte Carlo séquentielles, également
connues sous le nom de filtrage particulaire (Doucet et al., 2000a), ont également été plus récemment mises
en œuvre dans des algorithmes de suivi pour des applications routières (Idler et al., 2006; Thuy et Leon,
2009).
Lorsque le système de détection et de suivi comporte plusieurs capteurs de détection d’objets, une étape
de fusion peut être ajoutée entre les capteurs physiques et le module de détection (fusion signal), après les
modules de détection des capteurs physiques (fusion d’objets), ou encore après les modules d’estimation
et de suivi des capteurs logiques (fusion de pistes) (Hall, 1992; Liggins et al., 1997; Herpel et al., 2008;
Nashashibi et Bargetin, 2008; Baig et al., 2011).
II.2 Détection dans les données télémétriques
Les lidars automobiles délivrent un ensemble de mesures (ρ,θ) à chaque nouvelle rotation de leur laser
(balayage capteur t). Ces mesures sont séparées d’une distance angulaire fixe ∆θ (le pas de tir). Le capteur
télémétrique calcule chaque distance ρθ (distance délivrée à l’angle θ) en divisant la vitesse de la lumière
par la mesure du temps qui s’est écoulée entre la date d’émission du signal laser et celle de la réception du
signal réfléchi correspondant (temps de propagation). Chaque ensemble de mesures délivré est un agglomérat
d’échos pouvant être représentatif de différents objets détectés, de pertes de signal et de non détection.
Détecter un objet parmi ces mesures nécessitent donc de les regrouper en une information objet. Pour
cela, généralement on distingue trois étapes (Jida, 2008) :
– le partitionnement des données d’un balayage en groupes de mesures (clustering) ;
– la segmentation de chacune des partitions trouvées, afin d’en extraire des contours d’objets ;
– l’identification et la classification des objets issus de l’étape de segmentation.
Nous considérons, dans la suite de ce document, que chaque tour de rotation du lidar correspond à notre
fréquence d’échantillonnage, ∆t, d’une image capteur. t est l’indice ou numéro du balayage (tour de rotation),
par conséquent, t.∆t est la date du balayage. Nous utilisons, aussi, les expressions des mesures d’un même
échantillon suivantes :
– Zt
l’ensemble des mesures d’un balayage t ;
– Zt = {zθ ;θ ∈ {θmin,θmin +∆θ,...,θmax}} ;
– Pt
l’ensemble des partitions de Zt
;
– Nmax le nombre maximal d’objets d’une image à t d’au moins un point
– Pt =
n
P(n);n ∈ [0,Nmax],Nmax ≤
θmax−θmin
∆θ +1,P(0) = ∅
o
;
– P(n) =
zθ ;θ ∈
θa,θa +∆θ,...,θa+f
, f le nombre de points de P(n) et P(1)
T
...T
P(n) = ∅ ;
– zθ=(ρθ ,θ) lorsque la mesure est exprimée en coordonnées polaires ;
– zθ=(xθ ,yθ ) lorsqu’elle l’est en coordonnées cartésiennes ;
– z
−
θ
indique la mesure de l’impact à l’angle de tir précédent (θ
− = θ −∆θ) ;
– z
+
θ
indique celle de l’impact à l’angle de tir suivant (θ
+ = θ +∆θ) ;
– ∆θ est la résolution angulaire du lidar, c’est-à-dire le pas de tir durant le balayage.
D’autre part, le passage du repère polaire au repère cartésien se fait classiquement selon le systèmeDétection dans les données télémétriques 25
d’équations suivant :
xθ = ρθ cosθ
yθ = ρθ sinθ
(II.1)
II.2.1 Partitionnement de données (clustering)
L’étape de partitionnement de données regroupe, au sein de partitions, les mesures qui partagent un
caractère commun. Dans le cas d’un échantillon de mesures lidar, l’étape de partitionnement consiste à regrouper
les mesures correspondant à un même objet. Les algorithmes de partitionnement reposent alors sur
la comparaison d’un critère de distance avec un critère seuil. Jida (2008) part du constat que les données lidar
sont naturellement ordonnées, lors du balayage de la scène, pour éliminer un certain nombre d’algorithmes
tels que le K-Means basés sur le calcul de centroïdes selon un processus itératif. Il s’intéresse alors aux
approches de partitionnement reposant sur la comparaison de critère de distance entre deux mesures successives.
Nous nous plaçons dans cette continuité et reprenons ci-après la description de la méthode générale de
l’algorithme de partitionnement, puis nous nous intéressons aux déclinaisons adaptatives de Dietmayer et al.
(2001); Santos et al. (2003); Borges et Aldon (2004).
II.2.1.1 Algorithme de partitionnement
L’algorithme de partitionnement consiste en la comparaison, mesure après mesure d’un balayage, de la
distance d(zθ− ,zθ ) entre deux mesures successives à une valeur de distance seuil. Si cette distance d(zθ− ,zθ )
est inférieure à la valeur seuil, alors la mesure zθ au pas de tir courant est affectée à la même partition que la
précédente zθ− . Si ce n’est pas le cas, elle est affectée à un nouveau groupe. La distance la plus utilisée est
la distance euclidienne définie comme suit :
– d(zθ− ,zθ ) = q
ρ
2
θ− +ρ
2
θ −2(ρθ− )(ρθ ) cos(∆θ) lorsqu’elle est déclinée en coordonnées polaires ;
– d(zθ− ,zθ ) = p
(xθ− −xθ )
2 + (yθ− −yθ )
2
lorsqu’elle l’est en coordonnées cartésiennes.
La détermination de la valeur du seuil est la principale difficulté des algorithmes de partitionnement.
Le seuil peut être fixe (algorithme non adaptatif) ou calculé à chaque itération (algorithme adaptatif). Une
valeur de seuil fixe ne tient cependant pas compte des grandes différences de distances qui peuvent être
calculées entre deux points d’un même objet selon l’orientation et la distance au lidar de cet objet. Ceci
est illustré en figure II.2. Ainsi, on préfèrera l’utilisation d’une distance seuil adaptative, qui est calculée à
chaque comparaison entre deux mesures zθ− et zθ consécutives. Dietmayer et al. (2001); Santos et al. (2003)
et Borges et Aldon (2004) proposent différents seuils adaptatifs que nous présentons maintenant.
FIGURE II.2. Seuil SNA fixe d’un algorithme non adaptatif26 Problème de détection et suivi d’objets multiples
II.2.1.2 Seuil adaptatif de Dietmayer et al. (2001)
Dietmayer et al. (2001) définissent une distance seuil qui ne dépend que de la distance entre la surface
d’impact et le repère du télémètre. Sa formulation est la suivante :
SDietmayer = CDietmayer min{ρθ− ,ρθ }+Cbruit
avec
– CDietmayer =
p
2(1−cos(∆θ)) le paramètre de raffinement du partitionnement ;
– Cbruit une constante traduisant l’influence du bruit en distance des impacts sur le calcul du seuil,
classiquement Cbruit = 3σρ où σρ est une donnée constructeur de l’ordre de quelques centimètres
correspondant à l’erreur expérimentale sur la mesure de la distance ρ (Jida, 2008).
Comme le remarque Jida (2008), le calcul du paramètre CDietmayer prend pour hypothèse que la surface
est perpendiculaire à la bissectrice de la droite passant par les points zθ− à zθ . Ainsi, ni l’orientation ni
l’inclinaison de la surface d’impact ne sont considérées et le calcul du seuil est donc très fortement dépendant
de la distance du capteur à la surface d’impact. Il devient alors difficile de séparer les groupes de mesures
lorsque les impacts sont très éloignés du capteur.
II.2.1.3 Seuil adaptatif de Santos et al. (2003)
L’approche de Santos et al. (2003) reprend celle de Dietmayer et al. (2001). Mais, ils y introduisent une
valeur d’angle constante, β, permettant de prendre en compte l’inclinaison maximale de la surface (figure
II.3). β réduit la dépendance du partitionnement, précédemment constatée dans l’approche de Dietmayer
et al. (2001), à la distance entre l’objet et le lidar. La valeur de β est à choisir expérimentalement. Si β est
choisi trop grand, il sera plus difficile de séparer deux objets proches, à l’inverse s’il est choisi trop petit,
deux mesures successives provenant d’un même objet risquent d’être séparées (Santos et al., 2003).
FIGURE II.3. Paramètres du seuil adaptatif SSantos selon Santos et al. (2003)
La distance seuil devient alors :
SSantos =
CDietmayer
cot(β) cos(∆θ/2)−sin(∆θ/2)
min{ρθ− ,ρθ }+Cbruit
avec β angle d’inclinaison maximal de la surface d’impact, fixé expérimentalement, généralement autour
de 60˚ (Jida, 2008).Détection dans les données télémétriques 27
II.2.1.4 Seuil adaptatif de Borges et Aldon (2004)
Borges et Aldon (2004) prennent en compte, comme Santos et al. (2003), l’orientation maximale de
la surface entre les impacts et le capteur télémétrique pour son calcul de la distance seuil. Cependant, ils
n’utilisent pas la mesure de distance zθ de l’angle de tir courant, mais seulement celle zθ− de l’angle de tir
précédent. Ils font en outre intervenir l’angle λ non orienté mais construit, dans le sens trigonométrique, au
niveau du point d’impact sur la surface et à partir de « la droite de tir de l’impact zθ− » (figure II.4). Cet
angle λ joue, en quelque sorte, le rôle « d’angle limite à la surface en deçà duquel le capteur télémétrique
ne pourra délivrer de mesures », car, en deçà, la surface et le faisceau se rapproche du parallélisme et l’angle
de réflexion du signal empêche alors le retour de l’écho vers le capteur. L’angle limite de tir à la surface est
fixée par les constructeurs de lidar aux alentours de 10˚. L’angle λ peut être légèrement supérieur à cette
valeur, jusqu’à 25˚ selon Jida (2008), mais un λ trop grand peut rendre impossible la séparation en partition.
Ce paramètre est donc à régler expérimentalement.
FIGURE II.4. Paramètres du seuil adaptatif SBorges selon Borges et Aldon (2004)
La formulation de la valeur de la distance seuil selon l’approche de Borges et Aldon (2004) est la suivante
:
SBorges = (ρθ− )
sin(∆θ)
sin(λ −∆θ)
+Cbruit
avec λ angle limite en deçà duquel le lidar ne délivre plus de mesure (perte du signal).
II.2.2 Segmentation de partitions
Les algorithmes de partitionnement de mesures ont eu pour objectif de regrouper les mesures partageant
une ou plusieurs caractéristiques communes. Ceux de segmentation ont pour finalité de retrouver des
formes dans ces ensembles de mesures. Afin d’identifier des contours d’objets, nous nous intéressons aux
algorithmes d’extraction de ligne dans des données laser 2D et nous nous appuyons en particulier sur les
travaux de Nguyen et al. (2005, 2007). Nous présentons ainsi ci-après les cinq méthodes de segmentation
répertoriées : l’approche incrémentale, l’approche par décomposition et fusion (Split and merge), l’approche
RANSAC (Random Sample Consensus), l’approche par transformée de Hough et, enfin, l’approche par maximixation
de l’espérance (EM, Expectation-Maximization).28 Problème de détection et suivi d’objets multiples
II.2.2.1 Approche incrémentale
Les approches incrémentales de segmentation sont apparues dans les années 70. Elles consistent en la
recherche de forme, dans un ensemble ordonné P de mesures. À partir des premiers points constituant la
forme, elles vérifient pour chaque nouvelle mesure son appartenance à la forme en cours de construction
selon un critère de décision. Le choix de ces critères repose sur des conditions simplifiées. Un exemple de
critère de décision dans le cas de l’extraction d’une droite est le respect d’une valeur seuil maximale par la
distance orthogonale entre la mesure considérée et la droite. Cette approche est fondée sur le calcul successif
des paramètres de la droite en ajoutant le point zθ+ .
1. Soit un ensemble P de N points P =
zθa
,...,zθa+N
2. Construire une droite (d) entre les deux premiers points
3. Ajouter le point suivant zθ+ au modèle de droite courant (d) et réestimer les paramètres de
la droite (d)
4. Si les conditions de la droite sont satisfaites, retour à l’étape 3,
5. Sinon
– Éliminer le dernier point zθ+ de la droite (d)
– Réestimer les paramètres de la droite (d)
– Mémoriser la droite (d)
– Retour à l’étape 2 avec comme modèle de droite (d) ce dernier point zθ+ et le suivant.
L’algorithme incrémental de segmentation est simple à mettre en œuvre. Les critères de décision sont
facilement modifiables et il ne nécessite pas que l’acquisition des données soit terminée pour être exécuté.
Cependant, avoir un seuil fixe est un inconvénient. Le choisir trop petit implique un morcellement des droites
détectées à une distance très éloignée de la position du capteur. À l’inverse, un seuil trop grand conduit à des
associations aberrantes de points pour des droites détectées à une distance proche du capteur.
II.2.2.2 Approche Split and Merge
L’approche Split and Merge est probablement la plus populaire des méthodes d’extraction de droites.
C’est un algorithme itératif qui provient du traitement d’images, il est ainsi capable de traiter les points
d’échantillonnage d’un balayage laser qui sont peu nombreux par rapport aux pixels d’une image. Il est plus
rapide qu’un algorithme de groupement (Einsele, 1997). Dans la littérature, on retrouve cette technique de
segmentation dans beaucoup de travaux, notamment dans la robotique, sur des données télémétriques de
laser 2D (Einsele, 1997; Borges et Aldon, 2004; Siadat et al., 1997; Zhang et Ghosh, 2000).
Les algorithmes Split and Merge permettent de réaliser des approximations polygonales de lignes par
une succession de division de ces lignes en deux (Split), puis par une phase de fusion (Merge), selon un ou
plusieurs critères de validation. Selon Ray et Ray (1995), le problème fondamental de ces techniques est la
segmentation initiale.
Par exemple, la technique Split and Merge de Pavlidis et Horowitz (1974) (cité dans (Ray et Ray, 1995))
cherche à adapter à un contour des lignes droites dont la définition provient d’une première segmentation.
Elle calcule pour cela l’erreur quadratique des points du contour à la droite. Si l’erreur est trop grande, la
ligne est divisée ; deux lignes seront fusionnées si elle est trop petite.
Dans (Ray et Ray, 1995), des polygones insensibles à l’orientation et à l’échelle de courbes chaînées sont
générés en utilisant trois critères de validation. Le premier est la distance (non perpendiculaire) d’un point k
d’une courbe à un segment de droite i j divisée par la longueur du segment li j afin de la rendre indépendante
à l’échelle (normalisation), critère dki j/li j. Les segments de courbes sont séparés aux points k pour lesquels
dki j/li j atteint un maximum. Le second, le ratio de la longueur de l’arc à la longueur du segment de ligneDétection dans les données télémétriques 29
(ai j/li j), comparé à une valeur seuil, permet de vérifier que les points k de la courbes compris entre i et j
sont colinéaires. En cas de dépassement du seuil, un troisième critère, la somme des dki j/li j pour les points
k de la courbe variant entre (i + 1) et (j − 1), sert à trancher la décision de colinéarité ou non colinéarité.
En fonction de la valeur de ces trois critères, des lignes sont tout d’abord divisées (phase Split). Des lignes
seront par la suite fusionnées selon ces critères (phase Merge).
La phase de division peut utiliser la méthode IEPF (Iterative-End-Point-Fit) (Borges et Aldon, 2000).
Celle-ci permet, si le critère de validation est satisfait, la division des points d’un ensemble ordonné P en
deux sous-ensembles à partir du point de rupture de l’ensemble. Le point candidat au titre de point de rupture
de l’ensemble P est le point pour lequel la distance à la ligne, construite à partir des deux points extrêmes de
P, est maximale (par exemple distance orthogonale à la droite, distance de Mahalanobis...). Si en ce point, la
valeur de la distance est supérieure à une distance seuil, l’ensemble est divisé en deux sous-ensembles en ce
point de rupture. De façon récursive, ces sous-ensembles vont eux-même être divisés tant que le critère de
validation est satisfait.
Borges et Aldon (2000) présentent un algorithme SMF (Split and Merge Fuzzy) dans une liste de droites,
selon un schéma proche de la méthode IEPF. Par contre, ils utilisent un critère de validation basé sur la
dispersion des points supports (i.e. points à l’origine de la définition des droites), aussi bien au moment de la
phase de division que celle de fusion. Les droites de la liste sont, chacune, définies par leurs paramètres en
coordonnées polaires, leur centre de gravité en coordonnées cartésiennes et un vecteur comportant les indices
des points supports. Une droite sera séparée en deux droites lorsque la valeur de dispersion maximale trouvée
en un point support est supérieure à une valeur de dispersion maximale donnée. Lors de la phase de fusion,
pour toute ligne de la liste, on cherche à savoir si deux lignes sont candidates à la fusion. Ce sont les deux
lignes les plus proches en termes de distance entre leur centre de gravité et celui de la ligne initiale. Parmi
les deux possibilités, la ligne fusionnée résultante sera celle dont la dispersion est la plus petite, si toutefois
elle satisfait le critère de dispersion.
Un algorithme Split and Merge basé sur une technique de division IEPF peut être schématisé ainsi :
1. Soit un ensemble P de N points, P =
zθa
,...,zθa+N
2. Placer P dans la liste L
3. Créer une droite (d), selon la méthode choisie, à partir des données de P
4. Chercher le point zθR pour lequel la distance choisie à la droite d(zθR,(d)) est maximale
5. Si d(zθR,(d)) est inférieure à un seuil, retour à l’étape 3
6. Sinon
– Diviser l’ensemble P au niveau de zθR en Pa et Pb
– Remplacer P par Pa et Pb dans L
– Retourner à l’étape 3
7. quand tous les sous-ensembles de L ont été étudiés, fusionner les segments colinéaires selon
le ou les critères de validation choisis.
L’approche Split and Merge est simple à mettre en œuvre. Cependant, cet algorithme récursif ne peut
être exécuté que sur un ensemble de point déterminé. Ceci implique que le traitement ne peut commencer
qu’après la fin de la phase d’acquisition des mesures. Comme pour l’algorithme incrémental, le choix du seuil
est une difficulté. L’article de (Fortin et al., 2012) montre d’ailleurs cette difficulté et propose une nouvelle
méthode qui définit un critère de détection de segments de lignes dépendant uniquement des paramètres
intrinsèques du capteur.30 Problème de détection et suivi d’objets multiples
II.2.2.3 Approche RANSAC (Random Sample Consensus)
L’algorithme RANSAC, publié pour la première fois par Fischler et Bolles (1981), est une méthode
itérative destinée à estimer les paramètres d’un modèle mathématique à partir d’un ensemble de données
observées contenant un grand nombre de valeurs aberrantes (appelées outliers).
L’algorithme RANSAC repose sur deux hypothèses fortes :
– les inliers sont les données dont la distribution peut être expliquée par un ensemble de paramètres du
modèle considéré ;
– les outliers sont des données qui ne correspondent pas au modèle choisi.
RANSAC suppose qu’étant donné un ensemble petit d’inliers, il existe une procédure qui permet d’estimer
les paramètres du modèle de façon à expliquer de manière optimale ces données. L’algorithme cherche
donc à estimer le modèle par ses inliers en éliminant ses outliers, comme le montre la figure II.5.
FIGURE II.5. Exemple de dispersion des inliers et outliers
À l’inverse des techniques conventionnelles qui, à partir d’un grand ensemble de données P, éliminent
les points aberrants, l’algorithme de Ransac utilise le plus petit ensemble de données initiales possible et
l’accroît en associant les données les plus compatibles avec la modélisation antérieurement réalisée à partir
de l’ensemble des données initiales (Fischler et Bolles, 1981).
L’algorithme consiste en deux étapes répétées de manière itérative :
– un ensemble minimal de n points est sélectionné de manière aléatoire dans l’ensemble des données
d’entrée P, à partir duquel les paramètres du modèle sont estimés ;
– chacun des éléments de l’ensemble de données P est testé pour vérifier s’il correspond au modèle.
L’algorithme de Ransac s’arrête lorsque la probabilité de trouver un meilleur sous-ensemble est inférieure à
un seuil (Zuliani, 2012).
Nous considérons maintenant l’exemple de Jida (2008) qui cherche à estimer une droite parmi un ensemble
de points (figure II.5). Deux points (zθa, zθb) sont choisis aléatoirement parmi l’ensemble des données
à traiter. Les paramètres de la droite (d) passant par ces points sont estimés. La distance de chacun des
autres points zθ j à la droite (d) est alors calculée. Un point sera associé à (d) si sa distance à cette droite
est inférieure à un seuil fixé. Ces points sont appelés inliers candidats. Si le nombre des inliers candidats est
suffisant, alors les paramètres de la droite sont réestimés en les prenant en compte. Ces inliers candidats sont
ensuite éliminés du groupe de points initial. On réitère la procédure jusqu’à ce qu’il n’y ait plus suffisamment
de points dans le groupe ou jusqu’au nombre maximum d’itération. L’algorithme est résumé ci-dessous :Détection dans les données télémétriques 31
– Soit un ensemble P de N points P =
zθa
,...,zθa+N
– Répéter :
Choisir aléatoirement deux points (zθa, zθb)
Créer une droite (d) entre ces deux points et estimer ses paramètres
Calculer les distances des autres points à la droite d(zθ j
,(d)) ∀zθ j ∈ P− {zθa, zθb}
Construire l’ensemble des inliers candidats de distance inférieure à un seuil
S’il y a un nombre suffisant d’inliers candidats
– Réestimer les paramètres de la droite (d) en prenant en compte les inliers candidats
– Mémoriser la droite (d)
– Éliminer les inliers candidats de l’ensemble P
– Tant que le maximum de N itérations n’est pas atteint ou que le nombre de points de P soit
insuffisant.
La méthode RANSAC est populaire en vision par ordinateur. Simple à mettre en œuvre, elle oblige cependant
d’attendre la fin de l’acquisition pour démarrer les traitements. Elle permet d’estimer les paramètres
avec un degré élevé de précision, même si une quantité importante d’outliers est présente. Dans notre cas, un
des problèmes est le caractère aléatoire de la recherche des droites, on peut obtenir des droites qui n’ont pas
d’existence réel en termes d’obstacles présents dans le champ de vision du capteur. Cet algorithme nécessite
également de fixer un seuil spécifique au problème traité. Enfin, l’approche RANSAC est une approche à
modèle unique. C’est-à-dire lorsque plusieurs modèles coexistent, l’algorithme n’arrive pas à déterminer les
différents modèles (Forsyth et Ponce, 2003).
II.2.2.4 Transformée de Hough
Selon (Duquenoy et Taleb-Ahmed, 2006), la transformée de Hough permet la détection, dans une image,
de formes décrites analytiquement, formes incluant des lignes droites, cercles et ellipses. Elle permet aussi
sous certaines conditions toute détection de forme quelle qu’en soit leur description. Elle est utilisée dans
de nombreuses applications telles que la détection d’objets, la détection de mouvement, la reconnaissance
de caractère... Duquenoy et Taleb-Ahmed la décrivent ainsi. La transformée de Hough cherche à déterminer
les paramètres géométriques d’une forme au moyen d’une procédure de vote : chaque point de l’image, de
la forme, vote pour un ou plusieurs points dans l’espace des paramètres. La dimension de cet espace dépend
de la forme recherchée (deux dimensions pour une droite, trois pour un cercle). Plusieurs approches de vote
existent. Nous présentons ci-après l’approche décrite dans (Duda et Hart, 1971, 1972), approche qualifiée de
transformation one-to-many par Duquenoy et Taleb-Ahmed.
Duda et Hart (1971) proposent de détecter des lignes (ou des courbes) dans des images en travaillant dans
l’espace des paramètres (Θ,ρ). Dans cet espace, l’équation d’une droite est : ρ = x · cos(Θ) +y ·sin(Θ). En
restreignant Θ à l’intervalle [0,π], toute droite (d) dans le plan xy correspond à un unique point dans le plan
Θρ pour lequel l’angle Θ est l’angle polaire de la normale à la droite (d) (figure II.6). Considérant l’ensemble
de points {(x1,y1),...,(xn,yn)}, ils y cherchent des lignes droites en transformant chaque point (xj
,yj) en une
courbe sinusoïdale dans le plan Θρ, courbe définie par l’expression (II.2).
ρ = xj
· cos(Θ) +yj
·sin(Θ) (II.2)
Les courbes correspondant à des points colinéaires ont un point d’intersection commun dans le plan
Θρ, qui définit la ligne passant par les points colinéaires. Duda et Hart en déduisent que le problème de la
détection de points colinéaires est celui de la recherche des courbes (II.2) concurrentes.
Les intervalles de recherche en ρ et en Θ doivent être quantifiés. Des indices correspondant aux valeurs
de ρ et de Θ définissent les lignes et colonnes d’un tableau, appelé accumulateur. Pour chaque point (xj
,yj)
de l’image, la courbe correspondante, décrite par l’équation (II.2), est enregistrée dans l’accumulateur en
incrémentant le compteur de points des cellules (indΘ,indρ ) traversées par la courbe. Ainsi, une recherche
des cellules dont la valeur du compteur est supérieure à un seuil permet de trouver les paramètres (Θj
,ρj)32 Problème de détection et suivi d’objets multiples
des normales aux droites par lesquelles passent le plus grand nombre de points, à l’erreur de quantification
(∆ρ et ∆Θ) près.
FIGURE II.6. Paramètres (Θ,ρ) tels que Θ est l’angle polaire de la normale à la droite (d) (Duda et Hart,
1971)
L’algorithme est le suivant :
1. Soit un ensemble P de N points, P = {z1,...,zn} où zj = (xj
,yj), ∀ j ∈ [1,n] ;
2. Soit le problème ainsi quantifié : ∀zj
, ρ ∈ [ρmin,ρmax], ρ est arrondi à ∆ρ près, Θ ∈ [0,π]
avec Θ incrémenté de ∆Θ
3. Soit Acc
jρ , jΘ
un tableau de Nρ lignes et de NΘ colonnes, dimensions définies conformé-
ment au choix de quantification du problème.
4. Début
– Pour tout zj
, j ∈ [1,n],
Pour tout Θ ∈ [0,π] incrémenté de ∆Θ
Calculer ρ selon II.2
indρ = f(ρ), où f(ρ) respecte les règles de quantification adoptées
Acc
indρ ,indΘ
+ = 1
Fin pour
– Fin pour
– ∀(indρ ,indΘ), rechercher les valeurs max de Acc
indρ ,indΘ
supérieures à un seuil.
5. Fin
Dans le cas de données issues d’un télémètre le principe est le même. Ainsi Pfister et al. (2003) cherchent
à trouver des droites à partir de chacun des points de l’ensemble P étudié. Chaque point est transformé en
une ligne discrétisée dans l’espace de Hough. Cette transformation est basée sur la paramétrisation d’une
ligne en coordonnées polaires avec une distance normale à l’origine ρ et un angle Θ (figure II.6). De même
que pour l’image, pour chaque point de l’ensemble, les paramètres ρ et Θ de chaque ligne sont calculés
et enregistrés dans un accumulateur. Quand une cellule (indρ ,indΘ) de l’espace de Hough est incrémentée,
la coordonnée du point est associée et sauvegardée. Ainsi, quand un pic est déterminé, les points associés
sont extraits. Dans ce cas, les auteurs peuvent trier les points du balayage en sous-ensembles colinéaires et
déterminer l’orientation du segment de ligne.
La transformée de Hough est une approche récursive, obligeant ainsi d’attendre la fin de l’acquisition
pour démarrer les traitements. Elle est sensible à la quantification choisie. Un échantillonnage trop fin, en ρ
et Θ augmente le temps de calcul. D’autre part, elle ne regarde pas la continuité des points colinéaires. Par
conséquent, la position d’une droite peut être perturbée par la présence de points se trouvant dans une autre
partie de l’image considérée, et donc sans relation avec la forme recherchée.
Techniques visuelles pour la d´etection et le suivi d’objets
2D
Rafiq Sekkal
To cite this version:
Rafiq Sekkal. Techniques visuelles pour la d´etection et le suivi d’objets 2D. Computer Vision
and Pattern Recognition. INSA de Rennes, 2014. French.
HAL Id: tel-00981107
https://tel.archives-ouvertes.fr/tel-00981107
Submitted on 20 Apr 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Techniques visuelles pour
la détection et le suivi
d’objets 2D
N° ordre : 14ISAR02/D14-02
Thèse soutenue le 28/02/2014 devant le jury composé de :
Joseph RONSIN
Professeur à INSA de Rennes / Président
Luc BRUN
Professeur à ENSI de Caen / Rapporteur
Vincent FREMONT
Maître de conférences HDR UT de Compiègne / Rapporteur
Ferran MARQUES
Professeur à UPC Barcelone / Examinateur
Muriel PRESSIGOUT
Maître de conférences à l'INSA de Rennes / Examinatrice
Marie BABEL
Maître de conférences HDR à l'INSA de Rennes / Directrice de thèse
THESE INSA Rennes
sous le sceau de l’Université européenne de Bretagne
pour obtenir le titre de
DOCTEUR DE L’INSA DE RENNES
Spécialité : Traitement de signal et de l’image
présentée par
Rafiq SEKKAL
ECOLE DOCTORALE : MATISSE
LABORATOIRE : IRISA – UMPR6047Techniques visuelles pour
la détection et le suivi
d’objets 2D
Rafiq SEKKAL
Résumé
De nos jours, le traitement et l'analyse d'images trouvent leur
application dans de nombreux domaines. Dans le cas de la
navigation d’un robot mobile (fauteuil roulant) en milieu
intérieur, l’extraction de repères visuels et leur suivi constituent
une étape importante pour la réalisation de tâches robotiques
(localisation, planification, etc.). En particulier, afin de réaliser
une tâche de franchissement de portes, il est indispensable de
détecter et suivre automatiquement toutes les portes qui
existent dans l’environnement. La détection des portes n’est
pas une tâche facile : la variation de l’état des portes (ouvertes
ou fermées), leur apparence (de même couleur ou de couleur
différentes des murs) et leur position par rapport à la caméra
influe sur la robustesse du système. D’autre part, des tâches
comme la détection des zones navigables ou l’évitement
d’obstacles peuvent faire appel à des représentations enrichies
par une sémantique adaptée afin d’interpréter le contenu de la
scène. Pour cela, les techniques de segmentation permettent
d’extraire des régions pseudo-sémantiques de l’image en
fonction de plusieurs critères (couleur, gradient, texture…). En
ajoutant la dimension temporelle, les régions sont alors suivies
à travers des algorithmes de segmentation spatio-temporelle.
Dans cette thèse, des contributions répondant aux besoins cités
sont présentées. Tout d’abord, une technique de détection et de
suivi de portes dans un environnement de type couloir est
proposée : basée sur des descripteurs géométriques dédiés, la
solution offre de bons résultats. Ensuite, une technique
originale de segmentation multirésolution et hiérarchique
permet d’extraire une représentation en régions pseudosémantique.
Enfin, cette technique est étendue pour les
séquences vidéo afin de permettre le suivi des régions à travers
le suivi de leurs contours. La qualité des résultats est
démontrée et s’applique notamment au cas de vidéos de
couloir.
N° d’ordre : XXXXXXXX
Abstract
Nowadays, image processing remains a very important step in
different fields of applications. In an indoor environment, for a
navigation system related to a mobile robot (electrical
wheelchair), visual information detection and tracking is crucial
to perform robotic tasks (localization, planning…). In particular,
when considering passing door task, it is essential to be able to
detect and track automatically all the doors that belong to the
environment. Door detection is not an obvious task: the
variations related to the door status (open or closed), their
appearance (e.g. same color as the walls) and their relative
position to the camera have influence on the results. On the
other hand, tasks such as the detection of navigable areas or
obstacle avoidance may involve a dedicated semantic
representation to interpret the content of the scene.
Segmentation techniques are then used to extract pseudosemantic
regions based on several criteria (color, gradient,
texture...). When adding the temporal dimension, the regions
are tracked then using spatiotemporal segmentation algorithms.
In this thesis, we first present joint door detection and tracking
technique in a corridor environment: based on dedicated
geometrical features, the proposed solution offers interesting
results. Then, we present an original joint hierarchical and
multiresolution segmentation framework able to extract a
pseudo-semantic region representation. Finally, this technique
is extended to video sequences to allow the tracking of regions
along image sequences. Based on contour motion extraction,
this solution has shown relevant results that can be successfully
applied to corridor videos.
Idéalisation d’assemblages CAO pour l’analyse EF de
structures
Flavien Boussuge
To cite this version:
Flavien Boussuge. Id´ealisation d’assemblages CAO pour l’analyse EF de structures. Other.
Universit´e de Grenoble, 2014. French. .
HAL Id: tel-01071560
https://tel.archives-ouvertes.fr/tel-01071560
Submitted on 6 Oct 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.THESE `
Pour obtenir le grade de
DOCTEUR DE L’UNIVERSITE DE GRENOBLE ´
Specialit ´ e : ´ Mathematiques et Informatique ´
Arretˆ e minist ´ erial : 7 ao ´ ut 2006 ˆ
Present ´ ee par ´
Flavien Boussuge
These dirig ` ee par ´ Jean-Claude Leon ´
et codirigee par ´ Stefanie Hahmann
prepar ´ ee au sein ´ Laboratoire Jean Kuntzmann - INRIA Grenoble, et
AIRBUS Group Innovations
et de l’Ecole Doctorale Mat ´ ematiques, Sciences et Technologies de ´
l’Information, Informatique
Idealization of CAD assemblies for
FE structural analyses
Idealisation d’assemblages CAO ´
pour l’analyse EF de structures
These soutenue publiquement le ` TBD,
devant le jury compose de : ´
Prof., Cecil Armstrong
Queen’s University Belfast, Rapporteur
Dr., Bruno Levy ´
Directeur de recherche, INRIA Nancy, Rapporteur
Dr., Lionel Fine
AIRBUS Group Innovations, Suresnes, Examinateur
Prof., Jean-Philippe Pernot
Arts et Metiers ParisTech, Aix en Provence, Examinateur ´
Prof., Jean-Claude Leon ´
INP-Grenoble, ENSE3, Directeur de these `
Prof., Stefanie Hahmann
INP-Grenoble, ENSIMAG, Co-Directeur de these `
M., Nicolas Chevassus
AIRBUS Group Innovations, Suresnes, Invite´
M., Franc¸ois Guillaume
AIRBUS Group Innovations, Suresnes, Invite´iiThe research described in this thesis was carried out at the Laboratoire Jean Kuntzmann
LJK-INRIA research team Imagine and the SPID team of AIRBUS Group Innovations.
This work was supported by a CIFRE convention of the ANRT and the French
Ministry of Higher Education and Research.
�c 2014, F. Boussuge, all rights reserved.
iiiivIdealization of CAD assembly for FE structural analysis
Abstract
Aeronautical companies face a significant increase in complexity and size of simulation
models especially at the level of assemblies, sub-systems of their complex products.
Pre-processing of Computer Aided Design (CAD) models derived from the digital
representation of sub-systems, i.e., Digital Mock-Ups (DMUs), into Finite Elements
Analysis (FEA) models requires usually many tedious manual tasks of model preparation
and shape transformations, in particular when idealizations of components or
assemblies have to be produced. Therefore, the purpose of this thesis is to make a
contribution to the robust automation of the time-consuming sequences of assembly
preparation processes.
Starting from an enriched DMU with geometrical interfaces between components
and functional properties, the proposed approach takes DMU enrichment to the next
level by structuring components’ shapes. This approach extracts a construction graph
from B-Rep CAD models so that the corresponding generative processes provide meaningful
volume primitives for idealization application. These primitives form the basis
of a morphological analysis which identifies the sub-domains for idealization in the
components’ shapes and their associated geometric interfaces. Subsequently, models
of components as well as their geometric representation get structured in an enriched
DMU which is contextualized for FEA application.
Based on this enriched DMU, simulation objectives can be used to specify geometric
operators that can be robustly applied to automate components and interfaces shape
transformations during an assembly preparation process. A new idealization process
of standalone components is proposed while benefiting from the decomposition into
sub-domains and their geometric interfaces provided by the morphological analysis of
the component. Interfaces between sub-domains are evaluated to robustly process the
connections between the idealized sub-domains leading to the complete idealization of
the component.
Finally, the scope of the idealization process is extended to shape transformations
at the assembly level and evolves toward a methodology of assembly pre-processing.
This methodology aims at exploiting the functional information of the assembly and interfaces
between components to perform transformations of groups of components and
assembly idealizations. In order to prove the applicability of the proposed methodology,
corresponding operators are developed and successfully tested on industrial use-cases.
Keywords : Assembly, DMU, idealization, CAD-CAE integration, B-Rep model,
generative shape process, morphological analysis
vviId´ealisation d’assemblages CAO pour l’analyse EF de
structures
R´esum´e
Les entreprises a´eronautiques ont un besoin continu de g´en´erer de grands et complexes
mod`eles de simulation, en particulier pour simuler le comportement structurel de soussyst`emes
de leurs produits. Actuellement, le pr´e-traitement des mod`eles de Conception
Assist´ee par Ordinateur (CAO) issus des maquettes num´eriques de ces sous-syst`emes en
Mod`eles El´ements Finis (MEF), est une tˆache qui demande de longues heures de travail
de la part des ing´enieurs de simulation, surtout lorsque des id´ealisations g´eom´etriques
sont n´ecessaires. L’objectif de ce travail de th`ese consiste `a d´efinir les principes et
les op´erateurs constituant la chaˆıne num´erique qui permettra, `a partir de maquettes
num´eriques complexes, de produire des g´eom´etries directement utilisables pour
la g´en´eration de maillages ´el´ements finis d’une simulation m´ecanique.
A partir d’une maquette num´erique enrichie d’information sur les interfaces
g´eom´etriques entre composants et d’information sur les propri´et´es fonctionnelles de
l’assemblage, l’approche propos´ee dans ce manuscrit est d’ajouter un niveau
suppl´ementaire d’enrichissement en fournissant une repr´esentation structurelle de haut
niveau de la forme des composants CAO. Le principe de cet enrichissement est d’extraire
un graphe de construction de mod`eles CAO B-Rep de sorte que les processus de
g´en´eration de forme correspondants fournissent des primitives volumiques directement
adapt´ees `a un processus d’id´ealisation. Ces primitives constituent la base d’une analyse
morphologique qui identifie dans les formes des composants `a la fois des sous-domaines
candidats `a l’id´ealisation mais ´egalement les interfaces g´eom´etriques qui leurs sont associ´ees.
Ainsi, les mod`eles de composants et leurs repr´esentations g´eom´etriques sont
structur´es. Ils sont int´egr´es dans la maquette num´erique enrichie qui est ainsi contextualis´ee
pour la simulation par EF.
De cette maquette num´erique enrichie, les objectifs de simulation peuvent ˆetre
utilis´es pour sp´ecifier les op´erateurs g´eom´etriques adaptant les composants et leurs
interfaces lors de processus automatiques de pr´eparation d’assemblages. Ainsi, un
nouveau proc´ed´e d’id´ealisation de composant unitaire est propos´e. Il b´en´eficie de
l’analyse morphologique faite sur le composant lui fournissant une d´ecomposition en
sous-domaines id´ealisables et en interfaces. Cette d´ecomposition est utilis´ee pour
g´en´erer les mod`eles id´ealis´es de ces sous-domaines et les connecter `a partir de l’analyse
de leurs interfaces, ce qui conduit `a l’id´ealisation compl`ete du composant.
Enfin, le processus d’id´ealisation est ´etendu au niveau de l’assemblage et ´evolue
vers une m´ethodologie de pr´e-traitement automatique de maquettes num´eriques. Cette
m´ethodologie vise `a exploiter l’information fonctionnelle de l’assemblage et les informations
morphologiques des composants afin de transformer `a la fois des groupes de
viicomposants associ´es `a une mˆeme fonction ainsi que de traiter les transformations
d’id´ealisation de l’assemblage. Pour d´emontrer la validit´e de la m´ethodologie, des
op´erateurs g´eom´etriques sont d´evelopp´es et test´es sur des cas d’application industriels.
Mots-cl´es : Assemblage, Maquette Num´erique, int´egration CAO-calcul, mod`ele
B-Rep, graphe de construction , processus g´en´eratif de forme, id´ealisation
viiiTable of contents
Abstract v
R´esum´e vii
Acronyms xxiii
Introduction 1
Context of numerical certification of aeronautical structures . . . . . . . . . 1
Some limits faced in structural simulations . . . . . . . . . . . . . . . . . . . 2
Work Purposes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 From a Digital Mock Up to Finite Element Assembly Models: Current
practices 5
1.1 Introduction and definition DMU concept . . . . . . . . . . . . . . . . 5
1.2 Geometric representation and modeling of 3D components . . . . . . . 7
1.2.1 Categories of geometric families . . . . . . . . . . . . . . . . . . 7
1.2.2 Digital representation of solids in CAD . . . . . . . . . . . . . . 9
1.2.3 Complementary CAD software capabilities: Feature-based and
parametric modeling . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Representation and modeling of an assembly in a DMU . . . . . . . . . 16
1.3.1 Effective DMU content in aeronautical industry . . . . . . . . . 16
1.3.2 Conventional representation of interfaces in a DMU . . . . . . . 19
1.4 Finite Element Analysis of mechanical structures . . . . . . . . . . . . 22
1.4.1 Formulation of a mechanical analysis . . . . . . . . . . . . . . . 22
1.4.2 The required input data for the FEA of a component . . . . . . 24Table of contents
1.4.3 FE simulations of assemblies of aeronautical structures . . . . . 27
1.5 Difficulties triggering a time consuming DMU adaptation to generate
FE assembly models . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.1 DMU adaption for FE analyses . . . . . . . . . . . . . . . . . . 31
1.5.2 Interoperability between CAD and CAE and data consistency . 33
1.5.3 Current operators focus on standalone components . . . . . . . 34
1.5.4 Effects of interactions between components over assembly transformations
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.6 Conclusion and limits of current practices about DMU manual adaption
for FE assembly models generation . . . . . . . . . . . . . . . . . . . . 39
1.7 Research objectives: Speed up the DMU pre-processing to reach the
simulation of large assemblies . . . . . . . . . . . . . . . . . . . . . . . 40
2 Current status of procedural shape transformation methods and tools
for FEA pre-processing 43
2.1 Targeting the data integration level . . . . . . . . . . . . . . . . . . . . 43
2.2 Simplification operators for 3D FEA analysis . . . . . . . . . . . . . . . 45
2.2.1 Classification of details and shape simplification . . . . . . . . . 45
2.2.2 Detail removal and shape simplification based on tessellated models 47
2.2.3 Detail removal and shape simplification on 3D solid models . . . 49
2.2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3 Dimensional reduction operators applied to standalone components . . 53
2.3.1 Global dimensional reduction using the MAT . . . . . . . . . . 53
2.3.2 Local mid-surface abstraction . . . . . . . . . . . . . . . . . . . 55
2.3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.4 About the morphological analysis of components . . . . . . . . . . . . 58
2.4.1 Surface segmentation operators . . . . . . . . . . . . . . . . . . 58
2.4.2 Solid segmentation operators for FEA . . . . . . . . . . . . . . . 60
2.4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5 Evolution toward assembly pre-processing . . . . . . . . . . . . . . . . 64
2.6 Conclusion and requirements . . . . . . . . . . . . . . . . . . . . . . . . 67
3 Proposed approach to DMU processing for structural assembly simxTable
of contents
ulations 69
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Main objectives to tackle . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3 Exploiting an enriched DMU . . . . . . . . . . . . . . . . . . . . . . . . 71
3.4 Incorporating a morphological analysis during FEA pre-processing . . . 75
3.4.1 Enriching DMU components with their shape structure as needed
for idealization processes . . . . . . . . . . . . . . . . . . . . . . 77
3.4.2 An automated DMU analysis dedicated to a mechanically consistent
idealization process . . . . . . . . . . . . . . . . . . . . . 78
3.5 Process proposal to automate and robustly generate FEMs from an enriched
DMU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.5.1 A new approach to the idealization of a standalone component . 81
3.5.2 Extension to assembly pre-processing using the morphological
analysis and component interfaces . . . . . . . . . . . . . . . . . 81
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4 Extraction of generative processes from B-Rep shapes to structure
components up to assemblies 85
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2 Motivation to seek generative processes . . . . . . . . . . . . . . . . . . 86
4.2.1 Advantages and limits of present CAD construction tree . . . . 87
4.2.2 A new approach to structure a component shape: construction
graph generation . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.3 Shape modeling context and process hypotheses . . . . . . . . . . . . . 91
4.3.1 Shape modeling context . . . . . . . . . . . . . . . . . . . . . . 91
4.3.2 Generative process hypotheses . . . . . . . . . . . . . . . . . . . 93
4.3.3 Intrinsic boundary decomposition using maximal entities . . . . 96
4.4 Generative processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.4.1 Overall principle to obtain generative processes . . . . . . . . . 98
4.4.2 Extrusion primitives, visibility and attachment . . . . . . . . . . 100
4.4.3 Primitive removal operator to go back in time . . . . . . . . . . 103
4.5 Extracting the generative process graph . . . . . . . . . . . . . . . . . . 107
4.5.1 Filtering out the generative processes . . . . . . . . . . . . . . . 107
xiTable of contents
4.5.2 Generative process graph algorithm . . . . . . . . . . . . . . . . 109
4.6 Results of generative process graph extractions . . . . . . . . . . . . . . 110
4.7 Extension of the component segmentation to assembly structure segmentation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5 Performing idealizations from construction graphs 119
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.2 The morphological analysis: a filtering approach to idealization processes 120
5.2.1 Morphological analysis objectives for idealization processes based
on a construction graph . . . . . . . . . . . . . . . . . . . . . . 121
5.2.2 Structure of the idealization process . . . . . . . . . . . . . . . . 124
5.3 Applying idealization hypotheses from a construction graph . . . . . . 125
5.3.1 Evaluation of the morphology of primitives to support idealization126
5.3.2 Processing connections between ‘idealizable’ sub-domains Dij . . 133
5.3.3 Extending morphological analyses of Pi to the whole object M . 137
5.4 Influence of external boundary conditions and assembly interfaces . . . 141
5.5 Idealization processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.5.1 Linking interfaces to extrusion information . . . . . . . . . . . . 146
5.5.2 Analysis of GS to generate idealized models . . . . . . . . . . . 147
5.5.3 Generation of idealized models . . . . . . . . . . . . . . . . . . . 153
5.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
6 Toward a methodology to adapt an enriched DMU to FE assembly
models 159
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
6.2 A general methodology to assembly adaptions for FEA . . . . . . . . . 160
6.2.1 From simulation objectives to shape transformations . . . . . . 161
6.2.2 Structuring dependencies between shape transformations as contribution
to a methodology of assembly preparation . . . . . . . 164
6.2.3 Conclusion and methodology implementation . . . . . . . . . . 167
6.3 Template-based geometric transformations resulting from function identifications
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
xiiTable of contents
6.3.1 Overview of the template-based process . . . . . . . . . . . . . . 169
6.3.2 From component functional designation of an enriched DMU to
product functions . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.3.3 Exploitation of Template-based approach for FE models transformations
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
6.3.4 Example of template-based operator of bolted junctions transformation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
6.4 Full and robust idealization of an enriched assembly . . . . . . . . . . . 183
6.4.1 Extension of the template approach to idealized fastener generation185
6.4.2 Presentation of a prototype dedicated to the generation of idealized
assemblies . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Conclusion and perspectives 191
Bibliography 211
Appendices I
A Illustration of generation processes of CAD components I
A.1 Construction process of an injected plastic part . . . . . . . . . . . . . I
A.2 Construction process of an aeronautical metallic part . . . . . . . . . . I
B Features equivalence IX
C Taxonomy of a primitive morphology XV
D Export to CAE software XIX
xiiiTable of contents
xivList of Figures
1.1 The Digital Mock-Up as the reference representation of a product, courtesy
of Airbus Group Innovations. . . . . . . . . . . . . . . . . . . . . . 6
1.2 Regularized boolean operations of two solids. . . . . . . . . . . . . . . . 9
1.3 CSG and B-Rep representations of a solid. . . . . . . . . . . . . . . . . 10
1.4 Examples of non-manifold geometric models. . . . . . . . . . . . . . . . 12
1.5 CAD construction process using features. . . . . . . . . . . . . . . . . . 15
1.6 Example of an aeronautical CAD assembly: Root joint model (courtesy
of Airbus Group Innovations). . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Example of complex DMU assembly from Alcas project [ALC08] and
Locomachs project [LOC16]. . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Representation of a bolted junction in a structural DMU of an aircraft. 20
1.9 Classification of Conventional Interfaces (CI) under contact, interference
and clearance categories. . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.10 Process flow of a mechanical analysis. . . . . . . . . . . . . . . . . . . . 23
1.11 Example of FE mesh models . . . . . . . . . . . . . . . . . . . . . . . . 24
1.12 Example of a FE fastener simulating the behavior of a bolted junction
using beam elements. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.13 Example of aeronautical FE models. . . . . . . . . . . . . . . . . . . . 31
1.14 Illustration of a shim component which does not appear in the DMU
model. Shim component are directly manufacture when structural components
are assembled. . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.15 Illustration of a manual process to generate an idealized model. . . . . 35
1.16 Example of contact model for a FE simulation. . . . . . . . . . . . . . . 38
2.1 Identification of a skin detail . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2 Illustration of the MAT method . . . . . . . . . . . . . . . . . . . . . . 48
xvLIST OF FIGURES
2.3 Details removal using the MAT and detail size criteria [Arm94]. . . . . 49
2.4 Topology adaption of CAD models for meshing [FCF∗08]. . . . . . . . . 50
2.5 Illustration of CAD defeaturing using CATIA. . . . . . . . . . . . . . . 51
2.6 Illustration of the mixed dimensional modeling using a MAT [RAF11]. 54
2.7 Illustration of mid-surface abstraction [Rez96]. . . . . . . . . . . . . . . 56
2.8 An example of particular geometric configuration not addressed by facepairs
methods. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.9 Illustration of different connection models for idealized components. . . 58
2.10 Mesh Segmentation techniques. . . . . . . . . . . . . . . . . . . . . . . 59
2.11 Automatic decomposition of a solid to identify thick/thin regions and
long and slender ones, from Makem [MAR12]. . . . . . . . . . . . . . . 60
2.12 Idealization using extruded and revolved features in a construction tree,
from [RAM∗06]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.13 Divide-and-conquer approach to idealization processes using a maximal
volume decomposition (by Woo [Woo14]). . . . . . . . . . . . . . . . . 62
2.14 Assembly interface detection of Jourdes et al. [JBH∗14]. . . . . . . . . . 65
2.15 Various configurations of the idealization of a small assembly containing
two components. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.1 Current process to prepare assembly structures. Each component of the
assembly is transformed individually. . . . . . . . . . . . . . . . . . . . 70
3.2 Structuring a DMU model with functional properties. . . . . . . . . . . 73
3.3 DMU enrichment process with assembly interfaces and component functional
designations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4 Interactions between simulation objectives, hypotheses and shape transformations.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.5 Proposed approach to generate a FEM of an assembly structure from a
DMU. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.1 An example of a shape generation process. . . . . . . . . . . . . . . . . 87
4.2 An example of shape analysis and generative construction graph. . . . . 91
4.3 Modeling hypotheses about primitives to be identified in a B-Rep object. 92
4.4 Entities involved in the definition of an extrusion primitive in a B-Rep
solid. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
xviLIST OF FIGURES
4.5 Illustrations of two additive primitives: (a) an extrusion primitive and
(b) a revolution one. The mid-surfaces of both primitives lie inside their
respective volumes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.6 Example of two possible decompositions into primitives from a solid. . 96
4.7 Pipeline producing and exploiting generative shape processes. . . . . . 97
4.8 Examples of configurations where faces must be merged to produce a
shape-intrinsic boundary decomposition. . . . . . . . . . . . . . . . . . 98
4.9 Overall scheme to obtain generative processes. . . . . . . . . . . . . . . 99
4.10 An example illustrating the successive identification and removal of
primitives. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.11 An example illustrating the major steps to identify a primitive and remove
it from an object . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.12 Example of geometric interface . . . . . . . . . . . . . . . . . . . . . . 103
4.13 Example of a collection of primitives identified from a B-Rep object. . . 103
4.14 Illustration of the removal of Pi. . . . . . . . . . . . . . . . . . . . . . . 105
4.15 Illustration of the removal operator for interface of surface type 1a. . . 106
4.16 Illustration of the removal operator for interface of volume type 3. . . . 107
4.17 Illustration of the simplicity concept to filtering out the generative processes.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.18 Criteria of maximal primitives and independent primitives. . . . . . . . 110
4.19 Extraction of generative processes for four different components. . . . . 111
4.20 Result of generative process graph extractions. . . . . . . . . . . . . . . 113
4.21 Illustration of the continuity constraint. . . . . . . . . . . . . . . . . . . 114
4.22 A set of CAD construction trees forming a graph derived from two consecutive
construction graph nodes. . . . . . . . . . . . . . . . . . . . . . 115
4.23 Illustration of the compatibility between the component segmentation (a)
and assembly structure segmentation (b). . . . . . . . . . . . . . . . . . 116
4.24 Insertion of the interface graphs between primitives obtained from component
segmentations into the graph of assembly interfaces between
components. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.1 From a construction graph of a B-Rep shape to a full idealized model
for FEA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.2 Global description of an idealization process. . . . . . . . . . . . . . . . 124
xviiLIST OF FIGURES
5.3 Determination of the idealization direction of extrusion primitives using
a 2D MAT applied to their contour . . . . . . . . . . . . . . . . . . . . 126
5.4 Example of the morphological analysis of a component. . . . . . . . . . 129
5.5 Idealization analysis of components. . . . . . . . . . . . . . . . . . . . . 130
5.6 Illustration of primitives’ configurations containing embedded sub-domains
Dik which can be idealized as beams or considered as details. . . . . . . 131
5.7 Example of a beam morphology associated with a MAT medial edge of
a primitive Pi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.8 Synthesis of the process to evaluate the morphology of primitives Pi. . . 134
5.9 Taxonomy of connections between extrusion sub-domains. . . . . . . . 135
5.10 Illustration of propagation of the morphological analysis of two primitives.139
5.11 Propagation of the morphology analysis on Pi to the whole object M. . 140
5.12 Influence of an assembly interface modeling hypothesis over the transformations
of two components . . . . . . . . . . . . . . . . . . . . . . . 141
5.13 Illustration of the inconsistencies between an assembly interface between
two components and its projection onto their idealized representations. 143
5.14 Two possible schemes to incorporate assembly interfaces during the segmentation
process of components. . . . . . . . . . . . . . . . . . . . . . 144
5.15 Illustration of an interface graph derived from the segmentation process
of a component. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
5.16 Illustration of an interface cycle between primitives. . . . . . . . . . . . 148
5.17 Examples of medial surface positioning improvement. (a) Offset of parallel
medial surfaces, (b) offset of L-shaped medial surfaces. . . . . . . . 150
5.18 Example of identification of a group of parallel medial surfaces and border
primitives configurations. . . . . . . . . . . . . . . . . . . . . . . . 151
5.19 Example of a volume detail configuration lying on an idealized primitive. 152
5.20 Interfaces connection operator . . . . . . . . . . . . . . . . . . . . . . . 154
5.21 Illustration of the idealization process of a component that takes advantage
of its interface graph structures. . . . . . . . . . . . . . . . . . . . 155
5.22 Illustration of the successive phases of the idealization process. . . . . . 156
6.1 Setting up an observation area consistent with simulation objectives. . 162
6.2 Entire idealization of two components. . . . . . . . . . . . . . . . . . . 162
6.3 Transformation of groups of components as analytical models. . . . . . 163
xviiiLIST OF FIGURES
6.4 Influence of interfaces over shape transformations of components. . . . 163
6.5 Synthesis of the structure of an assembly simulation preparation process. 166
6.6 Use-Case 1: Simplified solid model with sub-domains decomposition
around bolted junctions. . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.7 Overview of the main phases of the template-based process. . . . . . . 170
6.8 Subset of TF N , defining a functional structure of an assembly. . . . . . 171
6.9 Principle of the template-based shape transformations. . . . . . . . . . 174
6.10 Compatibility conditions (CC) of shape transformations ST applied to T. 174
6.11 Checking the compatibility of ST (T) with respect to the surrounding
geometry of T. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
6.12 Multi-scale simulation with domain decomposition around bolted junctions,
(courtesy of ROMMA project [ROM14]). . . . . . . . . . . . . . 177
6.13 Template based transformation ST (T) of a bolted junction into simple
mesh model. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
6.14 User interface of a template to transform ‘assembly Bolted Junctions’. . 181
6.15 Results of template-based transformations on CAD assembly models. . 182
6.16 Idealized surface model with FE fasteners to represent bolted junctions. 183
6.17 Illustration of Task 2: Transformation of bolted junction interfaces into
mesh nodes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
6.18 Results of the template-based transformation of bolted junctions. . . . 184
6.19 User interface of the prototype for assembly idealization. . . . . . . . . 187
6.20 Illustration of a component segmentation which extracts extruded volumes
to be idealized in task 3. . . . . . . . . . . . . . . . . . . . . . . . 187
6.21 Illustration of task 4: Identification and transformation of groups of
idealized surfaces connected to the same assembly interfaces. . . . . . . 188
6.22 Final result of the idealized assembly model ready to be meshed in CAE
software. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
A.1 Example of a shape generation process 1/5 . . . . . . . . . . . . . . . . II
A.2 Example of a shape generation process 2/5 . . . . . . . . . . . . . . . . III
A.3 Example of a shape generation process 3/5 . . . . . . . . . . . . . . . . IV
A.4 Example of a shape generation process 4/5 . . . . . . . . . . . . . . . . V
A.5 Example of a shape generation process 5/5 . . . . . . . . . . . . . . . . VI
xixLIST OF FIGURES
A.6 Example of a shape generation process of a simple metallic component VII
B.1 Examples of Sketch-Based Features . . . . . . . . . . . . . . . . . . . . X
B.2 Examples of Sketch-Based Features . . . . . . . . . . . . . . . . . . . . XI
B.3 Examples of Dress-Up Features . . . . . . . . . . . . . . . . . . . . . . XII
B.4 Examples of Boolean operations . . . . . . . . . . . . . . . . . . . . . . XIII
D.1 Illustration of the STEP export of a Bolted Junction with sub-domains
around screw. (a) Product structure open in CATIA software, (b) associated
xml file containing the association between components and
interfaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XX
D.2 Illustration of the STEP export of a Bolted Junction. Each component
containing volume sub-domains is exported as STEP assembly. . . . . . XX
D.3 Illustration of the STEP export of a Bolted Junction. Each inner interface
between sub-domains is part of the component assembly. . . . . . . XXI
D.4 Illustration of the STEP export of a Bolted Junction. Each outer interface
between components is part of the root assembly. . . . . . . . . . . XXII
D.5 Illustration of the STEP export of the full Root Joint assembly. . . . . XXIII
xxList of Tables
1.1 Categories of Finite Elements for structural analyses. . . . . . . . . . . 25
1.2 Connector entities available in CAE software. . . . . . . . . . . . . . . 28
1.3 Examples of interactions or even dependencies between simulation objectives
and interfaces as well as component shapes. . . . . . . . . . . . 30
5.1 Categorization of the morphology of a primitive using a 2D MAT applied
to its contour. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
C.1 Morphology associated with a MAT medial edge of a primitive Pi. 1/2 XVI
C.2 Morphology associated with a MAT medial edge of a primitive Pi. 2/2 XVII
xxiLIST OF TABLES
xxiiAcronyms
B-Rep Boundary representation. 10–14, 17, 20, 21, 34, 45, 49, 50, 52, 62, 63, 77, 78,
85, 86, 89, 91–93, 96–98, 101, 102, 114, 116–118, 120, 140, 141, 147, 171, 192–195
CAD Computer Aided Design. IX, 2, 3, 5–7, 9–14, 16–19, 21, 24–26, 29, 30, 33–36,
39–41, 43, 44, 47–53, 55, 59, 60, 63, 65, 67, 70, 73, 77–79, 86–93, 97–99, 114, 116,
118–120, 122, 123, 140, 144, 155, 156, 159, 169, 179, 180, 183, 186, 189, 191, 193,
195
CAD-FEA Computer Aided Design to Finite Element Analysis(es). 12, 43, 191–193
CAE Computer Aided Engineering. 11, 12, 23, 25, 26, 33, 35, 37–41, 43–45, 47, 50–53,
67, 77, 123, 156, 165, 180, 189
CSG Constructive Solid Geometry. 9–11, 13, 62, 63
DMU Digital Mock-Up. XIX, 2, 3, 5–8, 11, 12, 16–21, 23, 30–35, 37–41, 43, 64, 67–75,
77–79, 82, 83, 85, 86, 142, 157, 159, 160, 167, 168, 171, 172, 178–180, 183, 189,
191–193, 196
FE Finite Elements. 5, 7, 22, 25, 27–32, 38–41, 44–47, 49, 52, 54, 64, 70, 72, 77, 79,
82, 85, 121–123, 125, 136, 145, 152, 153, 157, 159, 162, 165, 169, 177, 180, 183,
185, 186, 189, 191, 193
FEA Finite Element Analysis(es). 1–3, 5, 7, 12, 22, 28, 30–32, 40, 43, 45, 46, 49, 57,
58, 60, 64, 67–70, 72, 74–79, 83, 85, 87–89, 96, 117, 119–121, 123, 141, 156, 160,
168, 172, 173, 176, 177, 180, 191
FEM Finite Element Models. 1, 22–24, 26, 27, 29, 44, 46, 69–72, 76, 79, 82, 88, 121,
147, 183
KBE Knowledge Based Engineering. 168
MAT Medial Axis Transform. XV, 44, 47–49, 53–57, 60, 126, 128, 131–133, 137, 145,
166, 195
xxiiiAcronyms
PDMS Product Data Management System. 72
PDP Product Development Process. 1–3, 5–7, 9, 12, 19, 32, 39, 44, 46, 88, 89, 180
PLM Product Lifecycle Management. 6, 16, 21, 32, 72
xxivIntroduction
Context of numerical certification of aeronautical structures
Aeronautical companies face increasing needs in simulating the structural behavior of
product sub-assemblies. Numerical simulation plays an important role in the Product
Development Process (PDP) of a mechanical structure: it allows engineers to
numerically simulate the mechanical behavior of this structure submitted to a set of
physical constraints (forces, pressures, thermal field, . . . ). The local or global, linear
or nonlinear, static or dynamic analyses of structural phenomena using Finite Element
Analysis(es) (FEA) simulations are now widespread in industry. These simulations
play an important role to reduce the cost of physical prototyping, to justify and certify
structural design choices. As an example, let us consider the last Airbus Program A350.
There, a major physical test program is still required to support the development and
certification of the aircraft. However, it is based on predictions obtained from Finite
Element Models (FEM). Consequently, the test program validates the internal load
distributions which have been computed numerically.
Today, FEAs are not restricted anymore to the simulation of components alone;
they can be applied to large assemblies of components. Simulation software capabilities
associated with optimized mathematical resolution methods can process very large
numbers of unknowns derived from their initial mechanical problems. Such simulations
require few days of computations, which is an acceptable amount during a product development
process in aeronautics. However, it is important to underline that these
numerical simulations require the setting of a mathematical model from the physical
object or assembly being analyzed. On purpose, the FEA method incorporates simplification
hypotheses applied to the geometric models of components or assemblies
compared to their real shapes and, finally, produces an approximate solution. To obtain
the most faithful results with a minimum bias within a short amount of time,
engineers are encouraged to spend a fair amount of time on the generation of simulation
models. They have to stay critical with respect to the mathematical method used,
the consequences of simplification hypotheses, in order to understand the deviations of
the simulation model compared to the real tests to judge the validity of the simulation
results.
1Introduction
Some limits faced in structural simulations
Numerical simulations of assemblies remain complex and tedious due to the preprocessing
of assembly 3D models available from Digital Mock-Ups(DMUs) that stands
as the virtual product reference in industry. This phase is highly time consuming compared
to the numerical computations’ one. In the past, the use of distinct software
tools between the design and simulation phases required generating once again the
Computer Aided Design (CAD) geometry of a component in the simulation software.
Today, the development and use of DMUs in a PDP, even with a rather small assembly
models, bring 3D models at hand for engineers. The concept of DMU was initially developed
for design and manufacture purposes as a digital representation of an assembly
of mechanical components. Consequently, DMUs are good candidates to support digital
analyses of several PDP processes, e.g. part assembly ones. In industry, DMUs are
widely used during a PDP regarded as the virtual product geometry reference. This
geometric model contains a detailed 3D representation of the whole product structure
that is made available for simulation engineers. To prepare large sub-structure models
for simulation, such as wings or aircraft fuselage sections; the DMU offers a detailed
and precise geometric input model. However, speeding up the simulation model generation
strongly relies on the time required to perform the geometric transformations
needed to adapt a DMU to FEA requirements.
The pre-processing phase implies reworking all DMU 3D data to collect subsets of
components, to remove unnecessary or harmful areas leading to simplified shapes, to
generate adequate FE meshes, to add the boundary conditions and material properties
as needed for a given simulation goal. All these operations, the way they are currently
performed, bring little added value to a PDP. Currently, time and human resources
involved in pre-processing CAD models derived from DMUs into FE models can even
prevent engineers from setting up structural analyses. Very tedious tasks are required
to process the large amount of DMU components and the connections between them,
like contact areas.
Commercial software already provide some answers to the interactions between design
and behavioral simulation processes for single components. Unfortunately, the
operators available are restricted either to interactive geometric transformations, leading
to very tedious tasks, or to automated simulation model generation adapted to
simple models only. A rather automated generation of complex assembly simulation
models still raises real difficulties and it is far too tedious to process groups of components
as well as sub-assemblies. As detailed in Chapter 1, these difficulties arise
because shape transformations are needed since designers and simulation engineers
work with different target models, resulting in the fact that DMUs cannot be easily
used to support the preparation of structural analysis models.
Scientific research work has mainly focused on the use of global geometric transformations
of standalone CAD components. Few contributions have addressed the au-
2Introduction
tomation of assembly pre-processing (see Chapter 2) leaving engineers to interactively
process each assembly component. Aeronautical structures are particularly complex to
transform due to the large amount of transformations on hundred thousands of parts
and interfaces joints. These operators are still not generic enough to be adapted to
engineers’ needs, especially when idealizations of components or assemblies must be
produced. Indeed, it still is a common practice for engineers to generate interactively
their own models because preparation operations are still not generic enough. Consequently,
some simulations are not even addressed because their preparation time cannot
fit within the schedule of a PDP, i.e. simulation results would be available too late.
Work Purposes
To reach the needs of large assembly simulation model preparation, improvements in
processing DMUs are a real challenge in aircraft companies. The contributions in this
thesis are mainly oriented toward the transformation of 3D CAD models extracted from
a DMU, and their associated semantics, for Finite Element analysis of large assembly
structure. To handle large models, it is mandatory that the proposed principles and
operators speed up and to automate as much as possible the DMU transformations
required. This work will be guided by input DMU data defining the exact content of
the simulation models to be built and will use mechanical and geometric criteria for
identifying the necessary geometric adaptation.
This research thesis is divided into 6 chapters:
• Chapter 1 describes the current practices in aeronautical industries about the
generation, from DMUs, of geometric models supporting the generation of simulation
models. It will define the different geometric entities used in CAD software
as well as the notion of mechanical analysis using the FE method. Also, it will
detail the problematic of DMU geometry preparation for FE assembly models;
• Chapter 2 is a current bibliographical and technological status on the methods
and tools proposed for the preparation and adaptation of geometric models for
FEA. This analysis will consider the review of component pre-processing as well
as their assembly counterpart;
• Chapter 3 presents the proposed contribution to assembly pre-processing based on
the recommendations of chapter 1 and the analysis of chapter 2. This approach
uses, as input model, an enriched DMU at an assembly level with geometric
interfaces between its components, functional properties of these components and,
at the component level, a structured volume segmentation using graph structure.
From this enriched model, an analysis framework is able to connect the simulation
hypotheses with the shape transformations. This chapter will also identify the
geometric operators segmenting a component to transform it in accordance with
the user’s simulation requirements;
3Introduction
• Chapter 4 exposes the principles of the geometric enrichment of a component
using a construction graph. An algorithm extracting generative processes from
B-Rep shapes will be detailed. It provides a powerful geometric structure containing
simple primitives and geometric interfaces between them. This structure
contributes to an analysis framework and it remains compatible with an assembly
structure containing components and geometric interfaces;
• Chapter 5 details the analysis framework through the exploitation of the construction
graph to analyze the morphology of component. Then, geometric operators
are specified that can be robustly applied to automate components’ and
interfaces’ shape transformations during an assembly preparation process;
• Chapter 6 extends this approach toward a methodology using the geometric operators
previously described that performs idealizations and template based transformations
of groups of components. Results of this methodology will also be
presented to illustrate it through aeronautical examples that use the transformation
operators developed;
4Chapter 1
From a Digital Mock Up to
Finite Element Assembly
Models: Current practices
This chapter presents the problematic of DMU adaptation for the generation of
Finite Elements (FE) assembly models. In a first step, the technical context
is addressed through the description of the DMU data content. This description
deals with the geometrical entities and concepts used to represent 3D CAD
components as well as with the representation of assemblies currently available
before DMU pre-processing. Then, the notion of mechanical analysis using the
FE method is defined and the main categories of geometric models within FEA
are described. The analysis of current industrial processes and practical DMU
data content highlights the issues regarding assembly simulation model preparation
and points out the lack of tools in industrial software to reach the level
of abstraction required by FEA, especially when idealizations are needed. The
main time consuming shape transformations and the missing information about
components’ interfaces in DMUs are identified as a starting point to improve the
robustness of DMU pre-processing.
1.1 Introduction and definition DMU concept
To speed up a Product Development Process (PDP), as stated in the introduction,
aeronautical, automotive and other companies face increasing needs in setting up FE
simulations of large sub-structures of their products. Their challenge covers the study
of standalone components but it is now expanding to simulate the structural behavior
of large assembly structures containing up to thousands of components.
Today, aeronautical companies have to manage a range of products during their
entire lifecycle, from their early design phase to their manufacture and even up to
their destruction and recycling. The corresponding digital data management concept
5Chapter 1: From a DMU to FE Assembly Models: current practices
Design Manufacturing
Pre-Sales Maintenance
Industrial Means
Digital Mock-Up
(DMU) as a Master
Figure 1.1: The Digital Mock-Up as the reference representation of a product, courtesy of
Airbus Group Innovations.
aggregating all the information about each product is called Product Lifecycle Management
(PLM). This concept includes the management of a digital product definition
for all the functions involved in a PDP. To replace a physical mock up by its digital
counterpart, the concept of a virtual representation of a product has been developed,
i.e., the Digital Mock Up (DMU) (see Figure 1.1). As Drieux [Dri06] explained, a
DMU is an extraction from the PLM of a product at a given time. The DMU was
initially created for design and manufacture purposes as a digital representation of an
assembly of mechanical components. Consequently, DMUs are convenient to support a
virtual analysis of several processes, e.g., part assembly ones. For instance, DMU may
be extracted at the manufacturing level, which let engineers to quickly generate and
simulate trajectories of industrial robots and to set and validate assembly tolerances.
During project reviews of complex products such as an aircraft, DMUs contribute to
the technical analysis of a product, as conducted by engineering teams. Connected to
virtual reality technology, a DMU can be at the basis of efficient immersive tools to
analyze interferences among the various subsystems contained into the corresponding
product [Dri06, IML08].
During the design phase, the DMU is considered as the reference geometry of the
product representation. It provides engineers all the digital information needed during
their PDP. The various CAD models representing different stages of the product during
its development or meta data related to specific applications such as manufacturing are
6Chapter 1: From a DMU to FE Assembly Models: current practices
examples of such information. The development and use of DMUs in a PDP bring 3D
assembly models at hand for engineers. Because this reference model contains detailed
3D geometry, it offers new perspectives for analysts to process more complex shapes
while speeding up their simulation model generation up to the FE mesh. However,
speeding up the simulation model generation strongly relies on the time required to
perform the geometric transformations needed to adapt the DMU to FE requirements.
In order to understand the challenges involved in the preparation phase from DMUs
of large sub-structure models for FE simulations, it seems appropriate to initially
present the various concepts and definitions related to the Finite Element Analysis
(FEA) of mechanical structures as well as those related to the current models and
information available in DMUs. This chapter describes the current practices regarding
shape transformations needed to generate the specific geometric models required for
FEA from a DMUs model. Starting from the theoretical formulation of a mechanical
analysis to the effective shape transformations faced by engineers to generate FE
models, this chapter raises the time consuming preparation process of large assembly
structures as an issue. This is detailed at section 1.5 and refers to the identification of
key information content during current FE simulation preparation processes from two
perspectives: a component point of view as well as an assembly point of view. In the
last section 1.7, the research objectives are presented to give the reader an overview of
the research topic addressed in this thesis.
1.2 Geometric representation and modeling of 3D
components
A DMU is straightforwardly related to the representation of the 3D components contained
in the product. As a starting point, this section outlines the principles of
mathematical and computer modeling of 3D solids used in CAD software. Also, it
describes the common schemes available for designers to generate components through
a construction process. Because a component is used in a DMU as a volume object,
this section focuses on solids’ representations.
1.2.1 Categories of geometric families
Prior to explanations about the common concepts for representing 3D components, it
is important to recall that the geometric model describing a simulation model contains
different categories of geometric entities used in the CAD and FEA software
environments. These entities can be classified, from a mathematical point of view, in
accordance to their manifold dimension.
7Chapter 1: From a DMU to FE Assembly Models: current practices
0-dimensional manifold: Point
These entities, the simplest geometric representation, are not intended to represent
the detailed geometry of components. However, they are often used in structural analysis,
as abstraction of a component, i.e., its center of mass or a key point of a component
where concentrated forces are applied, . . . . They are also frequently encountered to
represent interfaces between aeronautical systems and structures in a DMU. They are
also the lowest level entity in the description of a component’s solid model.
1-dimensional manifold: Line, Circle, Curve
These entities, such as lines, circles and more generally curves, are mainly involved
in the definition of models of higher dimension like surfaces. In structural analysis,
they represent long and slender shapes, e.g., components behaving like beams, with
the complement of section inertia. During a solid modeling process, they are part of the
definition of 2D sketches (see Figure 1.5 for an example of sketch based form feature),
or as profile curves in other shape design processes. Also, they represent the location
of geometric interfaces between components, e.g., the contact of a cylinder onto a plane.
2-dimensional manifold: Surface
Surfaces are used to represent the skin, or boundary, of a 3D object. Initially, they
were introduced to represent complex shapes of an object, commonly designated as
free-form surfaces. Polynomial surfaces like B´ezier, B-Spline, NURBS (Non-Rational
B-Spline), Coons surfaces are commonly used for modeling objects with curved surfaces
and for the creation of simulation models, e.g., CFD simulations for aerodynamics or
simulations using the isogeometric paradigm. Here, surface models will be essentially
reduced to canonical surfaces, i.e., plane, sphere, cylinder, cone, torus, which are also
described by classical implicit functions. This restriction is set for simplicity purposes
though it is not too restrictive for mechanical components because they are heavily
used. In structural analysis, using a surface model is frequent practice to represent
idealized models equivalent a volume component resembling a sheet. The notion of
idealization will be specified in subsection 1.3.2. Even if a surface model can represent
complex shapes, they are not sufficient to represent a 3D object as a volume, which
requires an explicit representation of the notion of inside, or outside.
3-dimensional manifold: Solid
A solid contains all the information to define comprehensively the volume of the
3D object it represents. Based on Requicha’s mathematical definition [Req77, Req80],
a solid is a subset of the 3D Euclidian space. Its principal properties are:
• A solid have a homogeneous three dimensionality. It contains a homogeneous
interior. Solid’s boundary cannot have isolated portions;
8Chapter 1: From a DMU to FE Assembly Models: current practices
A Ç B A È B A - B
A Ç* B A È* B A -* B
Additional
Face
(a)
(b) A
B
A
B
Figure 1.2: Boolean operator of two solids: (a) Conventional boolean operator produce additional
face, unclosed boundary. (b) CAD uses regularized boolean operator producing valid
solid
• A solid must be closed. When applied to solid, rigid motions (translation, rotation)
or operations that add or remove material, must produce others solids;
• The boundary of a solid must determine unambiguously the interior and exterior
of the solid.
To describe a solid, topological properties are mandatory in addition to the geometric
entities defining this object. This requirement is particularly important when
describing complex shapes because they are generated using a process that combines
simple primitives to progressively increase the shape complexity until reaching the desired
solid. Indeed, the principle of generation process exists for complex free-form
surfaces is similar to that of complex solids. During the design process, the constructive
processes used to combine elementary primitives are key information to enable
efficient modification processes that are frequently required during a PDPIt is commonly
admitted that 80% of the design time is spent on modifications processes.
1.2.2 Digital representation of solids in CAD
Geometric modeling is the core activity of a CAD system. It contains all the geometric
information describing 3D objects. Although there are various digital representations
of 3D components falling into the category of solids, the two major representations
used in CAD software are detailed in the following paragraphs.
Constructive Solid Geometry (CSG) representation
This representation designates Constructive Solid Geometry approaches devoted to
the design and generation of 3D components. It is important to note that the ’usual’
set of Boolean operations cannot be directly applied on solid model. Otherwise, it
would create invalid solids. As illustrated on Figure 1.2a, the conventional intersection
9Chapter 1: From a DMU to FE Assembly Models: current practices
+
- CSG Tree
Resulting
Solid
(a)
Face
Edge
Vertex
B-Rep
Decomposition
(b)
Figure 1.3: (a) Representation of the construction tree of a CSG component. (b) B-Rep solid
decomposed into faces, edges and vertices (after Stroud [Str10]).
operator applied to two solids would create a non regular solid with an isolated face,
in Figure 1.2b the intersection of two cubes would generate a face and not a solid or
the empty set. Therefore, it is necessary to define a new set of Boolean operations,
the so-called regularized set intersection, union and difference (see Figure 1.2b). These
operators are a modified version of the conventional operators and will be used in the
algorithm presented in chapters 4 and 5.
The CSG approaches represents a solid as a sequence of Boolean operations of
elementary solids (cylinder, sphere, extrusion, revolution), i.e., primitives (see Figure
1.3a). The modeler stores primitives (cylinders, cubes, . . . ) and operations that
have been applied to them, essentially regularized Boolean operations (union, intersection,
difference). It can be visually represented as a tree structure but a CSG
representation does not necessarily form a binary tree. The advantage of this model
is to give a structure which can be easily modified, if the modification is compatible
with the construction tree. The location of a simple primitive, e.g., a hole created with
the subtraction of a cylinder, can be easily changed without modification of the CSG
structure. Weaknesses are: the difficulty to represent complex geometric shapes with
free-form surfaces, the complete tree re-evaluation under modifications and the non
uniqueness of this tree with regard to a given shape.
Boundary representation (B-Rep)
In a B-Rep representation, the CAD kernel processes the skin of the object and
the inside/outside of material. The B-Rep model contains the result of the operations,
i.e., the information defining the shape of the solid (see Figure 1.3b). The volume of
a solid is represented by a set of surfaces describing its boundary. Two categories of
information are stored in a B-Rep model, a topological structure and a set of geometric
entities:
10Chapter 1: From a DMU to FE Assembly Models: current practices
• The geometric information: it consists into a set of surfaces defining the boundary
of the solid and locating it in 3D space. These surfaces are bounded by trimming
curves;
• The topological information: this datastructure enables the expression of the
mandatory topological properties, i.e., closure, orientation, that leads to the description
of shells, faces, wires, edges, vertices, expressing the adjacency relationships
between the topological entities. It can be represented using incidence
graphs such as face-edge and edge-vertex graphs.
In a B-Rep model, the set of surfaces is closed and Euler operators express the necessary
conditions to preserve the consistency of a solid’s topology during modifications. The
advantage of this representation holds in its ability to use non-canonical surfaces, i.e.,
NURBS, allowing a user to represent more complex shapes than CSG representation.
Among the disadvantages of B-Rep models, the representation of the solid’s boundary
contains information only about its final shape and this boundary is not unique for
given shape. Today, the B-Rep representation is widespread in most of CAD geometric
modelers and it is associated with a history tree to enable the description and use of
parametric models.
Nowadays, CAD modelers incorporate the B-Rep representation as well as Boolean
operators and the B-Rep representation is the main representation used in aeronautical
DMUs. In this thesis, the input CAD model of a 3D component is considered as
extracted from a DMU and defined as a solid via a B-Rep representation.
Representation of manifold and non-manifold geometric models
To understand the different properties used in CAD volume modelers and Computer
Aided Engineering (CAE) modelers, the notions of manifold solid and non-manifold
objects have to be defined. One of the basic properties of a CAD modeler representing
solids is that the geometric models of 3D components have to be two-manifold to define
solids. The condition for an object to be two-manifold is that, ’at every point of its
boundary, an arbitrary small sphere cuts the object’s boundary in a figure homomorphic
to a disc’. This condition ensures that a solid encloses a bounded partition of the 3D
space and represents a physical object. Practically, in a B-Rep representation, the
previous condition reduces partly to the another condition at every edge of a manifold
solid where it must be adjacent to two faces exactly. Because a solid is a two-manifold
object, its B-Rep model always satisfies the Euler-Poincar´e formula as well as all the
associated operators performing the solid’s boundary transformations required during
a modeling process:
v − e + f − h = 2 ∗ (s − g) (1.1)
where v, e, f, h, s and g represent the numbers of vertices, edges, faces, hole-loops and
the numbers of connected components (shells) and the genus of the solid, respectively.
11Chapter 1: From a DMU to FE Assembly Models: current practices
Non-Manifold Connection
Surface
Volume
Line
Figure 1.4: Examples of non-manifold geometric models.
As a difference, an object is said to be non-manifold when it does not satisfy the
conditions to be a manifold. To address the various needs of object representation,
the concept of manifold has been extended to represent a wider range of shapes as
needed through a PDP. As illustrated in Figure 1.4, a non-manifold geometric modeling
kernel incorporates the ability to describe geometric regions of different manifold
dimensions, connected or not along other geometric regions of lower manifold dimensions.
Consequently, an edge can be adjacent to more than two faces. However, some
basic properties of solids are no longer valid, which increases the difficulty in defining
the consistency of such models. In the context of the Computer Aided Design
to Finite Element Analysis(es) (CAD-FEA), this also referred to as ‘cellular modeling’
[TNRA14] and few geometric modeling kernels, natively incorporate this category
of models [CAS14] These models are commonly used in structural analysis where surfaces
often intersect along more than one edge (see Figure 1.11c). Therefore, CAE
software proposes datastructures to generate non-manifold geometry. However, most
of the commercial FEA softwares contains manifold geometric modelers with extensions
to be able to model non-manifold objects, which does not bring the desired end-user
performances. Here, the input CAD models are considered as manifold solids and the
generated models for FEA can be non-manifold.
1.2.3 Complementary CAD software capabilities: Feature-based
and parametric modeling
CAD software incorporate a volume geometric modeling kernel to create manifold solids
and a surface modeler to enable the generation of two-manifold objects with free-form
surfaces, i.e., two-manifold with boundary objects. CAD tools are essential for the
generation of DMU because they are used to design and to virtually represent the
components of a product. In addition to the presentation of the geometric models used
in CAD software, (see Section 1.2.2), it is also crucial to mention some CAD practices
contributing to the design of mechanical components. This will help understanding the
additional information associated to B-Rep models which are also available in a DMU.
12Chapter 1: From a DMU to FE Assembly Models: current practices
Concept of feature:
As stated in Section 1.2.2, B-Rep models only describe the final shape of solids.
To ease the generation process of 3D mechanical models and to generate a modeling
history, CAD software uses pre-defined form features as primary geometric regions of
the object [Sha95]. A feature is a generic concept that contains shape and parametric
information about a geometric region of a solid. The features can represent machining
operations such as holes, pockets, protrusions or more generic areas contributing to the
design process of 3D components like extrusions or revolutions.
Generative processes:
The following chapters of this thesis use the term ”generative processes” to represent
an ordered sequence of processes emphasizing the shape evolution of the B-Rep
representation of a CAD component. Each generative process corresponds to the generation
of a set of volume primitives to be added or to be removed from a 3D solid
representing the object at one step of its construction.
Features Taxonomy: The features of solid modeling processes can be categorized
into two sets [Fou07]:
• Features independent from any application:
– Geometric entities: points, axes, curves, sketches;
– Adding/removing material: extrusion, revolution, sweeping. Boolean operators;
– Surface operations: fillets, chamfers, fillings;
– Repetitions, symmetries.
• Features related to an application (hole drilling, sheetmetal forming, welding).
As an example, a material addition extrusion feature is illustrated in Figure 1.5. Its
generative process consists in drawing a 2D sketch using lines, circles or planar curves
to define a planar face and then, to submit it to a translation using an extrusion vector
to generate a volume.
The principle of feature-based modeling is to construct a part ”from a simple shape
to a complex one” and it is similar to the CSG principle. As illustrated in Figure 1.5
and, more generally, in Appendix A where a complete part design is represented, the
user starts with the design of simple volumes to represent the overall solid’s shape of a
component and to add progressively shape details such as fillets and holes to reach its
final shape. This qualitative morphological approach to a solid’s construction process
13Chapter 1: From a DMU to FE Assembly Models: current practices
can be partly prescribed by company modeling rules but a user stays particularly free
to choose the features and their sequence during a construction process. This is a
consequence of a design process enabling the user to monitor step by step, with simple
features, the construction process of a solid.
In CAD software, the sequence of features to create a component is represented and
stored in a construction tree (see Figure 1.5).
Dependences between features and construction tree:
The construction tree of a solid is connected to the notion of parametric modeling.
In addition to the feature concept, parametric modeling has been introduced in CAD
software to enable the regeneration of a solid when the user wants to apply a local
shape modification. With parametric modeling, the user input defines the geometric
constraints and dimensions of a feature in relation with others. In most cases, the
localization of a new feature is not applied in the global coordinates system of the
solid. A feature uses an existing geometric entity of the solid, e.g., a planar face, as
basis for a new sketch (see Figure 1.5). The sketching face creates another dependency
between features in addition to the parent/ child relationships that are stored in the
construction tree.
Conclusion
Solid modeling is a way to represent a digital geometric model of a 3D component.
The B-Rep representation used in commercial CAD software allows a user to design
complex shapes but it provides only a low level volume description because it does not
give a morphological description of a solid. As a complement, feature modeling is easy
to learn for a CAD user because it allows him, resp.her, to naturally design mechanical
components without an in-depth understanding of CAD modeling kernel. Construction
trees structure a 3D object using simple feature models, extending the use of B-Rep
models with a history representing their construction processes. Parametric modeling
is also efficient to produce a parameterized representation of a solid to enable easy
modifications of some of its dimensions.
14Chapter 1: From a DMU to FE Assembly Models: current practices
16
100
100
50
Extrusion
Extrusion
Cut
Extrusion
Fillet
Fillet
Hole
Mirror
Figure 1.5: CAD construction process using form features. The modeling sequence is stored
in a construction tree.
15Chapter 1: From a DMU to FE Assembly Models: current practices
X 21 X 24 X 45 X 4 X 2
Figure 1.6: Example of an aeronautical CAD assembly: Root joint model (courtesy of Airbus
Group Innovations).
1.3 Representation and modeling of an assembly in
a DMU
Any mechanical system is composed of different components assembled together with
mechanical joints. This section aims at presenting how an assembly is represented
and created in a DMU. It underlines how an assembly is processed with a non-formal
conventional representation. In particular, this section deals with the current content
of a DMU extracted from a PLM in an aeronautic industrial context (data that are
actually available for structural simulation).
1.3.1 Effective DMU content in aeronautical industry
Assembly structure in a CAD environment
In a CAD software, an assembly is a structure that organizes CAD components into
groups. Each component contains the geometrical and topological data as described
in Section 1.2.2. Then, the component is instantiated in the assembly structure as
many times as it should appear. The Figure 1.6 represents an aeronautical structure
(wing fuselage junction of an aircraft) with a sub-assembly for each composite part and
instantiation of standard components such as screws and nuts.
16Chapter 1: From a DMU to FE Assembly Models: current practices
To create an assembly structure in 3D, the user iteratively positions components in
3D space relatively to other components, (axis alignment of holes, surface mating, . . . ).
These connections between components, called position constraints, connect degrees of
freedom from each component involved in the corresponding constraints. However,
these constraints may not represent the common geometric areas connecting the corresponding
components. For instance, to connect a screw with the through hole of a
plate, a coaxiality constraint can be applied between the cylindrical surface axis of the
screw and the hole axis, independently from any contact between the surfaces. The
radii of the cylindrical surfaces of these two components are not involved, i.e., any
screw can be inserted in the hole. This does not match the reality and can lead to
assembly inconsistencies.
In a CAD environment, the assembly structure is stored in a product tree which
connects each of its components to others with assembly constraints. On top of the
B-Rep representation, each component can contain complementary information such as
a name or a product reference, a contextual description of the component’s function,
modification monitoring information, color, material designation. During a product
design process, a CAD environment also offers capabilities to share external references
to other components not directly stored in a product structure, to parameterize components’
dimensions with mathematical formulas, . . .
DMU evolution during a PDP
All along the product construction process in a PDP, its digital representation
evolves. The information related to the product definition such as its 3D geometric
representation gets modified. In addition, the product development process is shared
among several design departments that address different engineering areas: the product
mechanical structure, electrical systems, . . . All these areas have to share their design
information and sub-assemblies definitions. Whether it is geometry or parameters,
this information should be integrated in a common product representation. The DMU
concept is a means to support the geometric definition and evolution of components
while maintaining the product assembly updated. As an example, depending on the
maturity of the product, a DMU can be reduced to a simple master geometry at the
early stage of the product design using functional surfaces or, it can contain the full
3D representation of all its components as required for manufacturing.
All these needs require that a Product Data Management System (PDMS) be used
to support the definition and evolution of a DMU. The PDMS structures the successive
versions, adaptions to customer requirements as well as the various technical solutions
that can be collectively designated as variants. A product is represented as a tree referencing
the CAD components and their variants. The various product sub-assemblies
of the design team, initially created in a CAD environment, are transferred and centralized
in the PDMS. It is based on this environment that an engineer can formulate
a request to extract a DMU used as input model for his, resp. her, simulations.
17Chapter 1: From a DMU to FE Assembly Models: current practices
Complex
details
Complex component
geometry
Large number of junctions
in aeronautical products
DMU reduced to a set of
individual component,
no positionning constraints Size constraint
(large number of components)
Various categories
of Bolted junctions
Figure 1.7: Example of complex DMU assembly from Alcas project [ALC08] and Locomachs
project [LOC16].
The DMU content and management in the aeronautical industry: a pragmatic
point of view.
Today, as described previously, a DMU stands for the reference geometric representation
of a product used by structural and systems engineers. A DMU is the input
model to generate their simulation models. In practice however, the information of a
DMU extracted from the PDMS reduces to a set of CAD components positioned in
3D space with respect to a global reference frame and a tree structure representing a
logical structure of this product [Fou07, FL∗10]. This fair loss of information originates
from:
• The size and the fragmented location of a DMU: it contains a large amount of
components (see Figure 1.7) created by different design teams during a PDP, e.g.,
in aeronautics, the extraction of a DMU from the PDMS requires one day (no
centralized data);
• The robustness of a DMU: Positioning constraints between components are not
available. Components are standalone objects in a common reference frame. A
DMU is an extraction from the PDMS at a given time. During the evolution of
a PDP, engineers cannot maintain the interfaces between the geometric models
18Chapter 1: From a DMU to FE Assembly Models: current practices
of the components; the corresponding geometric constraints, if they were set,
have to be removed because their management becomes too complex. As an
example, if a component is removed, the removal of its corresponding geometric
constraints could propagate other modifications throughout the whole assembly.
Additionally, the amount of geometric constraints gets very large for complex
products and their consistency is still an open problem [LSJS13]. It can reach
more than three hundreds for an assembly with less than fifty components. This
is what motivates the solution to locate all components into a global coordinate
system. Consequently, each component is positioned independently of the others,
which increases the robustness of the DMU regarding to its modifications even
though the consistency of the DMU becomes more difficult to preserve.
As a result, if a product is complex and has a large amount of components created by
different design teams during a PDP, the PDMS does not contain information specifying
assemblies. Information about proximity between components is not available. The
relational information between parts in an assembly created in a CAD environment,
e.g., the assembly constraints, is lost during the transfer between the CAD environment
and the PDMS. The DMU is restricted to a set of individual CAD components and
a tree decomposition of a product. As Drieux explained in its DMU analysis [Dri06],
a DMU is a geometric answer to design specifications, it does not contain multiple
representations adapted to the various users’ specifications during a PDP, including
the structural analysis requirements.
1.3.2 Conventional representation of interfaces in a DMU
In order to carry on the pragmatic analysis of a configuration where a simulation engineer
receives a DMU as input model, this section defines the notion of assembly
interfaces between components and their conventional representations in industry.
Lacking conventional representation of components
Shahwan et al. showed [SLF∗13] that the shapes of digital components in a DMU
may differ from the shape of the physical object they represent. These differences
originates from a compromise between the real object shape that can be tedious to
model and the need for their shape simplifications to ease the generation of a DMU. This
is particularly true for standard parts such as components used in junctions (bolted,
riveted). Regarding their large number, each geometric detail, e.g., a threaded area, are
not represented because it would unnecessarily complicate the DMU without improving
its efficiency during a design process. Since there is no standard geometric model of
assembly components used in 3D junctions, each company is likely to set its own
representation.
As illustrated in Figure 1.8, in large aeronautical DMUs, bolted junctions as well as
19Chapter 1: From a DMU to FE Assembly Models: current practices
Line to highlight
The head position
Line defining the shank
of the fasterner
Figure 1.8: Representation of a bolted junction in a structural DMU of an aircraft.
riveted junctions may be represented with a simplified representation defined with two
perpendicular lines. This representation is sufficient to generate an equivalent volume
model using basic information of bolt type, nominal diameter and length. However, no
information exists about the connections between the bolt and the junction’s components
the bolt is related to. There is neither a logical link between the screw and nut
with the plates they connect nor a geometric model of the interface between the screw
and nut forming the junction. More generally, the lack of geometric interface exists
for every interface between assembly components. As explained at Section 1.5.3, this
poor representation complicates the generation of equivalent simulation models. This
complexity issue applies also to deformable components1, which are represented under
an operating configuration.
Definition of interfaces between components
Based on the description of the DMU content given at Section 1.3.1, there is no
explicit information about the geometric interaction between components. Even the
content of geometric interfaces between components can differ from one company to
another. In this thesis, the definition of Conventional Interface (CI) of L´eon et al.
[FL∗10, LST∗12, SLF∗13] is used. From their DMU analysis, they formalized the
representation of conventional interfaces between components. To cover all the possible
interactions between two B-Rep objects C1 and C2, they classified the CIs into three
categories (see Figure 1.9):
1. Contacts: these are configurations where the boundary surfaces of the components
C1 and C2 and relatives positions of these components are such that:
∂C1 ∩ ∂C2 = S �= ∅ and ∂C1 ∩∗ ∂C2 = ∅ where ∂C1 and ∂C2 represent the
boundary surfaces of C1 and C2, respectively. S refers to one or more geometric
1Here, deformable components refer to a category of components with plastic or rubber parts
whose displacements under loading conditions are of a magnitude such that the designer take them
into account when setting up the DMU. This is to oppose to metal parts where their displacements
are neglected.
20Chapter 1: From a DMU to FE Assembly Models: current practices
Surface Interface
δC ∩ δC
Volume Interface
δC ∩* δC
Contact Interference Clearance
C1
C2
1 2 1 2
Figure 1.9: Classification of Conventional Interfaces (CI) under contact, interference and
clearance categories.
elements that can be surface-type, line-type or point-type. Figure 1.9a illustrates
contacts between CAD components;
2. Interferences: these are configurations where the boundary surfaces of the components
C1 and C2 and the relative positions of these components are such that:
∂C1 ∩∗ ∂C2 = C12 �= ∅ where C12 is the intersection volume. Interferences are
detected and analyzed during a DMU review to ensure that there is no physical
integration problem between components. However, according to L´eon et
al., interferences, also named clashes, may occur when components’ shapes are
simplified with respect to their physical models (see Figure 1.9b), or in case of
incorrect relative positions of components. Interferences resulting from these partial
positions make a DMU virtually inconsistent, which requires user’s analysis.
Interferences between standard components generate specific classes of interferences,
which is used to process DMUs in the present work;
3. Clearances: they represent 3D domains without a clear geometric definition,
which is difficult to identify and to represent, (see Figure 1.9c). In this work,
clearances are considered as functional clearances and are identified as design
features.
The concept of CI can be used in our assembly context, since it is independent from
any modeling context. Section 3.3 explains how CI can be extracted from a DMU.
Conclusion
The development and use of DMUs in a PDP bring 3D models at hand for engineers.
The DMU extracted from a PLM contains the complete geometric representation of the
product using a B-Rep representation and CAD construction trees. Complex shapes
are directly available without having to be rebuilt them in a simulation software environment.
However, due to considerations of robustness and size, a DMU is reduced
21Chapter 1: From a DMU to FE Assembly Models: current practices
to a set of isolated components without an explicit geometric representation of the
interfaces between them.
1.4 Finite Element Analysis of mechanical structures
This section aims at introducing some principles of the Finite Element Method (FEM)
for structural analysis. Because the scope of this thesis covers the pre-processing of geometrical
data for FEA, this section does not detail the resolution method but focuses
on the input data required by FEA. First of all, it introduces the concept of mechanical
model for FEA. Then, it enumerates the data needed for FEA ranging from the
geometric model of each component using a FE mesh to the representation of connections
between meshes as required to propagate displacements and stress fields over the
assembly that stand for the mechanical models of the interfaces between components.
Subsequently, it describes the industrial approach to various mechanical analyses of an
aircraft structure at different levels of physical phenomena from large coarse models
representing global deformations to detailed small assemblies devoted to the analysis
of stress distributions, as examples. Within each category, the geometric models
representing the components and their connections are described.
1.4.1 Formulation of a mechanical analysis
The goal of a numerical simulation of the mechanical behavior of a structure is to anticipate
or even supersede a physical test. It allows engineers to simulate a mechanical
behavior of a virtual structure, i.e., without the existence of the real structure.
The mechanical analysis process
Independently from a resolution method, e.g., the finite element analysis or the
finite difference method, as stated in Fine [Fin01], the mechanical analysis process
may be split into three main steps (see Figure 1.10):
1. The formulation of the model behavior:
Just as in a physical test, each virtual simulation has a specific objective: a
simulation objective (type of behavior to be observed such as displacements in a
particular area, maximal loads under a prescribed mechanical behavior, accuracy
of the expected results, . . . ). As Szabo [Sza96] describes, the first formulation
phase consists in building a theoretical model integrating the mechanical behavior
laws representative of the physical system. The analyst specifies and identifies
the key attributes of the physical system and the characteristic values of the
mechanical behavior: the simulation hypotheses. Then, the analyst applies a
22Chapter 1: From a DMU to FE Assembly Models: current practices
Pre-processing
Formulate the model mechanical behaviour from hypotheses relative to
the simulation objective. Adapt the input DMU data (geometry, physical
properties, boundary condition) to resolution method requirements.
01
step
Apply the resolution method (e.g. Finite Element Method) to the
simulation model and obtain results
Resolution
Analyse the results. Determine the accuracy, discuss with design team,
validate and integrate in the PDP
Post-processing.
03
step
02
step
Figure 1.10: Process flow of a mechanical analysis.
set of modeling rules related to the simulation hypotheses in order to create a
reduced numerical simulation model ready to be sent to the resolution system.
The choice of the modeling rules implies decisions on the mechanical behavior
of the structure. When defining the shape of the structure derived from its
real shape (see Section 1.4.2) and setting up the constraints and hypotheses
related to analytical resolution methods, the mechanical engineer limits its range
of observations to the simulation objectives. In practice, the formulation of the
model behavior may be viewed as the transformation of the DMU input, which is
regarded as the digital representation of the physical structure, into the numerical
simulation model. Section 1.5 gives details of this crucial integration phase;
2. The resolution of the model behavior:
Once the simulation model is generated, the mechanical engineer launches the
resolution process. This phase is performed automatically by the CAE software.
Currently, the main resolution method used for structural analysis is the FEM,
which sets specific constraints at the level of the mesh generation process;
3. The results analysis:
Once the resolution process has ended, the mechanical engineer has to analyze
the results, i.e., the solutions fields computed and the output parameters that can
be derived from these fields. He, resp. she, determines the solutions’s accuracy,
discusses with design teams to decide about shape modifications, validates and
integrates the results in the PDP.
23Chapter 1: From a DMU to FE Assembly Models: current practices
CAD Model Volume Mesh Shell Mesh
(a) (b) (c)
Figure 1.11: Example of FE mesh models: (a) CAD initial model of a structure, (b) Meshed
model with 3D volume elements,(c) Meshed model with idealized 2D shell elements.
1.4.2 The required input data for the FEA of a component
Although other resolution methods exist (analytical or numerical, e.g., finite difference
method), in mechanical simulation, the FEM is a method widespread in industry.
The FEM is a general numerical method dedicated to the resolution of partial differential
equations and its applicability is not restricted to structural simulation, it
covers thermal, electromagnetism, thermodynamics, . . . Many documents exist which
relate in detail the principles of this method, reference books of Zienkiewicz [ZT00],
Bathe [Bat96] are among them. This section concentrates on the data requirements
of the method to formulate a simulation model and addresses pragmatically how the
engineer can collect/generate these data.
Geometry: Finite Element Mesh
To solve partial differential equations applied to a continuum, i.e., a continuous
medium, the FEM defines an equivalent integral formulation on a discretized domain.
This discrete domain is called a Finite Element Mesh and is produced by decomposing
the CAD model representing the structure into geometric elements of simple and well
known geometry, i.e., triangles, tetrahedra forming the finite elements, . . . , whose
individual physical behavior reduces to a simple model (see Figure 1.11). When the
structure is subjected to a set of physical constraints, the equilibrium equations of the
overall structure percolate through all the elements once they have been assembled
under a matrix form.
The model size, i.e., the number of finite elements, has a direct influence on the
computation time to obtain the solution fields and it may introduce approximation
errors if not set correctly. The engineer must efficiently identify the right level of mesh
refinement related to the mechanical phenomenon he, resp. she, wants to observe. In
practice, to ease the meshing phase, the input CAD geometry is simplified to adapt
its shape to the simulation objectives and the mesh generation requirements. If this
24Chapter 1: From a DMU to FE Assembly Models: current practices
Finite
Element
Geometry Morphological properties
1D-element:
Beam
<< L
l ,l << L 1 2 L
l2 l1
L
Long and slender sub domain having
two dimensions that are small enough
compared to the third one. These two
dimensions define the beam section parameters.
2D-element:
Shell, plate,
membrane
e
l 1
l 2
2 e << l ,l 1 Thin sub domain having one dimension
which is small compared to the two others.
This dimension defines the thickness
parameter.
3D-element:
Volume
Sub domain without any specific morphological
property that must be processed
with a three-dimensional mechanical
behavior.
Table 1.1: Categories of Finite Elements for structural analyses.
simplification is carried out properly, it would not only generate a good mesh but this
mesh is obtained quickly also. This simplification phase incorporates shape transformations
and all their inherent issues are discussed in Section 1.5.
Finite Element Choice and families
When setting up a simulation model, the choice of finite elements is essential. Each
finite element has an approximation function (polynomial function) which has to locally
approximate at best the desired solution. As explained in Section 1.4.1, it is the engineer
who chooses the type of finite element in adequacy with the prescribed simulation
objectives. There are many types of finite elements to suit various applications and
their selection is conducted during the early phase of the CAD model pre-processing.
It is a matter of compromise between the geometry of the components, the desired
accuracy of the simulation results as well as the computation time required to reach
this accuracy.
Figure 1.1 presents the main categories of finite elements classified in accordance
with their manifold properties (see Section 1.2.1).
Idealized elements
Based on the shell theory of Timoschenko [TWKW59], specific finite elements are
available in CAE software to represent a thin volume, e.g., shell elements. These elements
can significantly reduce the number of unknowns in FE models, leading to
25Chapter 1: From a DMU to FE Assembly Models: current practices
a shorter computation time compared to volume models. Also, using shell elements
rather than volume ones gives access to different mechanical parameters: section rotation
and stress distribution in the thickness is implicitly described in the element.
Rather than discretizing a volume into small volume elements, it is represented by its
medial surface (see Table 1.1 2D-element). The thickness becomes a numerical parameter
associated with the element. Long and slender sub domains can be processed
analogously. A beam element is well suited to represent these volume sub domains
using an equivalent medial line (see Table 1.1 1D-element). From the sections of these
volumes, their inertia parameters are extracted and they become numerical parameters
assigned to the beam elements.
Such elements imply a dimensional reduction of the initial volume, a 1-dimensional
reduction for shells and 2-dimensional reduction for beams. This modeling hypothesis
is called idealization. In a CAD-CAE context, the idealization refers to the geometric
transformation converting a initial CAD solid into an equivalent medial surface or
medial line which handles the mechanical behavior of a plate, a shell or a beam, respectively.
This geometrically transformed model is called idealized model. Such an
example is given on Figure 1.11c. Idealized sub domains are particularly suited to aeronautical
structures, which contain lots of long and thin components (panels, stringers,
. . . ). Using idealized representations of these components can even become mandatory
to enable large assembly simulations because software license upper bounds (in terms of
number of unknowns) are exceeded when these components are not idealized. However,
Section 1.5.3 illustrates that the practical application of such an idealization process
is not straightforward. The sub domains candidates for idealization are subjected to
physical hypotheses:
• The simulation objectives must be compatible with the observed displacements
or stress field distributions over the entire idealized sub-domains, i.e., there is no
simulation objective related to a local phenomenon taking place in the thickness
or section of an idealized domain;
• The sub domains satisfy the morphological constraints of idealization hypotheses,
e.g., a component thickness must be at least 10 times smaller than the other two
dimensions of its corresponding sub domain.
Material data, loads and boundary conditions
On top of the definition of a mesh geometry and its associated physical properties,
e.g., sections, thickness, inertias, the FEM requires the definition of material parameters,
loads and boundary conditions.
Material data are associated with each finite element in order to generate the global
stiffness matrix of the equivalent discretized sub domains representing the initial CAD
model. The material properties (homogeneity, isotropy, linearity, . . . ) are themselves
inherent to the model of constitutive law representative of the component’s mechanical
26Chapter 1: From a DMU to FE Assembly Models: current practices
behavior. In case of a component made of composite material, the spatial distribution
of the different layers of fibers should be carefully represented in the meshed model of
this component.
Loads and boundary conditions are essential settings of a mechanical simulation
to describe the mechanical effects of other components on the ones of interest. Consequently,
loads and boundary conditions are also part of the mechanical simulation
pre-processing. A load can be a punctual force applied at a finite element node, a
pressure distributed over the surface of a set of finite elements or even a force field,
e.g., gravity force. Similarly, boundary conditions have to be attached to a particular
set of nodes. Boundary condition settings interact with idealization processes (see
Section 1.5.3), e.g., a force acting on an elongated side of a long slender volume is
applied to a linear sequence of nodes of the idealized equivalent model defined as a
beam model. Consequently, the boundary condition is also dimensionally reduced. In
practice, an engineer defines the loads and boundary conditions areas over a component
using partitioning operators prior to mesh the component.
1.4.3 FE simulations of assemblies of aeronautical structures
The FEM issues have been extensively addressed for standalone components and integrated
in a PDP. However, the FE simulation target is now evolving toward assembly
structures, which are under focus in the next section.
An assembly can be regarded as a set of components interacting with each other
through their interfaces. These interfaces contribute to mechanical functions of components
or sub-assemblies [BKR∗12, KWMN04, SLF∗13]. An assembly simulation model
derives from shape transformations interacting with these functions to produce a mechanical
model containing a set of sub domains discretized into FEs and connected
together to form a discretized representation of a continuous medium.
Interactions between sub domains in assembly models and associated hypotheses
An assembly simulation model is not just a set of meshed sub domains positioned
geometrically in a global coordinate system. These sub domains must be connected
to each other to generate global displacement and stress fields over the assembly. To
process every assembly interface (see Section 1.3.2), the user should decide which mechanical
behavior to apply. Connections between components through their interfaces
can be of type kinematic or physical and associated with physical data (stiffness, friction
coefficient, . . . ) and material parameters, as necessary. The selection of connector
types is subjected to user’s hypotheses regarding the relative behavior of sub domains
representing the components, e.g., motion and/or relative interpenetration. Here, a
sub domain designates either an entire component or a subset of it when it has been
27Chapter 1: From a DMU to FE Assembly Models: current practices
With relative motion Without relative motion
With interpenetration
Deformable junctions models:
used to model complete mechanical
connections with deformable
connectors elements,
i.e., springs, dampers, . . .
Rigid junctions models: used to
model rigid connections, i.e., ball
joints, welds, rivets, bolts, . . .
Deformable fastener Hinge
Junction
Without interpenetration
Normal and tangential contact:
Used to model the normal
and tangential stresses (friction)
transmitted between two solids
in contact during the simulation.
Kinematic constraints: used to
model relationships expressed as
displacement/velocity between
nodes, e.g., tie constraints, rigid
body, . . .
Contact
Kinematic
Constraint
Table 1.2: Connector entities available in CAE software.
idealized. The connection types are synthesized in Figure 1.2.
The introduction in a FEA of a relative motion between components (contacts condition)
considerably increases the complexity of this analysis. Indeed, a contact is not
a linear phenomenon and requires the use of a specific nonlinear computational model,
which slows down the simulation time. Setting up a contact is a strong hypothesis,
which leads to the definition of the potential contact areas on both components. The
sets of FEs in contact must be carefully specified. On the one hand, they should contain
sufficient elements, i.e., degrees of freedom, to cover the local phenomenon while
limiting the interpenetration between meshes. On the other hand, they should not
contain too many elements to avoid increasing unnecessarily the computation time.
During the early design phases, in addition to idealized models of components, it
is common to perform simulations using simplified representation of junctions. In this
case, the junction simulation objectives aim at transferring plate loads throughout the
whole assembly and FE beam elements are sufficient to model the bolts’ behavior.
In this configuration, the whole group of components taking part of the junction is
replaced by a unique idealized model (see Figure 1.12). When applied to a FEA of
large aeronautical structures, these models are called FE connections with fasteners
and they are widely used to integrate component interactions with or without contact
conditions. A fastener connection may be applied either to mesh nodes or may be
28Chapter 1: From a DMU to FE Assembly Models: current practices
A
Fastening point defined
with region of
influence
FE Fastener Bolted Junction
Beam
connection
B
C
A
B
C Region
of Influence
Figure 1.12: Example of a FE fastener simulating the behavior of a bolted junction using
beam elements.
mesh-independent, i.e., a point to point connection is defined between surfaces prior
to the mesh generation process.
Interactions between simulation objectives and the simulation model preparation
process
Simulation objectives drive the shape transformations of CAD solids and interact
with the simulation hypotheses to model connections between components. During a
PDP, simulations may be used at various steps of a design process to provide different
informations about the mechanical behavior of components and sub systems. Based on
Troussier’s [Tro99] classification, three simulation objectives are taken as examples in
Table 1.3 to illustrate how simulation objectives influence the idealization process and
the models of interactions between components as part of different simulation models.
As an illustration of the influence of simulation objectives on the generation of
different simulation models, Figure 1.13 presents two FE models derived from the
same assembly structure of Figure 1.6:
• A simplified model used at a design stage of pre-dimensioning and design choices
(see Figure 1.13a). The simulation objective is to estimate globally the load
transfer between plates through the bolted junctions and to identify the critical
junctions. This model contains idealized components with shell FE in order to
reduce the number of degrees of freedom. The junctions are modeled with FE
fasteners containing beam elements and a specific stiffness model, i.e., the Huth’s
law [Hut86]. This model contains 145 000 degrees of freedom and solving it takes
15 minutes, which allows the engineer to test various bolted junctions layouts,
part thicknesses and material characteristics;
• A full 3D FEM to validate design choices and check conformity with the certi-
fication process prior to physical testing (see Figure 1.13b). The simulation objectives
contain the validation of the load transfer distribution among the bolted
junctions and the determination of the admissible extreme loads throughout the
structure. To adapt the FE model to these simulation objectives while repre-
29Chapter 1: From a DMU to FE Assembly Models: current practices
Element of
a
simulation
process
Pre-dimensioning and
design choices
Validation of
mechanical tests
Contribution to
phenomenon
understanding
Simulation
objectives
Determine of the number
of junctions, a component
thickness or material, . . .
Analyze the distribution
of the stress field in a
structure. Locate possible
weaknesses.
Understand the behavior
of the structure to correlate
with results after
physical tests
Internal
Connections
(Interfaces)
Physical junction simpli-
fied, no contact (rivet and
pin models associated to
fasteners).
Physical junction simpli-
fied or use of volume patch
model. Contact interactions
between components.
Complete physical junction,
use of volume model
with contact interactions.
Components’
shape
Large number of components.
Idealized: thin
parts represented as shell
models.
Simplified (shell models)
for large assemblies, volume
model or mixed dimensional
model accepted
if rather small number of
components.
Small number of components.
Complete volume
model.
Simulation
model
Linear Linear or nonlinear Nonlinear
Table 1.3: Examples of interactions or even dependencies between simulation objectives and
interfaces as well as component shapes.
senting the physical behavior of the structure, an efficient domain decomposition
approach [CBG08, Cha12] uses a coarse 3D mesh (tetrahedral FE) far enough
from each bolted junction and a specific sub domain around each bolted junction
(structured hexahedral mesh) where friction and pretension phenomena are part
of the simulation model. Here, the objective is not to generate a detailed stress
distribution everywhere in this assembly but to observe the load distribution areas
among bolts using the mechanical models set in the sub domain, i.e., the
patch, around each bolt. This model contains 2.1106 degrees of freedom and is
solved in 14 hours. Only one such model is generated that corresponds to the
physical test.
Conclusion
This section described the main categories of geometric models used in the FEA of
structures. The simulation objectives drive the generation of the simulation models,
i.e., FE meshes, boundary conditions, . . . , used as input data for solving the FE models.
In addition to each component definition, a FE assembly must integrate connection
models between meshed components. In Section 1.5, the different modeling hypotheses
are analyzed with regard to the geometric transformations applied on the DMU input in
order to obtain a new adapted CAD model that can be used to support the generation
of a FE mesh model.
30Chapter 1: From a DMU to FE Assembly Models: current practices
Full 3D FEM
Volume Model
Idealized FEM
Shell model
(a)
(b)
Fastener
Refined Mesh
in subdomains
around junction
Figure 1.13: Example of aeronautical FE models: (a) an idealized model with fasteners, (b)
a full 3D model with a decomposition of plates around each bolted junction and a fine mesh
in the resulting sub domain around each bolted junction.
1.5 Difficulties triggering a time consuming DMU
adaptation to generate FE assembly models
This section aims at illustrating the complexity of the generation of FE models from
DMUs. It highlights the differences between a component’s shape in a DMU with
respect to the level of abstraction required for a given FEA, especially when a FEA
requires an idealization process. This section characterizes and analyzes some specific
issues about assembly simulation model preparation and exposes the lack of tools in
industrial software, which leads engineers to process manually all the shape transformations
and strongly limit the complexity of assemblies that can be processed in a
reasonable amount of time.
1.5.1 DMU adaption for FE analyses
Today mechanical structures used in mechanical simulations contain a large number of
components, each with a complex shape, binded together with mechanical junctions.
In the aeronautic industry, the dimensioning and validation of such structures leads
engineers to face two digital challenges:
• The formulation of mechanical simulation models, as developed in Section 1.4,
31Chapter 1: From a DMU to FE Assembly Models: current practices
that can simulate the mechanical behavior of a structure lead to the components’
dimensioning as well as the validation of the joint technologies selected (bolting,
welding, riveting). During this phase, the engineers have to determine the most
adapted simulation model regarding the physical phenomena to observe. They
need to set up a FEA and its associated simulation hypotheses that produce the
FE model which best meets the simulation objectives with the simulation software
environment and technologies available. In practice, a simulation engineer
supervises the DMU extraction processes to specify the components to be extracted
and/or those having negligible mechanical influences with respect to the
simulation objectives. Yet, this assessment is qualitative and is strongly dependent
upon the engineer’s know-how. Another issue about data extraction stands
in the component updates during the PDP. Any geometrical change of a DMU
component has to be analyzed by the simulation engineer. Due to the tedious
interactive transformations required, a trade-off has to be reached between the
time required for the shape update in the FE model and the mechanical influence
of the component with respect to the simulation objectives. Here, we face
a qualitative judgment;
• The generation of appropriate component shapes from a DMUs to support the
generation of simulation models. As explained at Section 1.1, the DMU stands for
the geometric reference of a product definition. Through the PLM software, engineers
have typically access to DMUs containing the geometry of the 3D assembly
defining the product and additional information, essentially about the material
properties of each component. However, the extracted DMU representation is not
directly suited for numerical FE simulations. Shape transformations are mandatory
because designers and mechanical engineers work with different component
shapes, resulting in the fact that a DMUs cannot directly support the mesh generation
of structural analysis models. These models must meet the requirements
of the simulation hypotheses, which have been established when setting up the
simulation objectives and the specifications of the mechanical model as part of
the FEA. The component shapes generated for the FEA have to be adapted to
the level of idealization derived from the specifications of the desired mechanical
model, the shape partitioning required for the application of the boundary conditions
and loads as well as the level of details of the shape with respect to the FE
size required when generating the FE mesh. During the generation of mechanical
assembly models, the engineer must also take into account the total number of
components, the representation of multiple interfaces between components and a
higher level of idealization and larger details than for standalone components, to
produce coarse enough assembly models.
To increase the scope of physical assembly simulations, these two challenges lead
engineers to use models with simplified 3D representations using idealized shells rather
than representations using solids, from a geometric point of view and, from a compu-
32Chapter 1: From a DMU to FE Assembly Models: current practices
tational mechanics point of view, models with specific component interfaces models.
These targets require specific treatments during the preparation process of a simulation.
Now, the purpose is to describe the major difficulties encountered by engineers
during the preparation of assembly simulation models.
1.5.2 Interoperability between CAD and CAE and data consistency
The first difficulty to generate assembly simulation models derives from the interoperability
between the CAD and CAE systems. CAD tools have been initially developed
in the 60s to help designers modeling solids for applications such as machining or freeform
surfaces. CAD has evolved along with CAM (Computer Assisted Manufacturing),
driving the functionalities of CAD software. However, simulation software has evolved
independently. CAD systems do not support a full native integration of simulation
preparation modules. The current practice is to export a DMU to subcontracting
companies in charge of the simulation pre-processing, which themselves use specialized
CAE software to read and transform the CAD components geometry. Each of these
two software, (CAD and CAE), efficiently supports its key process. CAD software are
efficient to manage robustly and intuitively modify B-rep solids, to generate large assembly
models but they contain basic meshing strategies and most of them are able to
model non-manifold objects. CAE software are dedicated to simulation processes, they
provide capabilities to describe non-manifold geometry (useful for idealized models) but
are limited in modeling non-manifold models. They incorporate robust meshing tools
(with topological adaption capabilities) and extensive capabilities to describe contact
behaviors, material constitutive laws, . . . . However, CAE software relies on a different
geometric kernel than CAD, which breaks the link between them and leaves open the
needs for shape transformation operators.
Also, a transfer of a component from a CAD to a CAE environment has a severe
impact on the transferred information. The geometry has to be translated during its
import/export between softwares that use different datastructures and operators. This
translation can be achieved through a neutral format like STEP (Standard for The
Exchange of Product model data) [ISO94, ISO03]. However, this translation may lead
to solid model inconsistencies resulting from different tolerance values used in the respective
geometric modeling kernels of CAD and CAE software. These inconsistencies
may prevent the use of some transformation operators, involving manual corrections.
Additionally, the coherence of the input assembly data is crucial. An assembly containing
imprecise spatial locations of components and/or components shapes that do
not produce consistent CIs (see Section 1.3.2) between components or even the non existence
of a geometric model of some components (such as shim components which are
not always designed as illustrated in Figure 1.14) implies their manual repositioning or
even their redesign to meet the requirements of the simulation model. In the proposed
33Chapter 1: From a DMU to FE Assembly Models: current practices
Functional Gap to
assemble components
Shim component
(not design in DMU)
to fill the gap
Figure 1.14: Illustration of a shim component which does not appear in the DMU model.
Shim component are directly manufacture when structural components are assembled.
approach, the input DMU is assumed to be free of the previous inconsistencies and
therefore, it is considered as coherent.
1.5.3 Current operators focus on standalone components
To transform the shape of an initial B-Rep CAD model of a standalone component
into a new one as required for its simulation model, the mechanical engineer in charge
of the simulation pre-treatment sequentially applies different stages of shape analysis
and geometric transformations. His, resp. her, objectives is to produce a new CAD
model that can support the mesh generation process. This mesh must be consistent
with respect to the simulation objectives and produced in a reasonable amount of time.
Based on the simulation objectives reduced to this component, the engineer evaluates
qualitatively and a priori, the interactions between its boundary conditions and
its areas of simulation observation, e.g., areas of maximum displacements or maximum
stresses, to define whether or not some sub domains of this component should be suppressed,
idealized. Currently, engineering practices iteratively apply interactive shape
transformations:
1. Idealizations, which are the starting transformations, because they are of highest
shape transformation level since they perform manifold dimension reductions;
2. Details removal comes after with topological and skin detail categories [Fin01]
that can be also grouped together under the common concept of form feature;
3. Mesh generation requirements leading to solid boundary and volume partitioning
are the last step of shape transformations that can be achieved with the socalled
‘virtual topology’ operators or, more generally, meshing constraints [She01,
FCF∗08].
34Chapter 1: From a DMU to FE Assembly Models: current practices
1 : Extract Pair of faces
from CAD geometry
2 : Generate medial face from
Pair of Faces (Automatic)
3 : Connect all medial
faces together
4: Assign thickness/offset
to medial surface
P1
P2
P3
P1
P2
P3
P1
P2
P3
P1
P2
P3
x 14
Shell model with
thickness
3D initial model
Repetitive Process on
each Medial Surface
connections
(a)
(b)
Figure 1.15: Illustration of a manual process to generate an idealized model: (a) initial solid
superimposed with its idealized model, (b) iterative process using face pairing identification
and mid-surface extensions to connect mid-surfaces.
Commercial softwares already provide some of these operators to adapt DMUs to
CAE processes but they are restricted to simple configurations of standalone components.
Fewer software, like Gpure [GPu14], offer capabilities to process specific
DMU configurations using large facetted geometric models. Component shape transformations,
which is the current target of high level operators, are reduced to manual
interactions to apply defeaturing operations on CAD parts such as blend removal
[ZM02, VSR02], shape simplifications [LAPL05] or to directly remove features
on polyhedral models [MCC98, Tau01, LF05]. In all cases, the flow of interactions
is monitored by the engineer. This results in very tedious and time consuming tasks
requiring a fair amount of resources.
When an idealization is required, engineers can create the resulting mid-surface
with a manual and qualitative identification of face pairs [Rez96] or using a medial axis
surface generation process [ABD∗98, AMP∗02]. However, information in between idealizable
areas is not available and the engineer has to manually create the connections
by extending and trimming mid-surfaces, which is highly tedious and relies also on
his, resp. her, mechanical interpretation. Figure 1.15 illustrates a manual idealization
process where the user identifies faces pairs, then generates mid-surfaces and creates
manually new faces to connect medial faces together while locating the idealized object
as much as possible inside the initial volume. Applied to complex shapes, e.g., aircraft
structure machined parts, this process flow is highly time consuming as a consequence
of the numerous connection areas required and can be hardly automated because slight
35Chapter 1: From a DMU to FE Assembly Models: current practices
shape modifications strongly influence the process flow. Creating idealized domains in
areas where face paring cannot be applied rather than leaving a volume domain in these
areas, is a common industrial practice to reduce the number of degrees of freedom of a
simulation model and reduce the use of mix dimensional models, thus avoiding transfers
between shell and volume finite elements because it is not recognized as a good
mechanical model. A volume mesh in connection areas is only beneficial if it brings a
gain in accuracy, pre-processing or simulation time. Today, generating volume meshes
in connection areas requires lots of manual interventions because these volume shapes
can be quite complex. Often, the main difficulty is to partition the initial object into
simple volumes to generate structured meshes.
The lack of robust and generic operators results in a very time consuming CAD
pre-processing task. These geometric operators are analyzed in detail in Chapter 2 to
understand why they are not generic and robust enough.
1.5.4 Effects of interactions between components over assembly
transformations
The amount of shape transformations to be performed significantly increases when
processing an assembly. The engineer has to reiterate numerous similar interactive
operations on series of components, the amount of such components being large.
Unlike modeling a standalone component having no adjacent component, an assembly
model must be able to transmit displacements/stresses from one component to
another. Therefore, the preparation of an assembly model compared to a standalone
component implies a preparation process of their geometric interfaces. Consequently,
to obtain a continuous medium, the engineer must be able to monitor the stress distribution
across components by adding either kinematic constraints between components
or prescribing a non-interpenetration hypothesis between them by adding physical contact
models. Thus, modeling hypotheses must be expressed by the engineer at each
component interface of an assembly.
Today, the interactive preparation of the assembly depicted at Figure 1.13 requires a
5 days preparation to produce either an idealized model or a model based on simplified
solids. When looking at this model, some repetitive patterns of groups of components
can be observed. Indeed, these patterns are 45 bolted junctions that can be further
subdivided into 3 groups of identical bolt junctions, i.e., same diameter. Each group
can be further subdivided in accordance with the number of components tightened.
The components forming each of these attachments belong to a same function: holding
tight in position and transferring forces between the plates belonging to the wing and
the fuselage. While a standalone component contributes to a function, an assembly is
a set of components that fulfill several functions between them. During an interactive
simulation preparation process, even if the engineer has visually identified repetitive
36Chapter 1: From a DMU to FE Assembly Models: current practices
configurations of bolts, he, resp. she, has to transform successively each component
of each bolt. A property, by which some components share similar interactions than
others and could be grouped together because they contribute to the same function,
cannot be exploited because there is no such functional information in the DMU and
the geometric models of the components are not structured with their appropriate
boundary decomposition to set up the connection with their function, e.g., imprint of
contact areas are not generated on each component boundary and the contact areas
are connected to a function. Thus, the engineer has to repeat similar shape transformations
for each component. However, if the geometric entities contributing to the
same function are available, grouped together and connected to their function before
applying shape transformations, the preparation process could be improved. For instance,
bolted junctions would be located and transformed directly into a fastener
model through a single operator. Further than repetitive configurations, it is here
the impossibility to identify and locate the components and geometric entities forming
these repetitive patterns that reduces the efficiency of the preparation process.
Processing contacts
Hypothesizing the non-interpenetration of assembly components produces non linearity
and discontinuities of the simulation model. In this case, the engineer must
locate the potential areas of interpenetration during the analysis. Due to the lack of
explicit interfaces between components in the DMU, all these contact areas must be
processed interactively. At each contact interface, the analyst has to manually subdivide
the boundary of each component to generate their geometric interface and then,
assign mechanical parameters, such as a friction coefficient, to this interface. In the
use-case represented in Figure 1.6, every bolted junction contains between 5 and 7 geometric
interfaces at each of the 45 junctions, which amounts to 320 potential contact
conditions to define interactively. To avoid these tedious operations, in a context of
non linear computations, there is a real need to automate the generation of contacts
models in assembly simulations. This automation can be applied to a DMUs with the:
• Determination of geometric interface areas between components, i.e.,
– Localize geometric interfaces between components likely to interpenetrate
during the simulation;
– Estimate and generate the extent of contact areas over component boundaries.
Meshed areas of the two components can be compatible or not depending
on the capabilities of CAE software;
• Generation of functional information to set the intrinsic properties of contact
models, i.e.
– Define the friction parameters;
37Chapter 1: From a DMU to FE Assembly Models: current practices
Functional Tolerance
Loose fit Fitted Snug fit
User’s choice
Mechanical
components DMU
Nominal diameter
for bearing and shaft
CAE
Preprocessing Virtualization
Simplified representation
of a bearing
Shaft Contact Area
Bearing Simulation Model
with Friction contact
Figure 1.16: Example of contact model for a FE simulation.
– Define the kinematic relations between component meshes in contact areas
with respect to the dimensional tolerances between surfaces. Figure 1.16
exemplifies a contact between a shaft and a bearing. Commonly, a DMU
exhibits CIs [SLF∗12, SLF∗13] where components’ representations can share
the same nominal diameter while they can fulfill different functions according
to their fitting (clearance, loose fit, snug fit), thus requiring different settings
in their FE respective contact models.
As a result, DMUs do not contain enough information to automate the generation of
contact models. FE models need geometric and functional information about components
interfaces to delineate contact areas as well as to assign contact model parameters.
Contribution of component functions to the simulation preparation
To automatically handle these repetitive configurations related to components contributing
to the same function in an assembly, the simulation preparation process must
be able to identify these functions from the input DMU. Currently, the engineer is
unable to automate these repetitive tasks because he, resp. she, has no information
readily identifying connections in the assembly.
Simulation models chosen by the engineer in a CAE library to replace the junctions
are geometrically simple and basic interactive operators are available to achieve
the necessary shape transformations. As shown in Figure 1.12, an idealized model of
a bolted connection modeled with a fastener consists in a set of points connected by
line elements to describe the fastener. Using a mesh-independent fastener, the points
representing the centers of the bolt holes in the tightened components do not even
need to coincide with a surface mesh node. These idealization transformations are
rather simple locally, given the component shapes. Hence, the challenge is neither the
38Chapter 1: From a DMU to FE Assembly Models: current practices
geometric complexity nor the mesh generation. Indeed, it holds in the term ‘bolted
junction’ to identify this geometric set of components and generate geometric relationships
between areas of their boundaries. The issue consists in determining the function
of each component in an assembly in order to group them in accordance with identical
functions and to make decisions about modeling hypotheses (simplification, idealization)
on component shapes associated with these identified functions.
Conclusion
Shape transformations taking place during an assembly simulation preparation process
interact with simulation objectives, hypotheses and functions attached to components
and to their interfaces. To improve the robustness of the geometric operators
applied during simulation preparation, and to make them applicable not only to components
but also to assemblies, is a first objective to reduce the amount of time spent
on assembly pre-processing.
1.6 Conclusion and limits of current practices about
DMU manual adaption for FE assembly models
generation
Currently, configuring rather complex assembly models for simulations is difficult to
handle within the time scale prescribed by an industrial PDP. The pre-processing of
CAD models derived from DMUs to produce FE models is far too long compared
to the simulation time, it may represent 60% of the whole simulation process (see
Section 1.4.1). Consequently, some simulations are not even addressed because their
preparation time cannot fit within the schedule of a PDP, i.e., simulation results would
be available too late.
Because the shape of CAD models obtained from the engineering design processes
is neither adapted to the simulation requirements nor to the simulation solvers, shape
transformations are mandatory to generate the simulation models. Consequently,
DMUs cannot directly support the preparation process of structural analysis models.
Today, the operators available in CAD/CAE software allow an engineer to perform
either interactive geometric transformations leading to very tedious tasks or automated
model generation adapted to simple models only or models containing only a restricted
set of form features [TBG09, RG03, SGZ10, CSKL04, LF05, LAPL05, ABA02, SSM∗10,
DAP00]. Unfortunately, these operators are still not generic enough to be adapted to
analysts’ needs and a rather automated generation of complex component simulation
models still raises numerous difficulties, especially when component idealizations must
be performed.
39Chapter 1: From a DMU to FE Assembly Models: current practices
To generate assembly simulation models, in addition to its component transformations,
the engineers need to generate all the connections between its components. Simulation
models for assemblies strongly need geometric interfaces between components
to be able to set up boundary conditions between them and/or meshing constraints,
e.g., to satisfy conformal mesh requirements. Studying the content and structure of an
assembly model, as available in a PDMS, reveals that product assemblies or DMUs are
reduced to a set of components located in 3D space without geometric relationships
between them. The information about the interfaces between components are generally
very poor or nonexistent, i.e., real contact surfaces are not identified or not part
of each component boundary. As a consequence, it is common practice for engineers to
generate interactively the connections between components, which is error prone, due
to the large number of repetitive configurations such as junction transformation.
Finally, processing complex DMUs for the simulation of large assembly models is a
real challenge for aircraft companies. The DMUs, used in large industrial groups such
as Airbus Group, consist in hundreds of thousands of components. Thus, engineers in
charge of such simulations can hardly consider applying the usual methods involving
manual processing of all components as well as their interfaces. To meet the needs
for large assembly simulation models, improvements in processing DMUs are a real
challenge in aircraft companies and it is mandatory to robustly speed up and automate,
as much as possible, the DMU transformations required.
1.7 Research objectives: Speed up the DMU preprocessing
to reach the simulation of large assemblies
To improve the simulation preparation process of large assembly simulation models,
this thesis aims at defining the principles that can be set up to automate the shape
adaption of CAD models for the simulation of large assembly structures and developing
the associated shape transformation operators. The range of CAD models addressed is
not restricted to standalone components but covers also large assembly structures. The
tasks planned are mainly oriented toward the transformation of 3D geometric models
and the exploitation of their associated semantics for the FEA of structural assemblies
applicable to static and dynamic analyses. The task breakdown is as follows:
• Analyze FE simulation rules to extract and classify modeling criteria related to
user-defined simulation objectives;
• Based on CAE discipline’s rules, specifications and process structure, formalize
shape transformations operators to increase the level of automation of component
transformations as well as the transformation of its geometric interfaces;
40Chapter 1: From a DMU to FE Assembly Models: current practices
• Implement and validate idealization operators to transform assembly component
shapes and assembly interfaces between components while preserving the semantics
of the mechanical behavior intended for this assembly;
• Specify the transformation process monitoring and the methodology contributing
to the generation of mechanical (CAE) models exploiting a functionally enriched
DMUs.
Prior to any automation, a first step outlined in Chapter 2 analyzes in detail the
available operators and scientific contributions in the field of data integration and shape
transformations for mechanical simulations. The objective is to understand why the
current operators and approaches are not robust enough to be applied to aeronautical
assemblies. From this analysis, Chapter 3 refines the thesis objectives and exposes a
new approach to speed up the shape adaption of CAD assembly models derived from
DMUs as needed for FE assembly models. The proposed method is able to adapt a
component shape to the simulation objectives and meshing constraints. It incorporates
the automation of tedious tasks part of the CAD component idealization process,
specifically the treatment of connections between idealizable areas. The proposed algorithms
detailed in Chapters 4 and 5 have to be robust, applicable for CAD aeronautical
components and preserve the semantic of the mechanical behaviors targeted. These
operators contribute to an assembly analysis methodology, presented in Chapter 6,
that definitively generalizes assembly transformation requirements in order to prove
the capacity of the proposed approach to challenge the generation of large assembly
simulation models.
41Chapter 1: From a DMU to FE Assembly Models: current practices
42Chapter 2
Current status of procedural
shape transformation methods
and tools for FEA
pre-processing
The transformation of DMUs into structural analysis models requires the implementation
of methods and tools to efficiently adapt the geometric model and its
associated information. Therefore, this chapter proposes a review of the current
CAD-FEA integration related to data integration and shape transformations. In
this review, the procedural transformations of CAD components are analyzed,
from the identification of details to the dimensional reduction operations leading
to idealized representations. The geometrical operators are also analyzed with
regard to the problem of assembly simulation preparation. Moreover, this chapter
identifies that current geometric operators are lacking application criteria of
simplification hypotheses.
2.1 Targeting the data integration level
Chapter 1 described the industrial needs to reduce the time spent on assembly preparation
pre-processing for FEA, now the objective of this chapter is to understand why
the available procedural geometric modeling methods and operators still do not meet
the engineers’ requirements, leading them to generate interactively their own models.
Different approaches have been proposed for a better interoperability between CAD
and CAE, which can be mainly classified into two categories [DLG∗07, HLG∗08]:
• Integration taking place at a task level: It refers to the integration of activities of
design and structural engineers, hence it relates to design and FEA methodologies
and knowledge capitalization in simulation data management;
43Chapter 2: Current status of methods and tools for FEA pre-processing
• Data integration level: It addresses data structures and algorithms performing
shape transformations on 3D models of standalone components. More generally,
these data structures and operators help connecting CAD and CAE software.
To support the integration of simulation tasks into a PDP, Troussier [Tro99] explains
that the knowledge involved in the generation of geometric models is not explicitly
formalized. The simulation model definition and generation are based on the collective
knowledge of some structure engineers. Therefore, the objective of CAD/CAE
integration is not only to reduce the pre-processing time but also to decrease the level
of expertise needed to choose and apply the correct transformations to CAD models.
Eckard [Eck00] showed that the early integration of structural simulation in a design
process could improve a PDP leading to a shorter time-to-market, which applies to assembly
processing as well as to standalone components. Badin et al. [Bad11, BCGM11]
proposed a specific method of knowledge management used in several interacting activities
within a design process. According to them, structure engineers and designers
collaborate and exchange design information. However, the authors assume that
relationships between dimensional parameters of CAD and simulation models of components
are available, which is not necessarily the case. Additionally, they refer to
configurations where the shapes of components are identical in both the design and
simulation contexts, which is not common practice for standalone components and
hardly applicable to assemblies where the reduction of complexity is a strong issue. To
help structure engineers, Bellenger [BBT08], Troussier [Tro99] and Peak [PFNO98] formalized
simulation objectives and hypotheses attached to design models when setting
up simulations. These objectives and hypotheses are subsequently used for capitalization
and reuse in future model preparations. This integration at a task level underlines
the influence of simulation objectives and hypotheses without setting up formal connections
with the shape transformations required.
Since the industrial problems addressed in this thesis focus on the robust automation
of shape transformations, it seems appropriate to concentrate the analysis of prior
research on the data integration level. These research contributions can categorized in:
• Detail removals performed either before or after meshing a component [LF05,
LAPL05, FMLG09, GZL∗10];
• Shape simplifications applied to facetted models [FRL00, ABA02];
• Idealization of standalone components [CSKL04, SRX07, SSM∗10, RAF11, Woo14]
using surface pairing or Medial Axis Transform (MAT) operators.
Section 2.2 analyzes the two first categories of shape simplifications and Sections 2.3
concentrates on the specific transformation of dimensional reduction, which is widely
used to generate assembly FEMs as illustrated in Section 1.4. Section 2.4 explores
morphological approaches such as the geometric analysis and volume decomposition
of 3D solids to enforce the robustness of FE models generation. Finally, Section 2.5
44Chapter 2: Current status of methods and tools for FEA pre-processing
addresses the evolution of the procedural simplification and idealization during component
pre-processing from standalone components toward an assembly context.
2.2 Simplification operators for 3D FEA analysis
In CAE applications, the removal of details to simplify a component before meshing it
has led to local shape transformations based on B-Rep or polyhedral representations.
These transformations create new geometric entities that can incorporate acceptable
deviations of a FEA w.r.t. reference results. This section analyzes the different operators
and methods aiming at identifying and removing the regions considered as details
on 3D solids.
2.2.1 Classification of details and shape simplification
As explained in Section 1.4, the level of detail of a solid shape required for its FE
mesh is related to the desired accuracy of its FEA. The removal or simplification
of a sub-domain of a solid is valid depending when its associated FEA results meet
the accuracy constraint. Armstrong and Donaghy [DAP00] and Fine [Fin01] define
details as geometric features which do not significantly influence the results of an FE
simulation. Starting from this definition, Fine [Fin01] classifies the details under three
categories:
• Skin details: They represent geometric regions which can be removed without
changing neither the 3-dimensional manifold property of the solid (see Section
1.2.1) nor its topology (see Section 1.2.2). This category includes the removal
of fillets, chamfers, bosses, . . . ;
• Topological details: This category represents geometric regions which can be
removed without changing the 3-dimensional manifold property of the solid but
their removal modifies the solid’s topology. For example, removing a through
hole changes the topology of the solid and the number of hole-loops in the EulerPoincar´e
formula decreases;
• Dimensional details: This category represents geometric regions which can be
removed and reduce locally the manifold dimension of the solid along with a
modification of its topology. This category is related to the idealization process
where entire solid models can be represented either with surfaces (dimensional
reduction of 1), lines (dimensional reduction of 2) or may even be replaced by a
point (dimension reduction of 3).
In this categorization L´eon and Fine [LF05] define the concept of detail from a
physical point of view. According to them, the result of a FEA can be evaluated with
45Chapter 2: Current status of methods and tools for FEA pre-processing
CAD Model
FEM Volume
FEM idealized
Volume region which does not
influence the result of FE simulation
➱ to be considered as detail
Volume which is not
represented in idealized model
➱ cannot be considered as detail
using idealized FEM model
Figure 2.1: Identification of a skin detail related to the accuracy of a FE volume model. With
an idealized model, a skin detail cannot be characterized.
‘a posteriori error estimators’ [EF11, BR78, LL83]. These error estimators characterize
the influence of a discretization process, i.e., the FE mesh generation, over the solution
of the partial differential equations describing a structure behavior. However, as
explained in Section 1.4.3, the behavior simulation of large assemblies is heavily based
on idealized models to reduce the size, as much as possible, of simulation models and
improve their use during a PDP. In this context, skin and topological details cannot
be related to the accuracy of the FEA since the error estimators cannot be applied to
shape transformations subjected to a dimensional reduction. Indeed, a volume region
which does not satisfy the idealization conditions (see Section 1.4.2) is part of an idealized
model but not dimensionally reduced. Therefore, as illustrated in Figure 2.1,
evaluating the physical influence of small volume details using an idealized FEM has no
meaning because the notion of discretization process is not meaningful over the entire
model. When considering idealizations, there is currently no ‘error estimators’ to evaluate
the influence of the dimensional reductions achieved through these transformations.
The definition of skin and topological details has to be discussed and extended in the
context of dimensionally reduced models.
Even if this classification cannot address idealized models, the simplification operators
have to be studied to determine the geometry they are able to process and the
information they are able to provide to reduce the complexity of an idealization process.
Effectively, it is important to evaluate into which extent skin and topological simpli-
fication operators should be applied prior to dimensional reduction or if dimensional
reduction takes place first and further simplifications should operate on the dimensionally
reduced model. Therefore, the next sections detail the principles of the geometric
operators identifying and removing details and determine their suitability to interact
with a dimensional reduction process. As mentioned in [Fou07], these operators aim
at identifying the geometric regions on the 3D object considered as details and then,
remove them from the object in order to generate a simplified model. Approaches to
detail removals can be subdivided in two categories depending on the geometric model
46Chapter 2: Current status of methods and tools for FEA pre-processing
describing the component: those which act on tessellated models1 and those which
modify an initial CAD model.
2.2.2 Detail removal and shape simplification based on tessellated
models
Although a tessellated object is a simplified representation of an initial CAD model,
its geometric model is a collection of planar facets, which can be processed more generically
than CAD models. Therefore, the operators based on tessellated models are
generic enough to cover a large range of geometric configurations. In what follows,
shape simplification operators applicable to the object skin are analyzed first then, a
particular attention is paid to the Medial Axis Transform (MAT) operator which extracts
an object structure.
Shape simplification
Different approaches have been proposed to simplify the shape of a CAD component
using an intermediate faceted model or modifying a FE mesh of this component. These
approaches can be synthesized as follows:
• Dey [DSG97] and Shephard [SBO98] improve directly the FE mesh quality by
eliminating small model features based on distance criteria compared to the targeted
level of mesh refinement. The objective is to avoid poorly-shaped elements
and over-densified mesh areas and the treatments proposed are generic;
• Clean-up operators [JB95, BS96, RBO02] repair the degeneracies of CAD models
when they have lost information during a transfer between CAD/CAE environments
or when they contain incorrect entity connections. Their main issue is
the computational cost to recalculate new geometries more suitable for analysis
[LPA∗03] and the ability of the algorithms to process a wide range of con-
figurations. Furthermore, the geometric transformations are inherently small
compared to the model size, which may not be the case for simulation details;
• Others methods [BWS03, HC03, Fin01, QO12] generate and transform an intermediate
tessellated model derived from the CAD component. Fine [Fin01]
analyses this tessellated geometry using a ‘tolerance envelope’ to identify and
then, remove skin details. Andujar [ABA02] generates new, topologically simpli-
fied, models by discretizing the solid object input using an octree decomposition.
The advantage of these approaches, dedicated to 3D volume FE, holds in their
1Here, it is referred to tessellated models rather than meshes, as commonly used in computer
graphics, to distinguish faceted models used in computer graphics from FE meshes that are subjected
to specific constraints for FE simulations. Here, the term mesh is devoted to FE mesh.
47Chapter 2: Current status of methods and tools for FEA pre-processing
(a) MAT 2D (b) MAT 3D
Medial Axis
Medial Surface
Figure 2.2: Illustration of the MAT: (a) in 2D, (b) in 3D.
independence with respect to the CAD design model. These approaches can support
of a wide variety of shapes while avoiding inherent CAD systems issues, i.e.,
surfaces connections, tolerances, . . . . Nevertheless, any shape modification of the
CAD model cannot be taken into account easily and trigger new iterations of the
simplification process;
• Hamri and L´eon [OH04] propose an intermediate structure, the High Level Topology,
in order to preserve a connection between the tessellated model and the CAD
model. As a result, bi-directional mappings can be set between these models, e.g.,
boundary conditions, B-rep surface types, . . . . However, the shape transformations
are still performed on the tessellated model.
Detail removal using the MAT
To identify shape details in sketches, Armstrong [Arm94, ARM∗95] uses the MAT.
The MAT has been initiated by Blum [B∗67] and represents, in 2D, the shape defined by
the locus of centroids of the maximal inscribed circles in a contour (see Figure 2.2a) or,
in 3D, by the maximal spheres inscribed in a solid (see Figure 2.2b). The combination of
the centerlines and the diameter of the inscribed circle on these centerlines, respectively
the center-surfaces in 3D, forms the skeleton-like representation of the contour in 2D,
respectively the solid in 3D, called MAT.
As described in [ARM∗95], The MAT operator is particularly suited to provide
simplification operators with geometric proximity information in 3D and to identify
geometric details on planar domains. The authors use a size criterion to identify:
• Details in 2D sketches using the ratio between the length of boundary sketch
edges and the radius of the adjacent maximal circle;
• Narrow regions using an aspect ratio between the length of the medial edge to the
maximal disk diameter on this local medial edge. A region is regarded as narrow
when this ratio is lower than a given threshold. In addition, the authors refer to
48Chapter 2: Current status of methods and tools for FEA pre-processing
Geometric model Simplified model
remove
remove
Groove reduced to line
Hole reduced to point
Inner MA
Outer MA
Figure 2.3: Details removal using the MAT and detail size criteria [Arm94].
the principle of Saint-Venant that relates to the boundary conditions location, to
categorize a region as a detail.
This method demonstrates the efficiency of the MAT in 2D to analyze, a priori, the
morphology of sketch contours. It can compare and identify local regions smaller
than their neighborhood. Figure 2.3 illustrates the analysis of a 2D sketch with the
MAT [Arm94] to identify details to be removed or idealized. Here, the MAT is addressed
as a detail removal operator because the manifold dimension of the 2D domain
is not reduced. Nevertheless, it can act also as a dimensional reduction operator.
An analysis of the pros and cons of the MAT as a dimensional reduction operator is
performed in Section 2.3.1.
Operators based on tessellated models may be applied to a large range of configurations
because the input model uses a simple polyhedral definition to represent surfaces
in 3D. These operators are efficient to remove skin details before meshing. Yet, large
modifications of CAD models are difficult to take into account.
2.2.3 Detail removal and shape simplification on 3D solid models
As explained in the introduction of this chapter, simplifying CAD solids before meshing
is a way to enable a robust mesh generation and to obtain directly the shape
required for a FEA without local adjustments of the FE mesh. Transformations can be
classified into two complementary categories: transformations modifying the boundary
decomposition of a B-Rep model without changing the model’s shape, transformations
modifying the shape as well as its boundary decomposition.
Topology adaption
Virtual topology approaches [SBBC00, She01, IIY∗01, LPA∗03, ARM∗95] have been
developed to apply topological transformations to the boundary of an initial B-Rep
49Chapter 2: Current status of methods and tools for FEA pre-processing
Narrow regions
Edge deletion
Face
simplification
(a) (b) (c)
Figure 2.4: Topology adaption of CAD models for meshing [FCF∗08]: (a) CAD model, (b)
Meshing Constraint Topology obtained with the adaption process, (c) Mesh model generated
with respect to Meshing Constraint Topology.
model in order to generate a new boundary decomposition that meet the simulation
objectives of this B-Rep model and express the minimum required constraints for mesh
generation. Virtual topology approaches belong to the first category of transformations.
To anticipate the poorly-shaped mesh elements resulting from B-rep surfaces having a
small area, the operation include splitting, merging edges and clustering faces. Anyhow,
the objective is to contribute to the generation of a boundary decomposition of
a B-Rep model that is intrinsic to the simulation objectives rather being tied to the
decomposition constraints of a geometric modeling kernel. Foucault et al. [FCF∗08]
propose a complementary topology structure called ‘Meshing Constraint Topology’
with automated adaption operators to enable the transformation of CAD boundary
decomposition with mesh-relevant faces, edges and vertices for the mesh generation
process (see Figure 2.4). In addition to the topological transformations (edge deletion,
vertex deletion, edge collapsing and merging of vertices), the data structure remains
intrinsic to the initial object which makes it independent from any CAD kernel representations.
Topology adaption is an efficient operator before mesh generation and
it is available in most CAE software. However, virtual topology operators are neither
generic across CAE software nor they form a complete set of transformations.
Form feature extraction
The main category of solid model simplification is the extraction or recognition of
features (holes, bosses, ribs, . . . ). Different application domains’ requirements lead to a
wide variety of feature definitions. Here, a feature is defined as in [Sha95] and refers to
a primary geometric region to be removed from a B-Rep object and hence, simplifies its
shape. The corresponding operators belong to the second category of transformations.
The simplification techniques initially define a set of explicit geometric areas identified
on an object. Then, specific criteria are applied, for example metrics, to evaluate
and select the candidate features to remove. The construction tree resulting from
components’ design (see Section 1.3) directly provides features that can be evaluated.
50Chapter 2: Current status of methods and tools for FEA pre-processing
(a) (b)
Figure 2.5: Illustration of CAD defeaturing using CATIA: (a) CAD initial model, (b) Simplified
CAD model with holes, fillets and chamfers suppressions.
However, this approach relies on the availability of this tree, which is not always the
case (see Section 1.5.2 on interoperability). Feature recognition approaches are based
on the fact that the construction tree is not transferred from a CAD to a CAE system,
and they process directly the B-rep model to recognize features.
A reference survey of CAD model simplification covering feature recognition techniques
has been performed by Thakur [TBG09]. For specific discussions on geometric
feature recognition see Shah et al. [AKJ01]. A particular domain, mostly studied in
the 80-90s is the recognition of machining features. The methods [JC88, VR93, JG00,
JD03] in this field are efficient in recognizing, classifying and removing negative features
such as holes, slots or pockets. Han et al. [HPR00] give an overview of the
state-of-the-art in manufacturing features recognition. Machining feature recognition
has been pioneered by Vandenbrande [VR93]. Woo et al. [WS02, Woo03] contributed
with a volume decomposition approach using a concept of maximal volume and observed
that some of them may not be meaningful as machining primitives. In the
field of visualization, Lee et al. [LLKK04] address a progressive solid model generation.
Seo [SSK∗05] proposes a multi-step operator, called wrap-around, to simplify CAD
component. To reduce the complexity of assembly models, Kim [KLH∗05] uses this
operator and proposes a multi-resolution decomposition of an initial B-rep assembly
model for visualization purposes. These operators simplify the parts after detecting
and removing small or negative features and idealize thin volume regions using face
pairing. Simplification is based on local information, i.e., edge convexity/concavity,
inner loops, . . . The obtained features are structured in a feature tree depending on the
level of simplification. A wide range of shapes is generated with three basic operators.
However, the multi-resolution model is subjected to visualization criteria, which may
not produce shape transformations reflecting the application of simulation hypotheses,
in general. Lockett [LG05] proposes to recognize specific positive injection molding
features. Her method relies on an already generated Medial Axis (MA) to find features
from idealized models. However, it is difficult to obtain a MA in a wide range of configurations.
Tautges [Tau01] uses size measures and virtual topology to robustly identify
geometric regions considered as details but is limited to local surface modification.
51Chapter 2: Current status of methods and tools for FEA pre-processing
One common obstacle of feature recognition approaches is their difficulty to set
feature definitions that can be general enough to process a large range of configurations.
This is often mentioned by authors when features are interacting with each other
because the diversity of interactions can lead to a wide range of configurations that
cannot be easily identified and structured. In addition, in most cases, the definition
of the geometric regions considered as features is based on a particular set of surfaces,
edges and vertices extracted from the boundary of the B-Rep object. The assumption
is that the detection operations based on the neighboring entities of the features
are sufficient to construct both the volume of the features and the simplified object.
However, the validity of this assumption is difficult to determine in a general setting,
e.g., additional faces may be required to obtain a valid solid, which fairly reduces the
robustness of these approaches.
Blend removal
Removal of blends can be viewed as a particular application of features recognition.
Automatic blend features removal, and more precisely, finding sequences of blend
features in an initial shape, is relevant to FE pre-processing and characterizes shape
construction steps. Regarding blends removal, Zhu and Menq [ZM02] and Venkataraman
[VSR02] detect and classify fillet/round features in order to create a suppression
order for removing these features from a CAD model. CAD software has already proposed
blend removal operators and it is these operators that are considered in this
thesis (see Figure 2.5 for a example of a CAD component defeaturing result). In general,
blend removal can be viewed as a first phase to prepare the model for further
extraction and suppression of features.
2.2.4 Conclusion
This section has shown that detail removals essentially address 3D volume simulations
of standalone components. The suitability of these simplification operators for assembly
structures has not been investigated, up to now. Additionally, the approaches to
the automation of detail removal have not been developed for idealization. The definition
of details addresses essentially volume domains and refers to the concept of
discretization error that can be evaluated with posteriori error estimators. As a result,
the relationship between detail removal and idealization has not been addressed.
Approaches based on tessellated models produce a robust volume equivalent model
but incorporating them with idealization processes, which are often refering to B-Rep
NURBS models, does not seem an easy task. Many features-based approaches exist
but they are not generic enough to process a wide range of shapes.
The operators presented in this section can be employed in a context of CAD to CAE
adaption, provided the areas being transformed are clearly delineated. The difficulty
is to determine the relevant operator or sequence of operators in relation to the user
52Chapter 2: Current status of methods and tools for FEA pre-processing
simulation objective. For now, only operators simplifying surfaces of 3D objects have
been presented, in the following section idealization operators introduce categories of
complexity with the dimensional reduction of standalone components.
2.3 Dimensional reduction operators applied to standalone
components
As explained in Section 1.4, to generate idealized models, operators are required to
reduce the manifold dimension of 3D solids to surfaces or lines. Different approaches
have been proposed to generate automatically idealized models of components for CAE.
These approaches can be divided into two categories:
• Global dimensional reduction. These approaches refer to the application of a
geometric operator over the whole 3D object, e.g., using the MAT that can be
globally applied to this object, to generate an overall set of medial surfaces;
• Local mid-surface abstraction. Mid-surface abstraction addresses the identification
of local configurations characterizing individual medial surfaces (using face
pairs, deflation) on CAD models and, subsequently, handles ithe connection of
these medial surfaces to generate an idealized model.
2.3.1 Global dimensional reduction using the MAT
Armstrong et al. [DMB∗96, ABD∗98, RAF11] come up with the MAT to generate
idealized models from 2D sketches and 3D solids. To identify geometric regions in
shell models, which may be represented in an FE analysis with a 1D beam, Armstrong
et al. [ARM∗95, DMB∗96, DAP00] analyze a skeleton-based representation generated
with the MAT. Although the MAT produces a dimensionally reduced geometry of an
input 2D contour, local perturbations (end regions, connections) need to be identified
and transformed to obtain a model suitable for FEA. As for the details identification of
Section 2.2, an aspect ratio (ratio of the minimum length between the medial edge and
its boundary edges to the inscribed maximum disk along this medial edge) and a taper
criterion (maximum rate of diameter change with respect to medial edge length) are
computed to automatically identify entities that must be either reduced or suppressed.
Based on a user input threshold for aspect ratio and taper, the corresponding areas of
the MAT are categorized into regions idealized either as 1D beam element, or regions
kept as 2D elements, or regions idealized as 0D element (concentrated mass). Beam
ends, that differ from the resulting MAT methodology, are also identified through the
topology of the MAT in order to extend the idealizable regions.
More recently, Robinson and Armstrong [RAM∗06, RAF11] generalize the approach
to 3D solid to identify 3D regions which, potentially, could be idealized as 2D shell
53Chapter 2: Current status of methods and tools for FEA pre-processing
Volume Mesh
in Interface area Idealized
areas
Interface offset
for coupling
Perturbation
in ends MA
(a) (b) (c)
Figure 2.6: Illustration of the mixed dimensional modeling using a MAT [RAF11]: (a) the
MAT representation, (b) the model partitioned into thin and perturbations features, (c) the
resulting mixed dimensional model.
elements. In a first step, a 3D MAT is used to identify potential volume regions. Then,
the MATs of these regions are analyzed by a second 2D MAT to determine the inner
sub-regions which fully meet an aspect ratio between their local thickness and MAT
dimensions. The final candidates for idealization should satisfy the 2D ratio within the
face resulting from the 3D MAT as well as the 3D ratio. Similarly to 2D end regions
derived from a 2D MAT, the residual boundary faces from the MAT 3D are extended.
Some limitations of the MAT with respect to idealization processes are:
• The generation of the MAT. Although progress has been made in MAT generation
techniques for 3D objects, the computation of an accurate 3D MAT is still
a research topic [RAF11]. Even if approaches [CBL11, RG03] exist which enable
the computation of a MAT as a G0 geometric object, 3D MAT from free-form surfaces
[RG10, BCL12], B-splines surfaces [MCD11] and planar polyhedra [SRX07],
the most efficient algorithms are still based on a discrete representations. The
most efficient way to obtain a MAT derives from Voronoi diagrams or from distance
fields [FLM03]. An efficient implementation of an algorithm has been proposed
by Amenta [ACK01] and, more recently, by Miklos [MGP10]. However, the
result is also a discrete representation, which has to be somehow approximated
to produce a more global geometric object;
• The need for processing local perturbations (see Figure 2.6b). For mechanical
analysis purposes, the topological features in ending regions have to be modified
to extend the medial surfaces. These undesirable regions complicate and restrain
the analysis domain of the MAT;
• The connection areas. The MAT generates complex configurations in connection
areas. Armstrong and Robinson [RAF11] produce mixed dimensional FE models
with idealized surfaces or lines and volume domains in the connections between
54Chapter 2: Current status of methods and tools for FEA pre-processing
these regions (see Figure 2.6). These mixed dimensional models, which involve
specific simulation techniques using mixed dimensional coupling, do not contain
idealized models in connections areas. In addition, to ensure an accurate load
transfer from one surface to another, they increase the dimensions of volume
connections based on the Saint-Venant’s principle (see Figure 2.6c). As a result,
the idealized areas are reduced. However, the current industrial practice, as
explained in Section 1.4.3, aims at generating fully idealized models incorporating
idealized connections. This practice reduces the computational time, reducing
the number of degrees of freedom, and ensures a minimum model accuracy based
on user’s know-how. In this context, the major limit of MAT methods is the
processing of these connections areas which do not contain proper information to
link medial surfaces.
2.3.2 Local mid-surface abstraction
To generate fully idealized models, alternative approaches to MAT identify sets of
boundary entities of the CAD models as potential regions to idealize. Then, midsurfaces
are extracted from these areas and connected together.
Face pairing techniques
Rezayat [Rez96] initiated the research in mid-surface abstraction from solid models.
His objective was to combine the geometric and topologic information of the B-rep
model to robustly produce idealized models while transforming geometric areas. This
method starts with the identification of surfaces which can be paired based on a distance
criterion between them. During this identification phase, an adjacency graph is
generated representing the neighbouring links between face-pairs. This graph uses the
topological relationships of the initial B-rep model. Then, for each face-pair, a midsurface
is generated as the interpolation of this geometric configuration, as illustrated
in Figure 2.7a. During the final step,the mid-surfaces are connected together using the
adjacency graph of the B-Rep model (see Figure 2.7b). Although this method generates
fully idealized models close to manually created ones, the underlying issue is the
identification of areas that could potentially be idealized. Indeed, the identification
of face-pairs does not ensure that the thickness, i.e., the distance between face-pairs,
is as least ten times smaller than the other two directions (see idealization conditions
described in Section 1.4.2). The areas corresponding to these face pairs is designated
here as tagged areas. In addition, the connection between mid-surfaces requires the
definition of new geometric entities which result from an intersection operator. This
intersection operator solely relies on the boundary of the areas to be connected, i.e, the
face-pairs. There is no information about the boundary of the regions to be idealized
as well as the interface areas between their mid-surfaces, e.g., limits of valid connections
areas. As illustrated in Figure 2.8d, this information does not appear directly
55Chapter 2: Current status of methods and tools for FEA pre-processing
F2
F1
Mid-surface
(a) (b)
Figure 2.7: Illustration of mid-surface abstraction [Rez96], (a) creation of mid-surfaces from
face-pairs, (b) connection of mid-surfaces to generate a fully idealized model.
F1 F2 F3
F5 F4
F6
F1
F3
F4
F6
F3
F6
F1 F2 F3
F5 F4
F6
Fi / Fj
Invalid face pair
Valid face pair
Fi / Fj
F1
F3
F4
F6
Tagged boundary
Non-tagged boundary
Interface between regions to be idealized
Regions to be idealized
Rejected
configuration
Rejected
configuration
Accepted
configuration
CAD
Mid-surface results
Face-pair information
(a)
(b)
(c)
(d)
Figure 2.8: An example of particular geometric configuration not addressed by face-pairs
methods: (a) Valid configuration without mid-surface connection, (b) and (c) rejection of
an invalid face-pair due the overlapping criterion, (d) information on non-tagged areas and
interfaces between idealizable regions that are not evaluated with face-pairs methods.
on the initial model. These areas are the complement of tagged areas with respect
to the boundary of the initial model; they are named non-tagged areas. As a result,
mid-surface abstraction are reduced to specific geometric configurations when the facepairs
overlap each other. As depicted in Figure 2.8, the face-pairs F3-F6 and F2-F5
are rejected due to the overlapping criterion. So, the idealized configurations 2.8b and
c are rejected whereas they could be suitable for FEA.
In order to improve the robustness of idealized areas processing, Lee and al. [LNP07a]
use a propagation algorithm through the B-rep model topology to identify face-pairs.
However, this approach is limited to configurations where the face-pairs can be connected
in accordance with predefined schemes. Ramanathan and Gurumoorthy [RG04]
identify face-pairs through the analysis of mid-curve relationships of all the faces of the
solid model. For each face, its mid-curve is generated using a 2D MAT. This generation
is followed by the analysis of the mid-curve graph in order to identify face-pairs.
The resulting mid-faces, derived from face-pairs, are then connected to each other in
56Chapter 2: Current status of methods and tools for FEA pre-processing
accordance with the mid-curve adjacency graph. This method increases the robustness
of face-pairing, indirectly using the morphology of the paired faces. Analyzing the midcurve
relationships of adjacent faces enables a morphological comparison of adjacent
faces. Since mid-curves have been obtained through a MAT, the face-pairs identifi-
cation depends on the accuracy of this mid-curve generation. This method comes up
with face-pairs close to each other and sufficiently large along the two other directions
to meet the idealization hypothesis. However, this approach is limited to planar areas.
Negative offsetting operations
Sheen et al. [SSR∗07, SSM∗10] propose a different approach to generate mid-surfaces:
the solid deflation. The authors assume that a solid model can be seen as the result of
the inflation of a shell model. Their principle is to deflate the solid model, shrinking it
down to a degenerated solid with a minimum distance between faces close to zero. This
generates a very thin solid model looking like an idealized model. In a next step, faces
are extracted and sewed together to create a non-manifold connected surface model.
The issue of this method lies in the generation of the deflated model. Indeed, a facepairs
detection is used to generate the mid-surfaces input to the shrinking operation.
This face-pair detection does not cover configurations with a thickness variation, which
is common for aeronautical parts and other mechanical components. This approach is
similar to a straightforward MAT generation [AA96, AAAG96], which applies a negative
offset to boundary lines in 2D, surfaces in 3D, respectively, in order to obtain a
skeleton representation. Yet, this representation being an approximation of the MAT,
it does not meet everywhere the equal distance property of a mid-surface and does not
provide an answer for all polyhedral solids [BEGV08].
2.3.3 Conclusion
As explained in Section 1.4 and 1.5, the shape of a component submitted to a mesh
generation depends on the user’s simulation objectives. This analysis of dimensional
reduction operators highlighted the lack of idealization-specific information to delimit
their conditions of application. All geometric regions do not satisfy the idealization
conditions and hence, these idealization operators cannot produce correct results in
these areas. A purely geometric approach cannot produce directly a fully idealized
model adapted to FEA requirements. An analysis process is necessary to evaluate the
validity of the idealization hypotheses and determine the boundary and interfaces of
the regions to be idealized.
The MAT is a good basis to produce a 3D skeleton structure and provides geometric
proximity information between non adjacent faces. However, it is difficult to obtain in
3D and requires post-processing local perturbations and connection areas. Face-pair
techniques are efficient in specific configurations, especially for planar objects. Yet,
their main issues remain in their validity with respect to the idealization hypotheses and
57Chapter 2: Current status of methods and tools for FEA pre-processing
1
2
Kinematic
connection Shortest distance
Offset connection
Perpendicular
connection
1
2
Figure 2.9: Illustration of different connection models for idealized components.
difficulties to process the connection between mid-faces. As illustrated in Figure 2.9,
the connection areas derive from specific modeling hypotheses. The user may decide on
the connection model that is most appropriate for his, resp. her, simulation objectives.
To improve the dimensional reduction of components, the objectives are expressed
as:
1. Identify the volume sub-domains candidate to idealization, i.e., the regions that
meet the idealization hypotheses;
2. Obtain additional information on interfaces between sub-domains to generate
robust connections there.
2.4 About the morphological analysis of components
As a conclusion of the previous Section 2.3, geometric operators require a pre-analysis
of a component shape to determine their validity conditions. Shape decomposition is a
frequent approach to analyze and then structure objects. This section aims at studying
the operators dedicated to a volume decomposition of 3D objects with an application
to FEA.
2.4.1 Surface segmentation operators
There are many methods of 3D mesh2 segmentation developed in the field of computer
graphics. They are mainly dedicated to the extraction of geometric features from these
3D meshes. A comparative study of segmentation approaches of 3D meshes, including
2The word mesh is used in the computer graphics context, which refers to a faceted model with no
constraint similar to FE meshes.
58Chapter 2: Current status of methods and tools for FEA pre-processing
(a) (b)
Figure 2.10: Mesh Segmentation: (a) face clustering of Attene [AFS06], (b) shape diameter
function of Shapira [SSCO08].
CAD components, is proposed by Attene et al. [AKM∗06]. Reference work by Hilaga
[HSKK01] applies a Reeb-graph approach to find similarities between 3D shapes.
Watershed [KT03, Kos03], spectral analysis [LZ04], face clustering [AFS06], regions
growing [ZPK∗02, LDB05], shape diameter functions [SSCO08] are other techniques
to subdivide a 3D mesh for shape recognition, part instantiation, or data compression.
Figure 2.10 illustrates two mesh segmentation techniques [AFS06, SSCO08] on
a mechanical part. These algorithms are not subjected to parameterization issues like
B-Rep CAD models are. They partition a mesh model into surface regions but do
not give a segmentation into volume sub-domains and region boundaries are sensitive
to the discretization quality. A post-processing of the surface segmentation has to be
applied to obtain volume partitions.
The main objective of the methods cited above is to divide the object in accordance
with a “minima rule” principle introduced by Hoffman and Richards [HR84]. This rule
consists in dividing this object to conform to the human perception of segmentation.
The authors state that human vision defines the edges of an object along areas of high
negative curvature. Hence, the segmentation techniques divide a surface into parts
along contours of negative curvature discontinuity. In these areas, the quality of an
algorithm is based on its ability to meet this “minima rule”. Searching for regions
of high concavity, algorithms are sensitive to local curvature changes. Depending on
the threshold value of extreme curvature, the object may be either over-segmented
or under-segmented. Even if this threshold is easier to monitor for CAD components
because they contain many sharp edges, the curvature criterion is not related to the
definition of idealized areas. Consequently, the methods using this criterion do not
produce a segmentation into regions satisfying the idealization hypotheses and regions
that can be regarded as volumes.
This section has covered surface segmentation operators that are not appropriate
in the context of a segmentation for idealization. The next section studies volume
segmentation operators producing directly a decomposition of a solid model into volume
partitions.
59Chapter 2: Current status of methods and tools for FEA pre-processing
Thin-sheet
region in green
(thin-sheet meshable)
(a) (b)
Semi-structured
hybrid mesh
of thick region
(c)
Long/slender region in blue
(swept mesh)
Complex region in yellow
(unstructured mesh)
Figure 2.11: Automatic decomposition of a solid to identify thick/thin regions and long
and slender ones, from Makem [MAR12]: (a) initial solid model, (b) segmented model, (c)
semi-structured hybrid mesh of thick regions.
2.4.2 Solid segmentation operators for FEA
Recently, researches concentrated on the identification of specific regions to automatically
subdivide a complex shape before meshing. They address shape transformations
of complex parts. The automatic segmentation of a mechanical component into volume
regions creates a positive feature decomposition, i.e., the component shape can be
generated by the successive merge of the volume regions. This principle particularly
applies to dimensional reduction processes, i.e, idealizations.
Volume region identification for meshing
In FEA, solid segmentation methods have been developed to simplify the meshing
process. The methods of Lu et al. [LGT01] and Liu and Gadh [LG97] use edge loops
to find convex and sweepable sub-volumes for hex-meshing. More recently, the method
proposed by Makem [MAR12] automatically identifies long, slender regions (see Figure
2.11). Makem [MAR12] shows that the decomposition criteria have to differ from
the machining ones. Heuristics are set up to define the cutting strategy and to shape
the sub-domains based on loops characterizing the interaction between sub domains.
Setting up these heuristics is difficult due to the large diversity of interactions between
sub-domains. Criteria for loop generation aim at generating a unique decomposition
and are not able to evaluate alternatives that could improve the meshing scheme.
To reduce the complexity of detecting candidate areas for dimensional reduction,
Robinson and al. [RAM∗06] use preliminary CAD information to identify 2D sketches
employed during the generation of revolving or sweepable volume primitives in construction
trees. Figure 2.12 illustrates this process: the sketches are extracted from the
construction tree, analyzed with a MAT to determine thin and thick areas forming a
feature. Then, this feature is reused as an idealized profile to generate a mixed dimensional
model. However, in industry, even if the construction tree information exists in a
native CAD model, the creation of features depend on the designer’s modeling choices,
60Chapter 2: Current status of methods and tools for FEA pre-processing
2D Sketch of
a revolution feature
Slender regions
to revolve as surface
3D CAD Component
(volume)
Mix dimensional Model
(volumes and surfaces)
Figure 2.12: Idealization using extruded and revolved features in a construction tree,
from [RAM∗06].
which do not ensure to obtain appropriate sketches mandatory to get efficient results.
Divide-and-conquer approaches
An alternative to the complexity of the idealization process can be found in divideand-conquer
approaches. Firstly, the solid is broken down into volume sub-domains,
which are smaller to process. Then, idealizing these sub-components and combining
them together produces the final idealized model.
Chong [CSKL04] proposes operators to decompose solid models based on shape
concavity properties prior to mid-surface extractions that reduce the model’s manifold
dimension. Mid-surfaces are identified from closed loops of split edges and sub-domains
are processed using mid-surfaces. The solid model decomposition algorithm detects
thin configurations if edge pairs exist in the initial model and matches an absolute
thickness tolerance value. Some volume regions remain not idealized because of the
nonexistence of edges-pairs on the initial object.
In the feature recognition area, Woo et al. [WS02, Woo03] set a volume decomposition
approach using a concept of maximal volume. Their decomposition is based
on local criteria, i.e., concave edges, to produce the cell decomposition. Consequently,
Woo et al. observe that some maximal volumes may not be meaningful as machining
primitives and further processing is required in this case to obtain machinable
sub-domains. Recently, Woo [Woo14] describes a divide-and-conquer approach for
mid-surface abstraction (see Figure 2.13). A solid model is initially decomposed into
simple volumes using the method of maximal volume decomposition [WS02, Woo03] as
well as feature recognition of Sakurai [Sak95, SD96]. The mid-surfaces are extracted
from these simple volumes using face-pairing. Then, face-pairs are connected using a
union Boolean operation, thus creating a non-manifold surface model. Finally, a ge-
61Chapter 2: Current status of methods and tools for FEA pre-processing
Figure 2.13: Divide-and-conquer approach to idealization processes using a maximal volume
decomposition (by Woo [Woo14]).
ometric operator identifies and removes local perturbations of mid-surfaces which do
not correspond to the faces of the original model. The major objective of this approach
is the complexity reduction of the initial mid-surface abstraction. It increases the robustness
of the face paring algorithm by applying it on simpler volumes. However, the
connections between mid-surfaces are based on the topology of the initial solid without
any analysis of its shape related to the user’s simulation objectives. Some solids
can be topologically identical but differ in their morphology. Consequently, a morphological
analysis of their shape is mandatory to identify the sub-domains subjected to
dimensional reduction and to understand the interactions between these sub-domains
through their interfaces. Here, the idealization processes are still restricted to a purely
geometrical operator that does not integrate user’s simulation objectives. Additionally,
this method faces difficulties to handle general configurations and connections between
idealized sub-domains through mid-surface extension operations.
B-Rep decomposition through feature trees
As observed in Section 2.2, the feature recognition techniques are a way to extract
volume sub-domains from B-Rep solids. They support segmentation processes for detail
removal but do not provide construction process structures of these B-Rep solids. To
this ens, different approaches have been proposed to decompose an object shape into
a feature tree.
Shapiro [SV93] and Buchele [BC04] address the B-Rep to CSG conversion as a
means to associate a construction tree with a B-Rep model. Buchele [BC04] applies this
principle to reverse engineering configurations. CSG tree representations can be categorized
into either half-space or bounded solid decompositions. In [SV93, BC04] B-Rep
to half-space CSG representation is studied and it has been demonstrated that half-
62Chapter 2: Current status of methods and tools for FEA pre-processing
spaces solely derived from a volume boundary cannot always be integrated into a CSG
tree forming a valid solid. In Buchele [BC04], Shapiro and Vossler’s approach [SV93]
is complemented to generate a CSG representation from scanned objects and to obtain
both its geometry and topology. There, additional algorithms must be added to
produce complementary half-spaces. Moreover, the meaning of half-space aggregations
is not addressed, i.e., there is no connection between the volume faces and primitives
that can be used to create it.
Li and al. [LLM06, LLM10] introduce a regularity feature tree used to highlight
symmetry in a solid that differs from CSG and construction trees. This tree structure
is used to highlight symmetry properties in the object but it neither provides a CSG
tree nor primitive entities that could serve as basis for idealization applications. Belaziz
et al. [BBB00] propose a morphological analysis of solid models based on form features
and B-Rep transformations that are able to simplify the shape of an object and enable
simplifications and idealizations. Somehow, this method is close to B-Rep to CSG
conversion where the CSG operators are defined as a set of shape modifiers instead of
Boolean operators. Indeed, the shape modifiers are elementary B-Rep operators that
do not convey peculiar shape information and each stage of the morphological analysis
produces a single tree structure that may not be adequate for all simplifications and
idealizations.
All the approaches generating a CSG type tree structure from a B-Rep bring a
higher level shape analysis with connections to a higher level monitoring of shape transformations,
symmetry properties. . . However, the corresponding framework of B-Rep
to CSG conversion must be carefully applied to avoid unresolvable boundary configurations.
Furthermore, producing a single tree structure appears too restrictive to cover
a wide range of shape transformation requirements.
2.4.3 Conclusion
Solid segmentation operators directly provide a volume decomposition of the initial
object. A segmentation brings a higher level of geometric information to the initial
B-Rep solid. Previous methods have shown the possibility to generate a segmentation
or, even construction processes, from an initial CAD model. Therefore, the current
operators:
• do not always produce a complete segmentation, e.g., not all features are identified,
and this segmentation is not necessarily suited for idealization due to
algorithms focusing on other application areas;
• may be reduced to simple configurations due to a fairly restrictive definition of the
geometric areas being removed from the solid. Furthermore, if these operators
generate also a construction process, it is restricted to a single process for a
component;
63Chapter 2: Current status of methods and tools for FEA pre-processing
• could produce a complete segmentation, e.g., divide and conquer approaches,
but they do not ensure that the volume partitions are also simple to process and
usable for mid-surfacing.
A more general approach to volume decomposition should be considered to depart
from a too restrictive feature definition while producing volume partitions relevant for
idealization purposes. Therefore, the difficulty is to find adequate criteria to enable a
segmentation for dimensional reduction and connections operators.
The previous sections have presented the main methods and tools for FEA preprocessing
and, more specifically, for idealization processes in a context of standalone
components. The next section describes the evolution of these operators toward an
assembly context.
2.5 Evolution toward assembly pre-processing
Currently, the industrial need is to address the simulation of assembly structures. However,
few contributions address the automation of assembly pre-processing. Automated
simplifications of assembly for collaborative environment like the multi-resolution approach
of Kim [KWMN04] or surface simplification of Andujar [ABA02] transform assembly
components independently from each other. This is insufficient to pre-process
FE assembly models because mechanical joints and interfaces tightening the different
components must take part to these pre-treatment (see Chapter 1.4).
Group of components transformations
In the assembly simplification method of Russ et al. [RDCG12], the authors propose
to set component dependencies to remove groups of components having no influence
on a simulation, or to replace them by defeatured, equivalent ones. However, the
parent/child relationships created from constraint placement of components does not
guarantee to obtain the entire neighborhood of a component because these constraints
are not necessarily related to the components’ geometric interfaces. As explained in
Section 1.3.1, these positioning constraints are not necessarily equivalent to the geometric
areas of connections between components. Additionally, DMUs don’t contain
components’ location constraints when assemblies are complex, which is the case in
the automotive and aeronautic industries to ease design modifications during a PDP.
Moreover, part naming identification used in this approach is not sufficient because it
locates individual components contained in the assembly, only. Relations with their
adjacent components and their associate geometric model are not available, i.e., replacing
a bolted junction with an idealized fastener implies the simplification of its nut
and its screw as well as the hole needed to connect them in the tightened components.
64Chapter 2: Current status of methods and tools for FEA pre-processing
Small areas
difficult to mesh
(c) (d) (e)
(a) (b)
Figure 2.14: Assembly interface detection of Jourdes et al. [JBH∗14]: (a) CAD bolted junction
with three major plates, (b) some interfaces, (c) cut through of a bolt of this junction, (d)
corresponding interfaces, (e) detail of a small geometric area between an interface and the
boundary of the component.
Interface detection
To provide mesh compatibility connectivity, i.e., an interface between two components
ensures the same mesh distribution in the interface area of each component,
Lou [LPMV10] and Chouadria [CV06] propose to identify and re-mesh contact interfaces.
Quadros [QVB∗10] establishes sizing functions to control assembly meshes. Yet,
these methods are used directly on already meshed models and address specific PDP
configurations where CAD models are not readily available. Clark [CHE08] detects
interfaces in CAD assemblies to create non-manifold models before mesh generation
but he does not consider the interactions between interfaces and component shape
transformation processes. In [BLHF12], it is underlined that if a component is simplified
or idealized, its shape transformation has an influence on the transformation of
its neighbors, e.g., a component idealized as a concentrated mass impacts its interfaces
with its neighboring components.
Assembly operators available in commercial software are reduced to, when robust
enough, the automated detection of geometric interfaces between components. However,
their algorithms use a global proximity tolerance to find face-pairs of components
and they don’t produce explicitly the geometric contact areas. From a STEP representation
of an assembly model, Jourdes and al. [JBH∗14] describe a GPU approach
65Chapter 2: Current status of methods and tools for FEA pre-processing
1 2
1 2
1 2
1
Idealized with contact V1
Assembly
interfaces
Component 1
interfaces
CAD assembly of two
components
Idealizable areas of
components
FEM models
Full idealized
Mix dimensional with contact
Specific Connector
1 2 1 2
1
Idealized with contact V2
1 2
Idealized with contact V3
1 2
Idealized with contact V4
Kinematic connection
Figure 2.15: Various configurations of the idealization of a small assembly containing two
components.
to automatically detect the exact geometric regions of interfaces between components
(see Figure 2.14). The results of this technique are used in this thesis as input assembly
interfaces data. Yet, obtaining the geometric regions of interfaces is not sufficient, they
have to be analyzed to evaluate their suitability with respect to meshing constraints.
Figure 2.14e shows the creation of small surfaces, which are difficult to mesh, resulting
from the location of an interface close to the boundary of component surfaces.
To reach the requirements of assembly idealizations, the current geometric operators
have to take into account the role of assembly interfaces between components,
with respect to the shape transformations of groups of components. Figure 2.15 shows
the idealization of an assembly containing two components. The idealization of ‘component
1’ interacts with the idealization of ‘component 2’, and both interact with the
user’s choice regarding the assembly interface transformation. Depending on the simulation
objectives, the user may obtain either an idealized model of the two components
with contact definition, or a globally idealized model from the fusion of the two component.
The user may even apply a specific connector model which does not require
any geometry other than its two extreme points.
Assemblies bring a new complexity level into idealization processes since the shape
of the components and their interactions with their neighbors have to be analyzed
before applying geometric operators.
66Chapter 2: Current status of methods and tools for FEA pre-processing
2.6 Conclusion and requirements
The research review in this chapter combined with the context described in Chapter
1 shows that CAD/CAE integration is mainly oriented toward the data integration
of standalone components, preparations of assembly models under global simulation
objectives require an in-depth analysis and corresponding contributions.
Regarding standalone component processing, although automated operators exist,
they are currently effective on simple configurations only. To process complex models,
the engineer interactively modifies the component using shape transformation operators
according to his/her a priori expertise and evaluation of the simulation model being
created. These specific operators, among which some of them are already available in
CAE software, have to be selected and monitored by the engineer. Their applications
still require lots of manual interactions to identify the regions to transform and correct
unintended geometric perturbations. Because of the diversity of simulation contexts,
the preconceived idea of applying a generic geometric operator to every component
to perform any simplification or idealization, is not valid and must evolve toward
simulation context-dependent operators.
The selection of mechanical hypotheses, because of their impact on the DMU model,
should also be part of the automation of a mechanical analysis pre-processing. This
issue is particularly crucial when performing dimensional reductions on a component.
Generating an idealized equivalent model cannot be reduced to the simple application of
a dimensional reduction operator. The effects of idealization hypotheses are supposed
to have established the connection between the component shape and its simulation
objectives. This connection can be made through the identification of geometric areas
candidates to idealizations and associated with the connections between idealized subdomains.
An analysis of the component shape, subdividing it into idealizable areas
and interfaces between them (see Figure 2.15), is a means to enrich the input CAD
solid and prepare the geometry input to dimensional reduction operators. The current
volume segmentation operators are restricted to configurations focusing on particular
application domains. They often produce a single segmentation into sub-volumes and
instantiate the same problem on rather simple configurations. Achieving good quality
connections between idealized sub-domains in a robust manner is still a bottleneck of
many approaches processing CAD solids for FEA, which requires new developments.
Regarding assembly model processing, there is currently a real lack in scientific
research and software capabilities, both. To reach the objective of large assembly
structural simulation, pre-processing the DMU, which conveys the product definition,
has also to be automated. Assembly simulation models, not only require the availability
of the geometric model of each component, but they must also take into account the
kinematics and physics of the entire assembly to reach the simulation objectives. This
suggests that the entire assembly must be considered when specifying shape transformations
rather than reducing the preparation process to a sequence of individu-
67Chapter 2: Current status of methods and tools for FEA pre-processing
ally prepared components that are correctly located in 3D space. As mentioned in
Section 1.5.4, to adapt an assembly to FEA requirements, it is mandatory to derive
geometric transformations of groups of components from simulation objectives and
component functions. As it results from Chapter 1, the knowledge of interface’s geometries
and additional functional information on components and their interfaces is a
good basis to specify these geometry transformation operators on assemblies. In addition,
to perform assembly idealizations, structuring geometric models of components in
areas to be idealized and component interfaces, is consistent with the assembly structure,
i.e., its components and their interfaces. Such a component geometric structure
helps preserving the DMU consistency.
68Chapter 3
Proposed approach to DMU
processing for structural
assembly simulations
This chapter sets the objectives of the proposed approach to DMU pre-processing
for the simulation of FE structural assembly models. To obtain an efficient transformation
of a DMU into a FEM requires geometric operators that process input
geometric models which have been structured and enriched with additional functional
information. With respect to the objectives set up, the proposed approach
uses this enriched DMU, both at 3D solid and assembly levels, to analyze its
geometry and connect it to the simulation hypotheses with the required shape
transformations.
3.1 Introduction
Chapter 1 has pointed out the industrial context and identified the general problem
definition addressed in this thesis. The current practices about model generation for
structural mechanical analyses have been described, especially when the resolution is
performed using the FE method. Chapter 2 has analyzed the approaches of academia
that investigate the automation of FE models generation. The need for shape analysis
as a basis of robust geometric transformation operators has been underlined and the
lack of research in assembly pre-processing has been pointed out. Figure 3.1 summarizes
the manual processes of a DMU transformation for the FEA of assembly structures.
The analysis of the ongoing practices has been stated in Section 1.5. A main issue,
observed in the aeronautical industry, is the manual and isolated application of geometric
transformations on each component of the assembly. An assembly component is
considered as a standalone part and the user iterates his, resp. her, global simulation
objective on each component as well as on each assembly interface. As a result, the
69Chapter 3: Proposed approach to DMU processing for structural assembly simulations
· Pure CAD geometric model;
· No contact;
· Junction considered as
individual component.
DMU EXTRATION PREPROCESSING
· Manual transformation of individual
component (idealization);
· Manual definition of contacts
between components;
SIMULATION
x45
x45
DMU FEM
CAD/CAE
weak link
Non standardized processes
and tools for all category of
assembly component
Lessons learned
Simulation
Objective
Simulation
Objective
Simulation
Objective
DATA
PROCESSES
: Processes
: Data
Figure 3.1: Current process to prepare assembly structures. Each component of the assembly
is transformed individually.
use of FEA in aeronautical industry is bounded by the time required to set up its associated
FEM. Now, the major challenge is the automation of some FEA preparation
tasks so that more simulations can be performed on assembly models.
3.2 Main objectives to tackle
As stated in Chapter 2: ‘generating an idealized equivalent model cannot be reduced
to the simple application of a dimensional reduction operator’. Indeed:
1. Generating simulation models from DMUs requires the selection of the CAD components
having an influence on the mechanical behavior the engineer wants to
analyze. Setting up the simulation requires, as input, not only the 3D geometric
model of component shapes but also their functional information that help
selecting the appropriate components (see Section 1.5.4);
2. A DMU assembly is defined by a set of 3D components and by the interactions
between them. To automate the preparation of FE assembly models, it is mandatory
to take into account the interfaces between components (see Section 1.4.3).
An assembly interface, not only contains the geometric information delimiting
the contact/interference areas on each component, but contains also the ‘functional’
information characterizing the behavior of the interface, e.g., clamping,
friction, . . . ;
70Chapter 3: Proposed approach to DMU processing for structural assembly simulations
3. To generate idealized components, i.e., the dimensional reduction process of 3D
volumes into equivalent medial surfaces/lines, two main aspects have to be considered:
• A 3D shape is generally complex and requires different idealizations over
local areas depending on the morphology of each of these areas (see Section
2.3);
• Interfaces between components have an influence on the choice made for
these local idealizations. Therefore, the idealization operator has to take
into account this information as a constraint, which is not the case of current
idealization operators (see Section 2.5).
To address the problem of the FEM preparation of large assembly structures, this
chapter introduces an analysis-oriented approach to provide enriched DMUs before geometric
transformations. The following sections explain the principles and contributions
of this approach, which are subsequently detailed in the next chapters:
• Section 3.3: This section shows that existing approaches are able to provide a
certain level of functional information. Two main approaches have been exploited.
The method of Jourdes et al. [JBH∗14] generates assembly interfaces from DMU
models and the method of Shahwan et al. [SLF∗12, SLF∗13] provides functional
designation of components. These methods can be used in our current preprocessing
approach to provide enriched DMUs before geometric transformations
take place. Nevertheless, some improvements are proposed to take into account
the geometric structure of components required for an idealization process;
• Section 3.4: idealization operators necessitate an estimation of the impact of
the idealization hypotheses over a component shape, i.e., the identification of
areas candidate to idealization. This section sets our objectives to achieve a
robust assembly idealization process. They consist in structuring a component’s
shape and taking advantage of this structure to perform a morphological analysis
to identify areas conforming to the user’s simulation hypotheses. Subsequently,
these hypotheses are used to trigger the appropriate idealization operator over
each area;
• Section 3.5: this section outlines the proposed processes exploiting an enriched
DMU to robustly automate the major time-consuming tasks of a DMU preparation.
3.3 Exploiting an enriched DMU
Efforts have been made to improve:
71Chapter 3: Proposed approach to DMU processing for structural assembly simulations
• the coordination between engineers in charge of structure behavior simulations
and designers;
• the use of simulation results during a design process.
However, as described in Section 1.3, the DMUs automatically extracted from the
PLM are not suited for FE simulations. Because of the product structure, DMUs do
not contain structural components, only. DMU components have to be filtered during
the early phase of FEA pre-processing to avoid unnecessary geometric treatments on
components which are considered as details at the assembly level. As explained in
Section 1.5.1, this process is based on a qualitative judgment exploiting engineers’
know-how. A way to increase robustness of this extraction process, is to have available
more useful information for the engineers. At least, this information must contain the
functional properties of components.
In addition, considering that the extracted DMU is coherent and contains the exact
set of components subjected to shape transformations, the amount of information
which can be extracted from the PLM system is not sufficient to set up a robust and
automated pre-processing approach to simulations. Even though the extraction of additional
meta-data can be improved (see Section 1.5.4), FEM pre-processing requires
the exact interface areas between components as well as the functional designation of
each component, which are not available in PLM systems, at present.
A main objective of this thesis is to prove that a quantitative reasoning can be made
from an enriched and structured DMU to help engineers determining the mechanical
influence of components under specific simulation objectives.
Benefiting from existing methods that identify functional interfaces and
functional designation of components in DMUs
The method of Jourdes et al. [JBH∗14] presented in Section 2.5, detects geometric
interfaces between components. Starting from an input B-Rep model, i.e.,
a STEP [ISO94, ISO03] representation of an assembly, the algorithm identifies two
categories of interfaces as defined in Section 1.3.2: surface and linear contacts, and
interferences.
The information regarding assembly interfaces are used by Shahwan et al. [SLF∗13]
to provide, through a procedural way, functional information linked to DMUs.
Even if Product Data Management System (PDMS) technology provides the component
with names referring to their designation, this information is usually not suf-
ficient to clearly identify the functions of components in an assembly. For example,
in AIRBUS’s PLM, a component starting with ‘ASNA 2536’ refers to a screw of type
‘Hi-Lite’ with a 16mm diameter. This component designation can be associated under
specific conditions to an ‘elementary function’, e.g., fastening function in the case of
‘ASNA 2536’. However, information about each component designation does not iden-
72Chapter 3: Proposed approach to DMU processing for structural assembly simulations
Bolted junction
Nut
Counter nut
Planar Support
Planar Support
Planar Support
Threaded Link
Cap-screw
Initial Geometry Functional Interfaces Functional Designation
Head
Tightened
Components
Thread Shaft
Figure 3.2: Structuring a DMU model with functional properties after analyzing the assembly
geometric interfaces and assigning a functional designation to each component (from Shahwan
et al. [SLF∗12, SLF∗13]).
tify its relation with other components inside the scope of a given function, i.e., the
geometric model of a component is not structured with respect to its function. How
an algorithm can determine which component is attached to another one to form a
junction? Which screw is associated with which nut? Additionally, there is a large
range of screw shapes in CAD component libraries. How to identify specific areas on
these screws through names only? Also, the word screw is not a functional designation;
it does not uniquely refer to a function because a screw can be a set screw, a
cap screw, . . . Therefore, to determine rigorously the functional designation of components,
Shahwan et al. [SLF∗12, SLF∗13] inserted a qualitative reasoning process that
can relate geometric interfaces up to the functional designation of components, thus
creating a robust and automated connection between 3D geometric entities and functional
designations of components. This is a bottom-up approach that fits with our
current requirements.
The complete description of a DMU functional enrichment can be found in [SLF∗13].
Figure 3.2 shows the result of the functional enrichment of the aeronautical root-joint
use-case presented in Figure 1.6. Initially, the DMU was a purely geometric model.
Now, it is enriched with the functional designation of components. Using the definition
of Shahwan et al. [SLF∗13], a functional designation of a component is an unambiguous
denomination that functionally distinguishes one class of components from another.
It relates the geometric model of a component with its functional interfaces (derived
from the conventional interfaces described in Section 1.3.2) and with the functional
73Chapter 3: Proposed approach to DMU processing for structural assembly simulations
DMU 1 DMU 1 2 DMU 1 2 3
C1
C2
C3
C1
C2
C3
CAD
+ PLM
Product Structure
3- Functional
designations
1- PLM
information
2- Assembly
interfaces
I1/3
I2/3 S1
S2
S3.1
C2 S3.2
C1
C3
Fct.1
C3
C1 C2
S1 S2
I1/3
S3.1 S3.1
I2/3
Graph of assembly
interfaces and functions
CAD + assembly interfaces +
component functional designation
Fct.1 C1 C2 C3
C1 : Plate
C2 : Plate
C3 : Screw
C1 C2
S1 S2
Imprint
of interface
CAD + assembly
interfaces
C1 C2
S1 S2
I1/2
Graph of assembly
interfaces
Interface
Figure 3.3: DMU enrichment process with assembly interfaces and component functional
designations.
interfaces of its functionally related components. The functional designation of a component
binds its 3D model and functional interfaces to a symbolic representation of its
functions. Regarding screws, illustrative examples of functional designations are: cap
screw, locked cap screw, set screw, stop screw, . . .
As a result, a component model as well as its geometric model gets structured. As
illustrated in Figure 3.3, its B-Rep model contains imprints of its functional interfaces
and geometric relationships with functional interfaces of functionally related components.
The functional interfaces contain the lowest symbolic information describing
the elementary functions of a component and each functional designation expresses
uniquely the necessary relations between these elementary functions.
Functional analysis and quantitative reasoning
This enriched DMUs makes available information required to perform a functional
analysis of the assembly being prepared for FEA. This analysis allows us to implement
a quantitative reasoning which can be used to increase the robustness of the automation
of shape transformations of components and their interfaces during an assembly
preparation process. Geometric entities locating functional interfaces combined with
the functional designation of each component enable the identification and location
of groups of components to meet the requirements specified in Section 1.5.4. In the
research work described in the following chapters, the fully enriched functional DMU
74Chapter 3: Proposed approach to DMU processing for structural assembly simulations
Simulation
Objectives Hypotheses
Components
Components’
interfaces
Shape
transformations
Shape
transformations
: Affect
: Interact
Figure 3.4: Interactions between simulation objectives, hypotheses and shape transformations.
with functional interfaces stands as input data to geometric transformations.
Need to extend the DMU enrichment to a lower level: the component shape
Thanks to a better extraction and functional enrichment of the geometric models of
DMU components, new operators are able to identify components and their interfaces
that will be subjected to shape transformations. However, this enrichment is not suffi-
cient to determine the geometric areas to be idealized or transformed in the assembly
(see Section 2.3). Prior to any shape transformation, we propose to extend this functional
assembly enrichment up to the component level. This enrichment is driven by
the component’s shape and its interaction with the simulation objectives and related
hypotheses. The next section highlights the requirements of this enrichment approach.
3.4 Incorporating a morphological analysis during
FEA pre-processing
According to Chapter 1, component shapes involved in assembly simulation preparation
processes interact with simulation objectives, hypotheses, and shape transformations
applied to components and their interfaces. Figure 3.4 shows interactions between
shape transformations and FEA modeling hypotheses. To be able to specify the shape
analysis tools required, the interactions between shape transformations acting on components
as well as on assemblies, on the one hand, and FEA hypotheses, on the other
hand, should be formalized. The suggested analysis framework’s objective is the reconciliation
of simulation hypotheses with geometric transformations.
A morphological analysis driven by idealization needs
As stated in Chapter 2, a morphological analysis dedicated to assembly components
can improve the robustness of a geometric idealization process.
75Chapter 3: Proposed approach to DMU processing for structural assembly simulations
The natural way would be to automate the user’s approach. Indeed, during the current
generation of FE meshes, as explained in Section 1.5, this morphological analysis
phase is conducted by the engineer, on each component, individually. Based on his,
resp. her, own experience, the engineer visually analyzes the component shape and selects
the areas to preserve, to suppress, or to modify. Troussier [Tro99] highlighted the
lack of tools helping engineers to build and validate their models. She proposed to refer
to previous case studies and make them available to the engineer when a new model
has to be built. This knowledge capitalization-based method helps engineers analyze
their models through the comparison of the current simulation target with respect to
the previously generated simulation models. Indeed, referring to already pre-processed
FEM enforces the capitalization principle set up.
However, even if the engineer is able to formalize the simulation hypotheses, one dif-
ficulty remains regarding the concrete application of the shape transformations derived
from these hypotheses. A visual interpretation of the required geometric transformations,
based on past experiences, is feasible for simple components with more or less
the same morphology than previous models.
A complex geometry contains numerous regions with their own specific simplification
hypotheses. These regions can interact with each other, leading the engineer to
reach compromises about the adequate model to generate. For example, many variants
of mechanical interactions can appear in interface areas between sub-domains generated
for idealized components (see Figure 2.15). It can be difficult for the engineer to get a
global understanding of all the possible connections between medial surfaces. As long
as no precise mechanical rule exists in these connection areas, each person could have
his, resp. her, own interpretation of the hypotheses to apply there. When processing
assembly configurations, as illustrated in Section 2.5, its assembly interfaces influence
the idealization of the components interacting there. In the case of large assembly
structures, on top of the huge amount of time required to analyze all the repetitive
configurations, an engineer can hardly anticipate all the interactions between components.
Such an interactive analysis process, using the engineer’s know-how, does not
seem tractable.
Beyond potential lessons learned from previous FEA cases and because current
automatic analysis tools are not suited to engineers’ needs (see Section 2.4), it is
of great interest to develop new automated shape analyzing tools in order to help
engineers understand the application of their simplification hypotheses on new shapes.
The following objectives derive from this target.
76Chapter 3: Proposed approach to DMU processing for structural assembly simulations
3.4.1 Enriching DMU components with their shape structure
as needed for idealization processes
A shape analysis-based approach derives from the information available upstream, i.e.,
the DMU geometry content before FEA pre-processing that reduces to CAD components.
Due to the interoperability issue between CAD and CAE software (see Section
1.5.2), the prevailing practice extracts the B-Rep representation of each component.
During component design, successive primitive shapes, or form features, are sequentially
added into a construction tree describing a specific modeling process (see
Section 1.2.2). This tree structure is editable and could be analyzed further to identify,
in this construction tree, a shape closer to the FE requirements than the final one in
order to reduce the amount of geometric transformations to be applied. Often, this
modeling process relies on the technology used to manufacture the solid. From this
perspective, a machined metal component design process differs, for example, from a
sheet metal component one. This difference appears in CAD systems with different
workshops, or design modules, targeting each of these processes. As an example, the
solid model of a sheet metal component can be obtained from an initial surface using
an offset operator. This surface is close to the medial surface that can be used as
an idealized representation of this component. However, directly extracting a simpler
shape from a construction tree is not a generic and robust procedure for arbitrary
components. Such a procedure:
• cannot eliminate all the geometric transformations required to generate a FE
model;
• is strongly dependent upon the modeling process of each component;
• and is specific to each CAD software.
Above all and independently of the extracted geometry, it is essential to analyze a
component shape before applying it any geometric transformation.
To achieve a robust shape processing, the component shape needs to be structured
into regions that can be easily connected to the simulation hypotheses.
Proposal of a volume segmentation of a solid as a component shape structure
Following the recommendations of Section 2.4, we propose to set up a volume
segmentation of a 3D solid to structure it as an enriched input model to generate a
robust morphological analysis dedicated to mechanical simulations.
As stated in the conclusion of Section 2.4, the generic methods for 3D object decomposition
segment mesh1 models only. Volume decompositions of B-Rep models are
1In the computer graphics context.
77Chapter 3: Proposed approach to DMU processing for structural assembly simulations
restricted to specific applications that do not cover the FEA needs.
Here, the objective is set on a proposal of a robust segmentation of a B-Rep solids
to enrich them. Because the robust generation of quality connections between idealized
sub-domains is still a bottleneck of many approaches that process CAD solids for FEA,
the proposed segmentation should incorporate the determination of interfaces between
the volumes resulting from the segmentation. The proposed method is based on the
generation of a construction graph from a B-Rep shape. This contribution is detailed
in Chapter 4.
3.4.2 An automated DMU analysis dedicated to a mechanically
consistent idealization process
An analysis can cover multiple purposes: physical prediction, experimental correlation,.
. . The proposed analysis framework is oriented toward the geometric issues about
the idealization of assemblies for FEA. Section 2.3 has revealed that a major difficulty
encountered by automated methods originates from their lack of identification of the
geometric extent where simplification and idealization operators should be applied.
Using the new structure of a component shape, our objective is placed on a morphological
analysis process able to characterize the idealization transformations that can
take place on a component shape. Therefore, this process should incorporate, during
the pre-processing of DMU models, a set of operators that analyze the initial CAD
geometry in order to connect it to simulation hypotheses and determine the geometric
extent of these hypotheses. Chapter 5 is dedicated to this contribution. The objectives
of this morphological analysis enumerate:
• The identification of regions considered as details with respect to the simulation
objectives. The DMU adapted to FEA should contain only the relevant geometric
regions which have an influence on the mechanical behavior of the structure;
• The identification of relevant regions for idealization compared to regions regarded
as volumes. The morphology of a component has to be analyzed in order
to determine the thin regions to be transformed into mid-surfaces and the long
and slender regions to be transformed into beams. Also, this morphological analysis
has to provide the engineer with a segmentation of components into volume
sub-domains which have to be expanded into the whole assembly;
• The characterization of interfaces between idealizable regions. These interfaces
contain significant information regarding the interaction between idealizable regions.
They are used to connect medial surfaces among each other.
78Chapter 3: Proposed approach to DMU processing for structural assembly simulations
Finally, the DMU enrichment process is completed with assembly information as
well as information about the shape structure of each component. Consequently, this
enriched DMU is geometrically structured. It is now the purpose the next section to
carry on setting up objectives to achieve a robust pre-processing from DMU to FEM.
3.5 Process proposal to automate and robustly generate
FEMs from an enriched DMU
Figure 3.5 summarizes the corresponding bottom-up approach proposed in this thesis.
The first phase uses the methods Jourdes et al. [JBH∗14] and Shahwan et al. [SLF∗12,
SLF∗13] to enrich the DMU with assembly interfaces and functional designations of
components as recommended in Section 1.5.4. The initial CAD solids representing
components are also enhanced with a volume decomposition as suggested in Section 2.4
to prepare a morphological analysis required to process the idealization hypotheses.
The second phase analyses this newly enriched DMU to segment it in accordance
with the engineer’s simulation objectives (see Section 3.4), i.e., to identify areas that
can be idealized or removed when they are regarded as details. This results in the
generation of a so-called contextualized DMU.
Providing the engineer with a new contextualized DMU does not completely fulfill
his, rep. her, current needs to create geometric models for structural analysis. Consequently,
the proposed scheme should not only develop and validate methods and
tools to structure and analyze a DMU up to its component level, but also contain processes
to effectively generate FE assembly models. In the third phase, the functional
and morphological analyses lead to the definition of the assembly transformation process
as planed in the second phase, i.e., the transformation of groups of components
including dimensional reduction operations.
Exploiting the contextualized DMU, it is proposed to develop a two level adaption
process of a DMU for FEA as follows:
• One process is dedicated to standalone geometric component idealization. The
objective of this new operator is the exploitation of the morphological analysis
and hence, to provide the engineer with a robust and innovative approach to 3D
shape idealization;
• Another process extending the idealization operator to assembly idealization.
This operator is a generalization of the standalone operator adapted to assembly
transformation requirements. To implement this process, we set up a generic
methodology taking into account the simulation requirements, the functional assembly
analysis and assembly interfaces.
79Chapter 3: Proposed approach to DMU processing for structural assembly simulations
1- PLM
information
DMU EXTRATION
Contextualized DMU
for mechanical
simulation
Enriched DMU
Adapted DMU
for FEA
DMU
ENRICHMENT
4- Volume segmentation
of 3D Solid
2- Assembly interfaces
3- Functional
designations
...
FEM
Lessons learned
DATA
PROCESSES
Analysis-based
Pre-processing
SIMULATION
1
: Processes
: Data
Phase 1 Phase 2 Phase 3
Proposed Approach
Settings of geometric process
transformations
Definition of assembly process
transformations
ANALYSIS DMU TRANSFORMATION
DMU
DMU 1 2 3 4
Morphological analysis
Functional assembly
analysis
Operators
Library
Simulation
Objective
Contributions
Figure 3.5: Proposed approach to generate a FEM of an assembly structure from a DMU.
80Chapter 3: Proposed approach to DMU processing for structural assembly simulations
3.5.1 A new approach to the idealization of a standalone component
When components have to be fully idealized, their pre-processing requires the development
of a robust idealization process containing a dimensional reduction operator
associated with a robust one that connects medial surfaces. As shown in Section 2.3,
existing approaches face two issues:
• The extraction of a mid-surface/medial line from an idealized sub-domain. Current
dimensional reduction operators focus directly on the generation of midsurface/medial
line without having completely evaluated the idealization hypotheses
and determined the sub-regions associated to these hypotheses;
• The connection of the set of extracted mid-surfaces/medial lines. Current operators
encounter difficulties to generate consistent idealized models in connections
areas, i.e., regions which usually do not satisfy the idealization conditions.
To cover these issues, we propose to analyze the morphology of the shape before
applying a dimensional reduction operator. Therefore, this operator focuses on the
extraction of medial surfaces only in the sub-domains morphologically identified as
plate/shell models and on the extraction of medial lines in the sub-domains morphologically
identified as beam models. Simultaneously, this morphological analysis is
used to provide information on internal interfaces between sub-domains to be idealized.
We propose to exploit this new information within the idealization operator to
produce consistent geometric models, i.e., on-purpose idealization of sub-domains with
on-purpose connections between them. This process is detailed in Section 5.5.
3.5.2 Extension to assembly pre-processing using the morphological
analysis and component interfaces
The second process required addresses the transformation of assembly models. The
proposed operators have to be applicable to volume sub-domains, which can originate
from components or from a group of components.
Evolving the concept of details in the context of assembly structures
Section 2.2 has shown that the relationship between detail removal and idealization
processes has not been investigated. The definition of details stated in [LF05, RAF11]
addresses essentially volume domains and refers to the concept of discretization error
that can be evaluated with a posteriori error estimators.
Assemblies add another complexity to the evaluation of details. It is related to the
existence of interfaces between components. As illustrated in Section 1.5.4, interfaces
81Chapter 3: Proposed approach to DMU processing for structural assembly simulations
are subjected to hypotheses to define their simulation model and Table 1.2 points
out the diversity of mechanical models that can be expressed with simulation entities.
Recently, Bellec [BLNF07] described some aspects of this problem. Yet, comparing the
respective influences of rigid versus contact interface models is similar to the evaluation
of idealization transformations: this is also a complex issue.
The concept of detail, apart from referring to the real physical behavior of a product,
is difficult to characterize for assembly idealization. The structural engineer’s knowhow
is crucial to identify and remove them with interactive shape transformations.
Benefiting from the morphological analysis of components’ shapes, another objective
of this thesis is to provide the user with tools that show areas that cannot be regarded
as details (see Sections 5.3.1 and 5.5.2). This way, the concept of details evolves from
standalone component to assembly level pre-processing.
Automated transformations of groups of components
As explained in Section 1.5.4, the transformation of groups of components, e.g.,
junctions, by pre-defined FE simplified geometry, e.g., fasteners, is a top requirement
to reduce the FEM preparation time.
Focusing on these specific configurations, the main issue remains the robust identifi-
cation of the components and assembly interfaces to be transformed. Another objective
of this thesis is also to provide a robust operator to identify and transform configurations
of groups of components involved in the same assembly function, which is detailed
in Chapter 6.
From the analysis of DMU transformation requirements for FE assembly model
preparation [BLHF12], the proposed method relies on a qualitative reasoning process
based on the enriched DMU as input. From this enriched model, it is shown that
further enrichment is needed to reach a level of product functions where simulation
objectives can be used to specify new geometric operators that can be robustly applied
to automate component and assembly interface shape transformations. To prove the
validity of this approach, Section 6.3 presents a template-based operator to automate
shape transformations of bolted junctions. The method anticipates the mesh generation
constraints around the bolts, which also minimizes the engineer’s involvement.
3.6 Conclusion
This chapter has introduced the main principles and objectives of the proposed analysisoriented
approach of DMU pre-processing for the simulation of FE structural assembly
models. This approach covers:
• The enrichment of the input geometry, both at 3D solid and assembly levels.
82Chapter 3: Proposed approach to DMU processing for structural assembly simulations
It is critical to provide a volume decomposition of the geometric model of each
component in order to access and fully exploit their shape. This structure is
a good starting point for the identification of areas of interest for idealization
hypotheses. At the assembly level, the DMU is enriched with geometric interfaces
between its components, i.e., contacts and interferences, and with the functional
designation of components;
• The development of an analysis framework for the simulation of mechanical structures.
From the enriched DMU model, the analysis framework can be used to
specify geometric operators that can be robustly applied to automate component
and interface shape transformations during an assembly preparation process. In
accordance with the context of structural simulations, this framework evaluates
the conditions of application of idealization hypotheses. It provides the engineer
with the operators dedicated to shape adaption after idealizable volume subdomains
have been identified. Also, after the areas considered as details have
been identified and information about sub-domains interfaces have been added,
the user’s modeling rules can be applied in connection areas;
• The specification of geometric operators for the idealization of B-rep shapes and
operators transforming groups of components, such as bolted junctions, bene-
fiting from the previously structured DMU. Through the development of such
operators, the proposed approach can be sequenced and demonstrated on aeronautical
use-cases.
The next chapters are organized in accordance with the proposed approach, as
described in the current one. Chapter 4 details the B-Rep volume decomposition
using the extraction of generative construction processes. Chapter 5 describes the
concepts of the FEA framework using a construction graph to analyze the morphology
of components and derive idealized equivalent models. Chapter 6 extends this approach
to a methodology for assembly idealization and introduces a template-based operator
to transform groups of components.
83Chapter 3: Proposed approach to DMU processing for structural assembly simulations
84Chapter 4
Extraction of generative
processes from B-Rep shapes
to structure components up to
assemblies
Following the global description of the proposed approach to robustly process
DMUs for structural assembly simulation, this chapter exposes the principles
of the geometric enrichment of components using a construction graph. This
enrichment method extracts generative processes from a given B-Rep shape as a
high-level shape description and represents it as a graph while containing all non
trivial construction trees. Advantageously, the proposed approach is primitivebased
and provides a powerful geometric structure including simple primitives and
geometric interfaces between them. This high-level object description is fitted to
idealizations of primitives and to robust connections between them and remains
compatible with an assembly structure containing components and geometric
interfaces.
4.1 Introduction
Based on the analysis of DMU transformation requirements for FE assembly model
preparation in Chapter 1 as well as the analysis of prior research work in Chapter 2,
two procedures are essential to generate the mechanical model for the FEA of thin
structures:
• The identification of regions supporting geometric transformations such as simplifications
or idealizations. In Section 1.4.2, the analysis of thin mechanical
shell structures introduces a modeling hypothesis stating that there is no normal
stress in the thickness direction. This hypothesis is derived from the shape of
85Chapter 4: Extraction of generative processes from B-Rep shapes
the object where its thin volume is represented by an equivalent medial surface.
The idealization process connects this hypothesis with the object shape. Section
2.3 illustrates that idealization operators require a shape analysis to check
the idealization hypothesis on the shape structure and to delimit the regions to
be idealized;
• The determination of interface areas between regions to be idealized. Section 2.3
showed that the interface areas contain the key information to robustly connect
idealized regions. In addition to idealizable areas, the determination of interfaces
is also essential to produce fully idealized models of components.
The proposed pre-processing approach, described in Chapter 3, is based on the
enrichment of the input DMU data. More precisely, the B-rep representation of each
CAD component has to be geometrically structured to decompose the complexity of
their initial shape into simpler ones. At the component level, we propose to create
a 3D solid decomposition into elementary volume sub-domains. The objective of this
decomposition is to provide an efficient enrichment of the component shape input to
apply the idealization hypotheses.
This chapter is dedicated to a shape decomposition method using the extraction of
a construction graph from B-Rep models [BLHF14b, BLHF14a]. Section 4.2 justifies
the extraction of generative construction processes suited for idealization processes1.
Section 4.3 sets the modeling context and the hypotheses of the proposed approach.
Section 4.4 describes how to obtain generative processes of CAD components, starting
from the identification of volume primitives from a B-Rep object to the removal process
of these primitives. Finally, Section 4.5 defines the criteria to select the generative
processes generating a construction graph for idealization purposes. This construction
graph will be used in Chapter 5 to derive idealized models. In a next step, the component
perspective is extended to address large assembly models. Consequently, the
segmentation approach is analyzed with respect to CAD assembly representation in
Section 4.7.
4.2 Motivation to seek generative processes
This section presents the benefits of modeling processes to structure a B-Rep component.
It shows the limits of CAD construction trees in mechanical design and explains
why it is mandatory to set-up generative processes adapted to idealization processes.
1 generative processes represent ordered sequences of processes emphasizing the shape evolution of
the B-Rep representation of a CAD component.
86Chapter 4: Extraction of generative processes from B-Rep shapes
4.2.1 Advantages and limits of present CAD construction tree
As observed in Section 1.2.3, a mechanical part is progressively designed in a CAD software
using successive form features. This initial generation of the component shape
can be regarded as the task where the component shape structure is generated. Usually,
this object structure is described by a binary construction tree containing the
elementary features, or primitives, generating the object. This construction tree is
very efficient to produce a parameterized model of a CAD object. Effectively, the user
can easily update the shape of the object when modifying parameters defined within
a user-selected feature and then, re-processing the subset of the construction tree located
after this primitive. As illustrated in Section 2.4, Robinson et al. [RAM∗06] show
that a construction tree with adapted features for FEA can be used to easily generate
idealized models.
1 3
(b)
(a)
St
B B
6
T
8 11
15 17 18 20
B T
B T T T
23 33 34
T B
T B
2 4 - 5 7 9 - 10
16 19
21
12 ® 14
22 24 ® 32
Figure 4.1: An example of a shape generation process: (a) final object obtained after 34
modeling steps and viewed from top (T) and bottom (B), (b) some intermediate shapes
obtained after the i
th modeling step. The letter T or B appearing with step number indicates
whether the object is viewed from top or bottom.
87Chapter 4: Extraction of generative processes from B-Rep shapes
However, the construction tree produced during the design phase may not be suited
for the shape decomposition taking place at other stages of a PDP, e.g., during process
planning and FEA. Three main issues are preventing the use of current CAD
construction trees from FEM pre-processing:
• The complexity of the final object shape and feature dependencies.
The concept of feature-based design eases the generation of an object shape by
adding progressively, and one by one, simple form features. This way, the user
starts from a simple solid, i.e., a primitive, and adds or removes volumes using
pre-defined features (extrusion, revolution, sweeping, . . . ) one after the other until
he, resp. she, has reached the desired shape of the object. As a consequence of
this principle “from simple to complicated”, the resulting construction tree can
be complex and contains numerous features. Because, the user inserts one form
feature at a time, the construction tree is necessarily binary, i.e., each tree node
contains one form feature and the object shape obtained after combining this
form feature with the object resulting from the previous tree node. As an example,
Figure 4.1 illustrates this configuration with a rather complex component
where the user’s entire modeling process consists of 37 steps, some of them containing
multiple contours producing simultaneously several features. Two views,
defined as top and bottom in Figure 4.1b, show the major details of the object
shape. Figure 4.1a depicts some of the 34 steps involving either extrusion or
revolution operations and incorporating either material addition or removal as
complementary effects when shaping this object. The parent/child dependencies
between form features further increase the complexity of this construction
process. The suppression or modification of a parent feature is not always possible
due to geometric inconsistencies generated in subsequent tree steps when
parent/child dependencies cannot be maintained or when the object boundary
cannot produce a solid. This is particularly inconvenient in the context of FEM
pre-processing which aims at eliminating detail features to simplify component
shapes;
• The non-uniqueness and user dependence. Construction trees are not
unique, i.e., different users often generate different construction trees for the
same final shape. The choice of the sequence of features is made by the designer
and depends on his, resp. her, own interpretation of the shape structure of the
final object. In current industrial practices, specific modeling rules limit the
differences in construction tree generation but they are not dedicated to FEM
requirements as explained in Section 3.3;
• The construction tree availability. Construction trees contain information
which is very specific to each CAD system and each software has its own data
structures to represent this construction scheme. Most of the time, this information
is lost when transferring objects across CAD systems or even across the
88Chapter 4: Extraction of generative processes from B-Rep shapes
different phases of a PDP. Practically, when using STEP neutral format [ISO94,
ISO03], definition of construction tree structures associated with parametric modeling
are not preserved. Indeed, to edit and to modify a shape, the parametric
relations taking part to the construction tree would need also to be exported. This
is difficult to obtain, e.g., even during the upgrade of CATIA software [CAT14]
from V4 to V5, the transfer was not fully automatic and some information in
construction trees was lost.
As it appears in Figure 4.1, a shape generative process can be rather complex and,
even if it is available, there is no straightforward use or transformation of this process
to idealize this object (even though its shape contains stiffeners and thin areas that
can be modeled with plate or shell elements rather than volume ones). With respect to
the idealization objectives, it appears mandatory to set-up another generative process
that could incorporate features or primitives with their shapes being close enough to
that of stiffeners and thin wall areas.
4.2.2 A new approach to structure a component shape: construction
graph generation
Construction trees are important because an object submitted to a FEA preparation
process can be subjected to different simplifications at different levels of its construction
process. One key issue of these trees is their use of primitives that are available
in common industrial CAD software. Another problem lies in the storage of the shape
evolution from the initial simple primitive shape to the final object. This principle ‘from
simple to complicated’ matches the objective of using the tree contents for idealization
and simplification purposes. Indeed, obtaining simpler shapes through construction
processes could already reduce the number of geometric transformations. However,
because the CAD construction tree is presently unique, not always available and complicated
to modify, its use is difficult. The proposed approach here, structuring the
shape of a component, consists in producing generative processes of its B-Rep model
that contain sets of volume primitives so that their shapes are convenient for FE simulation.
The benefits of extracting new generative processes, as ordered sequences
of processes emphasizing the shape evolution of the B-Rep representation of a CAD
component, are:
• To propose a compact shape decomposition adapted to the idealization
objectives. Extraction of compact generative processes aims at reducing their
complexity while getting a maximum of information about their intrinsic form
features. The proposed geometric structure decomposes an object into volume
sub-domains which are independent from each other and close enough to regions
that can be idealized. This segmentation method differs from the divide and conquer
approaches of [Woo14] because generative processes contain volume prim-
89Chapter 4: Extraction of generative processes from B-Rep shapes
itives having particular geometric properties, e.g., extruded, revolved or swept
features. The advantage of these primitives is to ease the validation of the idealization
criteria. Indeed, one of their main dimensional characteristics is readily
available. For example, the extrusion distance, revolve angle or sweep curve, reduces
the primitive analysis to the 2D sketch of the feature. Moreover, interfaces
between primitives are identified during the extraction of each generative process
to extend the analysis of individual primitives through the whole object and to
enable the use of the engineer’s FE connection requirements between idealizable
regions;
• To offer the user series of construction processes. In a CAD system, a
feature tree is the unique available definition of the component’s construction but
is only one among various construction processes possible. Furthermore, in a simulation
context, it is difficult to get an adequate representation of the simulation
model which is best matching the simulation requirements because the engineer’s
know-how takes part to the simulation model generation (see Section 3.4). Consequently,
the engineer may need to refer to several construction processes to
meet the simulation objectives as well as his, resp. her, shape transformation
requirements. Providing the engineer with several construction processes helps
him, resp. her, generate easily a simulation model. The engineer will be able
to navigate shape construction processes and obtain a simpler one within a construction
tree that meets the idealization requirements in the best possible way;
• To produce a shape parameterization independent from any construction
tree. The construction tree is a well-known concept for a user. Parent/child
dependencies between features, generated through sketches and their reference
planes, ease the interactive design process for the user but creates geometric dependencies
difficult to understand for the user. Performing modifications of a
complex shape remains difficult to understand for the user, e.g., the cross influence
between features located far away in the construction tree is not easy to
anticipate. Considering the generation of a construction graph, the proposed approach
does not refer to parent/child dependencies between features, i.e., features
are geometrically independent each other. The morphological analysis required
(see Section 3.4) does not refer to a need for a parameterized representation of
components, i.e., each primitive does not need to refer to dependencies between
sketch planes. Components can be modified in a CAD software and their new geometry
can be processed again to generate a construction graph without referring
to the aforementioned dependencies.
As a conclusion, one can state that enabling shape navigation using primitive features
similar to that of CAD software is an efficient complement to algorithmic approaches
reviewed in Chapter 2 and construction trees. More globally, construction
graphs can support both efficiently.
90Chapter 4: Extraction of generative processes from B-Rep shapes
Shape modeling processes
Segmentation
CAD Mesh
Idealization
M M-1 M-2
Pi(M/M ) -1 Pi(M /M ) -1 -2 Pi(M ) -2
Figure 4.2: An example of shape analysis and generative construction graph.
To this end, this chapter proposes to extract a construction graph from B-Rep
CAD models so that the corresponding generative processes are useful for mechanical
analysis, particularly when idealization processes are necessary. The graph is extracted
using a primitive removal operator that simplifies progressively the object’s shape.
One could says that the principle is to go ‘backward over time’. This characteristic
of construction trees is consistent with the objective of simplification and idealization
because the shapes obtained after these operations should get simpler. Figure 4.2
illustrates the extraction of a shape modeling process of a CAD component. Primitives
Pi are extracted from a sequence of B-Rep objects Mi which become simpler over time.
The set of primitives Pi generates a segmented representation of the initial object which
is used to derive idealized FE models.
The following sections detail the whole process of extraction of generative processes
from B-Rep shapes.
4.3 Shape modeling context and process hypotheses
Before describing the principles of the extraction of generative processes from a BRep
shape, this section sets the modeling context and the hypotheses of the proposed
approach.
4.3.1 Shape modeling context
As a first step, the focus is placed on B-Rep mechanical components being designed
using solid modelers. Looking at feature-based modeling functions in industrial CAD
systems, they all contain extrusion and revolve operations which are combined with
addition or removal of volume domains (see Figure 4.3a). The most common version of
the extrusion, as available in all CAD software, is defined with an extrusion direction
91Chapter 4: Extraction of generative processes from B-Rep shapes
variant with
material removal
material
blend as part of addition
extrusion contour
blend variable
radius
V
H
Extrusion Contour
(a) (b)
(c) (d)
Slanted
extrusion Cutting
Plane
Figure 4.3: (a) Set of basic volume modeling operators, (b) sketch defining an extrusion
primitive in (a), (c) higher level volume primitive (slanted extrusion), (d) reference primitive
and its first ‘cut’ transformation to generate the object in (c).
orthogonal to a plane containing the primitive contour. Such an extrusion, as well as
the revolution, are defined here as the reference primitives. These feature-based B-Rep
operations can be seen as equivalent to regularized Boolean operations as available also
in common hybrid CAD modelers, i.e., same primitive shapes combined with union or
subtraction operators. Modelers also offer other primitives to model solids, e.g., draft
surfaces, stiffeners, or free-form surfaces from multiple sections. Even though we don’t
address these primitives here, it is not a limitation of our method. Indeed, draft surfaces,
stiffeners, and similar features can be modeled with a set of reference primitives
when extending our method to extrusion operations with material removal and revolutions.
Appendix B illustrates the simple features and boolean operations available
in CAD software and show that it can mainly be reduced to additive/removal extrusion/revolution
features in order to cover the present software capabilities . Figure 4.3c
illustrates some examples, e.g., an extrusion feature where the extrusion direction is
not orthogonal to the sketching plane used for its definition. However, the resulting
shape can be decomposed into an extrusion orthogonal to a sketching plane and ‘cuts’
(see Figure 4.3d) if the generation of a slanted extrusion is not available or not used
straightforwardly. Indeed, these construction processes are equivalent with respect to
the resulting shape.
Another category of form features available from B-Rep CAD modelers are blending
radii. Generally, they have no simple equivalence with extrusions and revolutions.
Generated from B-Rep edges, they can be classified into two categories:
1- constant radius blends that can produce cylindrical, toroidal or spherical surfaces;
92Chapter 4: Extraction of generative processes from B-Rep shapes
2- constant radius blends attached to curvilinear edges and variable radius blends.
Category 1 blends include extrusion and revolution primitives and can be incorporated
in their corresponding sketch (see Figure 4.3a). This family of objects is part of
the current approach. Category 2 blends are not yet addressed and are left for future
work. Prior work in this field [VSR02, ZM02, LMTS∗05] can be used to derive M from
the initial object MI to be analyzed, possibly with user’s interactions.
In summary, all reference primitives considered here are generated from a sketching
step in a plane defining at least one closed contour. The contour is composed of line
segments and arcs of circles, (see Figure 4.3b). This is a consequence of the previous
hypothesis reducing the shapes addressed to closed surfaces bounded by planes, cylinders,
cones, spheres, tori, and excluding free-form shapes in the definition of the object
boundary. This is not really restrictive for a wide range of mechanical components
except for blending radii. The object M to be analyzed for shape decomposition is
assumed to be free of blending radii and chamfers that cannot be incorporated into
sketched contours. The generative processes are therefore concentrated on extrusion
primitives, in a first place, in order to reduce the complexity of the proposed approach.
Further hypotheses are stated in the following sections.
4.3.2 Generative process hypotheses
Given a target object M to be analyzed, let us first consider the object independently
of the modeling context stated above. M is obtained through a set of primitives
combined together by adding or removing material. Combinations of primitives thus
create interactions between their bounding surfaces, which, in turn, produce intersection
curves that form edges of the B-Rep M. Consequently, edges of M contain
traces of generative processes that produced its primitives. Hence, following Leyton’s
approach [Ley01], these edges can be seen as memory of generation processes where
primitives are sequentially combined.
Current CAD modelers are based on strictly sequential processes because the user
can hardly generate simultaneous primitives without looking at intermediate results
to see how they combine/interact together. Consequently, B-Rep operators in CAD
modelers are only binary operators and, during a design process, the user-selected one
combines the latest primitive generated to the existing shape of M at the stage t of this
generative process. Additionally, CAD modelers providing regularized Boolean operators
reduce them to binary operators, even though they are n-ary ones, as classically
defined in the CSG approaches [Man88]. Here, the proposed approach does not make
any restriction on the amount of primitives possibly generated ‘in parallel’, i.e., the
arity of the combination operators is n ≥ 2. The generated processes benefit from this
hypothesis by compacting the construction trees nodes. This property is illustrated in
the result Section 4.6 of this chapter in Figure 4.22.
93Chapter 4: Extraction of generative processes from B-Rep shapes
d
(a)
(b) Top Bottom (c)
IG (face 2)
contour edge
(convex)
lateral face (transparent)
Fb2
contour edge
(concave)
Fb1 (transparent)
IG (face 1)
fictive lateral edge
lateral edge
Attachment
contour( , )
Fb1
Fb2
Figure 4.4: a) Entities involved in an extrusion primitive. Visible extrusion feature with its
two identical base faces F b1 and F b2. (b) Visible extrusion feature with its two different
base faces F b1 and F b2. (c) Visible extrusion feature with a unique base face F b1 (detail of
Figure 4.1a - 34B).
Hypothesis 1: Maximal primitives
The number of possible generative processes producing M can be arbitrary large,
e.g., even a cube can be obtained from an arbitrary large number of extrusions of
arbitrary small extent combined together with a union operator. Therefore, the concept
of maximal primitives is introduced so that the number of primitives is finite and as
small as possible for generating M.
A valid primitive Pi identified at a stage t using a base face Fb1 is said to be
maximal when no other valid primitive Pj at that stage having F�
b1 as base face
can be entirely inserted in Pi (see Section 4.4.2 and Figure 4.4a): ∀Pj , Pj �⊂ Pi.
Fb1 is a maximal face as defined at Section 4.3.3.
Maximal primitives imply that the contour of a sketch can be arbitrary complex,
which is not the case in current engineering practice, where the use of simple primitives
eases the interactive modeling process, the parameterization, and geometric constraint
assignments to contours. The concept of maximal primitive is analog to the concept of
maximal volume used in [WS02, Woo03, Woo14]. Yet, this concept is no used in feature
recognition techniques [JG00]. Even if making use of maximal primitives considerably
reduces the number of possible generative processes, they are far from being unique for
M.
Hypothesis 2: Additive processes
94Chapter 4: Extraction of generative processes from B-Rep shapes
(a) (b)
Extrusion
contour
Extrusion Revolution
Mid-surface
Mid-surface
d Direction
of extrusion Revolution
contour
Angle
of revolution
Figure 4.5: Illustrations of two additive primitives: (a) an extrusion primitive and (b) a
revolution one. The mid-surfaces of both primitives lie inside their respective volumes.
We therefore make the further hypothesis that the generative processes we are
looking for are principally of type additive, i.e., they are purely based on a regularized
Boolean union operator when combining primitives at each stage t of generative modeling
processes. This hypothesis is particularly advantageous when intending to tailor
a set of generative processes that best fit the needs of idealization processes. Indeed,
idealized structures, such as mid-surfaces, lie inside such primitives, and connections
between primitives locate also the connections between their idealized representatives.
Figure 4.5 illustrates an extrusion and a revolution primitives. With both of them, the
3D solid of the primitive includes its mid-surface. Therefore, the idealized representation
of M can be essentially derived from each Pi and its connections, independently
of the other primitives in case of additive combinations. Figure 4.6 gives an example
where M can be decomposed into two primitives combined with a union (b). M in
Figure 4.6, (b) can thus be idealized directly from these two primitives and their interface.
On the contrary, when allowing material removal, idealization transformations
are more complex to process, while the resulting volume shapes are identical. Figure
4.6c shows two primitives which, combined by Boolean subtraction, result also in
object (a). However, computing an idealization of (a) by combining idealizations of its
primitives in (c) is not possible.
Performing the idealization of M from its primitives strengthens this process compared
to previous work on idealization [CSKL04, Rez96, SSM∗10] of solids presented
in Section 2.3.1 for two reasons. Firstly, each Pi and its connections bound the 3D
location of and the connections with other idealized primitives. Secondly, different categories
of connections can be defined, which is important because idealization processes
still rely on the user’s know-how to process connections significantly differing from reference
ones. The next Chapter 5 explains in details how to connect mid-surfaces using
a taxonomy of connections between extrusion primitives.
Hypothesis 3: Non trivial variants of generative processes
To further reduce the number of possible generative processes, the processes described
should be non trivial variants of processes already identified. For example, the
95Chapter 4: Extraction of generative processes from B-Rep shapes
(a)
(b) (c)
+ - OR
Figure 4.6: a) Simple shape with idealizable sub-domains, (b) Primitives to obtain (a) with
an additive process, (c) Primitives to obtain (a) with a removal process.
same rectangular block can be extruded with three different face contours and directions
but they create the same volume. Two primitives generating the same shape are
considered as the same non-trivial primitive. If the resulting shape of two processes at
the jth-level of a construction is the same then, these two processes are said equivalent
and are reduced to a single one and the object shape at the (j−1)th-level is also unique.
These equivalent processes can be detected when comparing the geometric properties of
the contours generating this same shape. Other similar observations will be addressed
in the following sections when describing the criteria to select meaningful generative
processes.
The above hypotheses aim at reducing the number of generative processes producing
the same object M while containing primitives suited to idealization transformations,
independently of the design process initially set up by engineers.
Conclusion
The overall approach can be synthesized through the process flow of Figure 4.7.
The input STEP file contains the B-Rep model M. A set of generative processes is
extracted that form sets of construction trees, possibly producing a graph. To this
end, application dependent criteria are used to identify one or more construction trees
depending on the application needs. Here, we focus on criteria related to idealization
for FEA.
4.3.3 Intrinsic boundary decomposition using maximal entities
In order to extract generative processes from the B-Rep decomposition of M, it is
important to have a decomposition of M, i.e., topology description, that is intrinsic to
96Chapter 4: Extraction of generative processes from B-Rep shapes
Selection of generative process(es) Application dependent criteria
STEP file (input Model)
Generation of generative process graph
Shape transformations (idealization)
Figure 4.7: Pipeline producing and exploiting generative shape processes.
its shape. A B-Rep decomposition of an object is however not unique (and thus not
suitable), because it is subjected to two influences:
• Its modeling process, whether it is addressed forward during a design process
or backward as in the present work. Indeed, each operation involving a primitive
splits/joins boundary faces and edges of the solid. When joining adjacent
faces or edges, their corresponding surfaces or curves can be identical. Their
decomposition is thus not unique. However, CAD modelers may not merge the
corresponding entities, thus producing a boundary decomposition that is not
changing the object shape (see Figure 4.8a). For the proposed approach purposes,
such configurations of faces and edges must lead to a merging process so
that the object boundary decomposition is unique for a given shape, i.e., it is
intrinsic to the object shape;
• The necessary topological properties to setup a consistent paving of an object
boundary, i.e., the boundary decomposition must be a CW-complex. Consequently,
curved surfaces need to be partitioned. As an example, a cylinder is
decomposed into two half cylinders in most CAD modelers or is described with
a self connected patch sewed along a generatrix (see Figure 4.8b). In either case,
the edge(s) connecting the cylindrical patches are adjacent to the same cylindrical
surface and are not meaningful from a shape point of view. Hence, for the
proposed approach purposes, they must not participate to the intrinsic boundary
decomposition of the object.
Following these observations, the concepts of maximal faces and edges introduced
by [FCF∗08] is used here as a means to produce an intrinsic and unique boundary
decomposition for a given object M. Maximal faces are identified first. For each face
of M, a maximal face F is obtained by repeatedly merging an adjacent face Fa sharing
a common edge with F when Fa is a surface of same type and same parameters than
F, i.e., same underlying surface. F is maximal when no more face Fa can be merged
with F. Indeed, maximal faces coincide with ‘c-faces’ defined in [Sil81] that have been
proved to uniquely defined M. Similarly, for each edge of M, a maximal edge E with
97Chapter 4: Extraction of generative processes from B-Rep shapes
(a) (b)
Couples of faces that can be merged
Figure 4.8: Examples of configurations where faces must be merged to produce a shapeintrinsic
boundary decomposition: (a) face decomposition due to the modeling process, (b)
face decomposition due to topological requirements.
adjacent faces F1 and F2 is obtained by repeatedly merging an adjacent edge Ea when
Ea is also adjacent to F1 and F2. Again, E is maximal when no more edge Ea can
be merged with E. As a consequence of these merging processes, it is possible to
end up with closed edges having no vertex or with closed faces having no edge. An
example for the first case is obtained when generating the maximal face of the cylinder
in Figure 4.8b. A sphere described with a single face without any edge and vertex is
an example for the second case.
Because of maximal edges without vertices and faces without edges, merging operations
are performed topologically only, i.e., the object’s B-Rep representation is left
unchanged. Maximal faces and edges are generated not only for the initial model M
but also after the removal of each primitive when identifying the graph of generative
processes. Consequently, maximal primitives (see Hypothesis 1) are based on maximal
faces and edges even if not explicitly mentioned throughout this document. Using the
concept of maximal faces and edges the final object decomposition is independent of
the sequence of modeling operators.
4.4 Generative processes
Having define the modeling hypotheses and context in the previous Section 4.3, this
section presents the principles of the construction of generative processes from B-Rep
object. It explains how the primitives are identified and how to remove them from an
object M.
4.4.1 Overall principle to obtain generative processes
Preliminary phase
As stated in Section 4.3.1, a preliminary step of the method is to transform it into a
blending radii-free object M. To this end, defeaturing functions available in most CAD
98Chapter 4: Extraction of generative processes from B-Rep shapes
Identification of extrusion primitives Pi
Going back
over time
Generating M
from primitives
Object M
M®M’
Removal of primitives from M’
M’ empty? No Yes End
Set of construction
trees producing M
Set of extrusion primitives Pi
Construction graph of primitives
Figure 4.9: Overall scheme to obtain generative processes.
Object M
End
Object M-1
Object M-2
Removal of Pi
Identification of extrusion
primitives Pi in M
Identification of extrusion
primitives Pi in M-1
Identification of extrusion
primitives Pi in M-2
Pi
Removal of Pi
Figure 4.10: An example illustrating the successive identification and removal of primitives.
systems are applied. This operation is a consequence of the modeling context defined
in Section 4.3.1. Even though these functions may not be sufficient and robust enough,
this is the current working configuration. In contrast to blending radii, most chamfers
are included in the present approach because they can be part of extrusion primitives
and hence, included in the sketched contours used to define extrusion primitives. Even
if CAD software provide specific functions for chamfers, they are devoted to the design
context but basic operators of extrusion with material addition or removal could produce
the same result, in general. This analysis regarding chamfers shows the effect of
the concept of maximal primitives (see Hypothesis 1).
Main phase
Starting with the solid M, the generative processes are obtained through two phases:
99Chapter 4: Extraction of generative processes from B-Rep shapes
• M is processed by iterative identification and removal of primitives. The objective
of this phase is to ‘go back in time’ until reaching root primitives for generative
processes. The result of this phase is a set of primitives;
• Based on hypotheses of Section 4.3.2, a set of generative processes is produced using
the primitives obtained at the end of the first phase to meet the requirements
of an application: here idealization (see Chapter 5).
Finally, the decomposition D of M into extrusion primitives is not limited to a single
construction tree but it produces a construction graph GD iteratively generated from
M. GD contains all possible non trivial construction trees of M (see Hypothesis 3).
The process termination holds whenever M is effectively decomposable into a set of
extrusion primitives. Otherwise, D is only partial and its termination produces either
one or a set of volume partitions describing the most simplest objects D can reach.
Figure 4.9 summarizes the overall scheme just described previously. When generating
GD, we refer to M = M0 and evolutions M−j of it backward at the jth step of D.
Figure 4.10 illustrates the major steps of the extraction of a generative process graph,
i.e., from the primitive identification up to its removal from M, and will be further
explained in Sections 4.4.2 and 4.4.3.
4.4.2 Extrusion primitives, visibility and attachment
In order to identify extrusion primitives Pi in M = M0 and evolution M−j of it, backward
at the jth step of the generation of the generative process graph, it is mandatory
to define its geometric parameters as well as the hypotheses taken in the present work
(see Figure 4.4).
First of all, let us notice that a ‘reference primitive’ Pi is never appearing entirely
in M or M−j unless it is isolated like a root of a construction tree, i.e., Pi = M or
Pi = M−j . Apart from these particular cases, Pi are only partly visible, i.e., not all
faces of Pi are exactly matching faces of M−j . For simplicity, we refer to such Pi as
‘visible primitives’. Pi is the memory of a generative process that took place between
M−j and M−(j+1). Extracting Pi significantly differs compared to feature recognition
approaches [Rez96, LGT01, WS02, SSM∗10, JG00]. In feature recognition approaches,
Pi is identified through validity constraints with its neighboring attachment in M, i.e.,
faces and edges around Pi. These constraints limits the number of possible primitives
by looking to the best interpretation of some visible boundaries of the object M. Here,
identifying visible primitives enables the generation of reference ones having simpler
contours. Only the visible part of the primitive is used to identify the primitive in M,
without restricting the primitive to the visible boundaries of M. The proposed identi-
fication process of Pi is more general, it does not integrate any validity constraint on
100Chapter 4: Extraction of generative processes from B-Rep shapes
the attachment of Pi with M. This constraint released, this process enables the identi-
fication of a greater number of primitives which can be compared with each other not
only through their attachment to M but also through their intrinsic shape complexity.
Definition of the primitive
The parameters involved in a reference extrusion Pi are the two base faces, F b1 and
F b2, that are planar and contain the same sketched contour where the extrusion takes
place. Considering extrusions that add volume to a pre-existing object, the edges of F bi
are called contour edges which are all convex. Indeed, Pi being standalone primitive,
all its contour edges are convex. A convex edge is such that the outward normals of
its adjacent faces define an angle α where: 0 < α < π. When Pi belongs to M−j ,
the contour edges along which Pi is attached to M−j can be either convex or concave
depending on the neighborhood of Pi in M−j (see Figure 4.4a).
In the direction d of the extrusion, all the edges are straight line segments parallel
to each other and orthogonal to F bi. These edges are named lateral edges. Faces adjacent
to F bi are called lateral faces. They are bounded by four edges, two of them being
lateral edges. Lateral edges can be fictive lateral edges when a lateral face coincides
with a face of M−j adjacent to Pi (see Figure 4.4a). When lateral faces of Pi coincide
with adjacent faces in M−j , there cannot be edges separating Pi from M−(j+1) because
of the definition of maximal faces. Such a configuration refers to fictive base edges (see
Figure 4.11 with the definition of primitive P1).
Principle of primitive identification: Visibility
The visibility of Pi depends on its insertion in M−j and sets the conditions to identify
Pi in ∂M−j
2. An extrusion primitive Pi can be visible in different ways depending on
its insertion in a current object M−j . The simplest visibility is obtained when Pi’s base
faces F bi in M−j exist and when at least one lateral edge connects F bi in M−j (see
Figure 4.4a and 4.11(step1)).
More generally, the contour of F b1 and F b2 may differ from each other (see Figure
4.4b) or the primitive may have only one base face F b1 visible in M−j together
with one existing lateral edge that defines the minimal extrusion distance of F b1 (see
Figure 4.4c). Our two hypotheses on extrusion visibility thus state as follows:
• First, at least one base face F bi is visible in M−j , i.e., the contour of either F b1
or F b2 coincides with a subset of the attachment contour of Pi in M−j ;
• Second, one lateral edge exists that connects F bi in M−j . This edge is shared by
two lateral faces and one of its extreme vertices is shared by F bi.
2∂M−j is the boundary of the volume object M, i.e., the B-Rep representation
101Chapter 4: Extraction of generative processes from B-Rep shapes
d d
P1 P2
Primitive
to Remove Interface
Identical Faces Volume to remove
from Primitive
Reduced Primitive
Included in Solid
Simplified Solid
1 - Find Extrusion
Primitives
2 - Keep included
Primitives
3 - Find Interfaces
4 - Remove Primitives
from Solid
Fb1 contour edge
P1 P2
P1
P1
Not Included in Solid
Figure 4.11: An example illustrating the major steps to identify a primitive Pi and remove
it from the current model M−j .
Pi is entirely defined by F bi and the extrusion length obtained the maximum length
of the generatrix of Pi extracted from its lateral faces partly or entirely visible in M−j .
Notice that the lateral edges mentioned may not be maximal edges when lateral faces
are cylindrical because maximal faces may remove all B-Rep edges along a cylindrical
area. These conditions of definition of extrusion distance restricts the range of extrusion
primitives addressed compared to the use of the longest lateral segment existing
in the lateral faces attached to F bi. However, it is a first step enabling to address a
fair set of mechanical components and validate the major concepts of the proposed
approach. This generalization is left for future work. Figure 4.4b, c give examples
involving two or one visible base faces, respectively.
Attachment
An extrusion primitive Pi is attached to M−j in accordance to its visibility in M−j .
The attachment defines a geometric interface, IG, between Pi and M−(j+1), i.e., IG =
Pi ∩ M−(j+1). This interface can be a surface or a volume or both, i.e., a nonmanifold
model. One of the simplest attachments occurs when Pi has its base faces
F b1 and F b2 visible. This means that Pi is connected to M−(j+1) through lateral faces
only. Consequently, IG is a surface defined by the set of lateral faces not visible in
Pi. Figure 4.4a illustrates such a type of interface (IG contains two faces depicted in
yellow).
Simple examples of attachment IG between Pi and M−(j+1) are given in Figure 4.4.
102Chapter 4: Extraction of generative processes from B-Rep shapes
(b)
Pi
M-(j+1) IG
S
e1
e2
(a)
Pi
M-(j+1) IG
Volume Interface
Figure 4.12: Example of geometric interface IG between Pi and M−(j+1): (a) surface type,
(b) volume type.
M-j
Valid Primitives
Primitive (Pi)
Non Valid
Primitive
Direction
of extrusion
(a)
(b)
Fb1
Figure 4.13: Collection of primitives identified from M−j : (a) Valid primitives included in
M−j , (b) invalid primitive because it is not fully included in M−j . Green edges identify the
contour of the base face of the primitive.
4.4a involves a surface interface and 4.4b illustrates a volume one. Let us notice that
the interface between Pi and M−(j+1) in 4.4b contains also a surface interface located
at the bottom of the primitive that is not highlighted. However, as we will see in
Section 4.5, all possible variants of IG must be evaluated to process the acceptable
ones.
In a first step, Pi can be translated directly into an algorithm to identify them
(procedure f ind visible extrusion of algorithm 1). The visibility of Pi does not refer to
its neighboring faces in M−j . Next, they are subjected to validity conditions described
in the following section.
4.4.3 Primitive removal operator to go back in time
The purpose is now to describe the removal operator that produces a new model M−(j+1)
anterior to M−j . This removal operator is defined as a binary operator with Pi and
M−j as operands and M−(j+1) as result. In the context of a generative process, M−j
relates to a step j and M−(j+1) to a step (j + 1).
103Chapter 4: Extraction of generative processes from B-Rep shapes
Characterization of interfaces
In order to be able to generate M−(j+1) once Pi is identified, it is necessary to reconstruct
faces adjacent to Pi in M−j so that M−(j+1) defines a volume. To this end, the
faces of M−j adjacent to Pi and IG must be characterized. Here, Pi is considered to be
adjacent to other subsets of primitives through one edge at least. The removal operator
depends on the type of IG. Due to manifold property of M, two main categories of
interfaces have been identified:
1- IG is of surface type. In this category, the removal operator will have to create
lateral faces and/or the extension of F b2 so that the extended face coincides with
F b1. Indeed, this category needs to be subdivided into two sub categories:
a- IG contains lateral faces of Pi only (see Figure 4.4a) or IG contains also an
extension of F b2 and edges of this extension are concave edges in M−(j+1);
b- IG may contains lateral faces of Pi but it contains an extension of F b2 and
the edges of this extension are fictive base edges in M−j . These edges would
be convex edges in M−(j+1), (see P1 in Figure 4.11);
2- IG contains at least one volume sub-domain.
In addition, considering that F b1 at least is visible and Pi is also visible (see Section
4.4.2), the attachment contour may not be entirely available to form one or more
edge loops (see Figure 4.4a). Also, IG can contain more than one connected component
when Pi is resembling a handle connected to M−(j+1), which produces more than one
edge loop to describe the attachment of Pi to M−(j+1) in IG.
Validity
Whatever the category of interface, once Pi is identified and its parameters are set
(contour and extrusion distance), it is necessary to validate it prior to define its interface
(step 2 of Figure 4.11). Let Pi designates the volume of the reference primitive, i.e.,
the entire extrusion Pi. To ensure that Pi is indeed a primitive of M−j , the necessary
condition is formally expressed using regularized Boolean operators between these two
volumes:
(M−j ∪∗ Pi) −∗ M−j = φ. (4.1)
This equation states that Pi intersects M−j only along the edge loops forming its attachment
to M−(j+1), i.e., Pi does not cross the boundary of M−j at other location than
its attachment. The regularized Boolean subtraction states that limit configurations
producing common points, curve segments or surface areas between Pi and M−j at
other locations than the attachment of Pi are acceptable. This condition strongly reduces
the number of primitives over time. Figure 4.13 illustrates the list of 9 primitives
identified from an object M−j . 8 primitives in 4.13a satisfy the validity criterion as
they are included in M−j . The primitive in 4.13b is not fully included in M−j and is
104Chapter 4: Extraction of generative processes from B-Rep shapes
IG
( type 1a surface )
(a)
(b)
(c)
IG
( type 1b surface )
IG
( type 2 volume )
Pi
Pi
Pi
Fictive edge
e1
e2
Figure 4.14: Illustration of the removal of Pi with three different interface types: (a) type
1a, (b) type 1b, (c) type 2.
removed from the set. Another example in Figure 4.11 at step 2 shows that primitives
P2 and P3 can be discarded.
Removal of Pi
The next step is the generation of M−(j+1) once Pi has been identified and removed
from M−j . Depending of the type of IG, some faces of Pi may be added to ensure that
M−(j+1) is a volume (see Figure 4.11 steps 3 and 4). For each category of interface
between Pi and M−j , the removal operation is described as follow:
• Type 1a: If IG is of type 1a, then the faces adjacent to the contour edges of F b1
are orthogonal to F b1. These faces are either planar or cylindrical. IG contains
the faces extending these faces, Fa1 , to form the lateral faces of Pi that were
‘hidden in M−j ’. Edges of the attachment of Pi belonging to lateral faces of Pi
can be lateral edges (either real or fictive ones) or arbitrary ones. Lateral edges
bound faces in Fa1 , arbitrary edges bound the extension of the partly visible
lateral faces of Pi, they belong to: Fa2 . Then, IG may contain the extension of
F b2 called Fa3 such that: F b2 ∪ Fa3 = F b1. Then:
∂M−(j+1) = (∂M−j − ∂Pi) ∪ (Fa1 ∪ Fa2 ∪ Fa3 ), (4.2)
where ∂M−j is the set of connected faces bounding M−j , ∂Pi is the set of connected
faces bounding the visible part of Pi. ∂M−(j+1) defines a closed, orientable
surface, without self intersection. M−(j+1) is therefore a volume. Figure 4.14 a
and Figure 4.15 illustrate this process for interface of type 1a;
• Type 1b: If IG is of type 1b, IG contains a set of faces extending lateral faces of
Pi: Fa1 . To reduce the description of the various configurations, let us focus on
the key aspect related to the extension of F b2 contained in IG. If this extension
105Chapter 4: Extraction of generative processes from B-Rep shapes
Fb1
Partly visible
base face Fb2
Partly visible
lateral face of Pi
Visible lateral
faces of Pi
Fa1
Fa3
Fa2
Lateral edge
¶M_ j (¶M_ j - ¶Pi) ¶M_ (j+1)
Figure 4.15: Illustration of the removal of Pi for interface of surface type 1a and generation
of ∂M−(j+1) with the extension of lateral and base faces.
can be defined like Fa3 above, it has to be observed that fictive edges of this
extension in M−j are replaced by convex edges in M−(j+1), i.e., edges of the
same type (convex) as their corresponding edges in F b1 (see Figure 4.11 step 3
left image). Without going into details, these fictive edges can be removed to
simplify the contour of Pi since they bring unnecessary complexity to Pi and
does not affect the complexity of M−(j+1). In addition to simplify progressively
the object’s shape, reducing the complexity of primitives’ contours is a way to
obtain primitives having a form as simple as possible. The corresponding effect
is illustrated on Figure 4.11 steps 3 and 4 and on Figure 4.14b. This contour
simplification can influence the contents of the sets Fa1 and Fa3 above but it has
no impact on the integrity of the volume M−(j+1) obtained;
• Type 2: If IG belongs to category 2, it contains at least one volume sub-domain.
Here again the diversity of configurations can be rather large and it is not intended
to give a detailed description of this category. A first condition to generate a
volume interface relates to surfaces adjacent to Pi. If S is the extension of such
a surface and S ∩∗ Pi �= φ, S may contribute to the generation of a volume
sub-domain. Then, each of these surfaces has to be processed. To this end, all
the edges attaching Pi in M−(j+1) and bounding the same surface in M−(j+1)
are grouped together since they form a subset of the contour of faces possibly
contributing to a volume sub-domain. These groups are named Ea. Such an
example of edge grouping is given in Figure 4.14b where e1 and e2 are grouped
because of their adjacency between Pi and the same cylindrical surface. Ea,
together with other sets of edges are used to identify loops in S that define a
volume sub-domain of IG that must satisfy validity conditions not described here
for sake of conciseness. Figure 4.16 illustrates the identification of a volume
interface, S divides Pi into two volume sub-domains and generates a volume
interface.
There may be several valid volume sub-domains defining alternative sets of faces
to replace the visible part of Pi, ∂Pi, in ∂M−j by sets of faces that promote either the
106Chapter 4: Extraction of generative processes from B-Rep shapes
Fb1
¶M_ j (¶M_ j - ¶Pi)
Pi
S
+
Volume
interface
type 2
Surface
interface type 1a
¶M_ (j+1)
=
Ea1
Ea2
Ea3
Figure 4.16: Illustration of the removal of Pi containing a volume interface of type 2.
extension of surfaces adjacent to Pi or the imprint of Pi in M−(j+1) with the use of faces
belonging to the hidden part of Pi in M−j . All the variants are processed to evaluate
their possible contribution to the generative process graph.
If, in a general setting, there may be several variants of IG to define M−(j+1),
these variants always produce a realizable volume, which differs from the half-space
decomposition approaches studied in [SV93, BC04] where complement to the halfspaces
derived from their initial boundary were needed to produce a realizable volume.
4.5 Extracting the generative process graph
Having defined the primitive removal operator, the purpose is now to incorporate constraints
on variants of IG so that a meaningful set of models M−j , j > 0, can be
generated to produce a generative process graph.
4.5.1 Filtering out the generative processes
As mentioned earlier, the principle of the proposed approach is to ‘go back in time’
from model M to single primitives forming the roots of possible construction trees. The
main process to select primitives to be removed from M−j is based on a simplification
criterion.
Primitive selection based on a shape simplicity concept
107Chapter 4: Extraction of generative processes from B-Rep shapes
nj = 8
F1
F2
F5
F3
F4
F8
F6
F1
F3 F2
F4
F4
F7
n(j+1) = 4 1
n(j+1) = 7 2
n(j+1) = 6 3
F1
F6 F5
F2 F3
F7
F1 F2
F3 F4
F5
F6
Volume Interface
P1
P2
P3
M-j
M-(j+1)
M-(j+1)
M-(j+1)
2
3
1
δj1 = 4
δj1 = 1
δj1 = 2
Figure 4.17: Illustration of the simplicity concept to filtering out the generative processes.
The number of maximal faces of is greatly reduced with P1 than P2 and P3.
Any acceptable primitive removal at step j of the graph generation must produce a
transformation of M−j into k objects M−(j+1)k using IGk , one of the variants of IG, such
that M−(j+1)k is simpler than M−j . This simplicity concept is a necessary condition
for the graph generation to converge toward a set of construction trees having a single
primitive as root. Consequently, the simplicity concept applied to the transition between
M−j and M−(j+1)k is sufficient to ensure the convergence of the graph generation
process.
The shape simplification occurring between M−j and M−(j+1)k can be defined as
follows. First of all, it has to be considered that ∂M−j and ∂M−(j+1)k contain maximal
faces and edges. In fact, after Pi is removed and replaced by IGk to produce M−(j+1)k ,
its boundary decomposition is re-evaluated to contain maximal faces and edges only.
Then, let nj be the number of (maximal) faces in M−j and n(j+1)k be the same quantity
for M−(j+1)k , the quantity δjk:
δjk = nj − n(j+1)k (4.3)
characterizes the shape simplification under the variant IGk if:
δjk ≥ 0. (4.4)
This condition is justified because it enforces a ‘diminishing number of maximal faces
over time’, which is an intrinsic quantity to each shape.
Figure 4.17 illustrates the simplicity criterion between three primitives P1, P2, and
P3 to be removed from a solid M−j . M−j , the initial solid, contains nj = 8 (maximal)
faces. When removing P1 from M−j , the resulting solid M−(j+1)1 contains n(j+1)1 = 4
(maximal) faces. Identically, the resulting solids from P2 and P3 contains respectively
n(j+1)2 = 7 and n(j+1)3 = 6 (maximal) faces. As a result, the primitive P1 is selected
because the quantity δj1 = 4 is greater than δj2 and δj3. By removing P1, the resulting
object M−j is simpler than with P2 or P3.
108Chapter 4: Extraction of generative processes from B-Rep shapes
4.5.2 Generative process graph algorithm
Having defined the condition to evolve backward in the generative process graph, the
graph generation is summarized with algorithm 1.
Algorithm 1 Extract generative process graph
1: procedure Extract graph � The main procedure to extract generative processes of a solid M
2: inputM
3: node list ← root; current node ← root;
4: arc list ← nil; current arc ← nil; node list(0) = M
5: while size(node list) > 0 do � Stop when all solids M−j reach a terminal primitive root
6: current node = last element of list(node list)
7: M−j = get solid(current node)
8: conf ig list = P rocess variant(M−j )
9: compare conf ig(get all conf ig(graph), conf ig list) � Compare new variants with the existing graph nodes
10: for each conf ig in conf ig list do
11: M−(j+1) = remove primitives(M−j , conf ig) � Remove the identified primitives from M−j
12: node = generate node(M−(j+1), conf ig)
13: add node(graph, node)
14: arc = generate arc(node, current node)
15: add arc(graph, arc)
16: append(node list, node)
17: end for
18: remove element from list(node list, current node)
19: end while
20: end procedure
21: procedure conf ig list = P rocess variant(M−j ) � Process each variant M−j to go ’backward in time’
22: initialize primitive list(prim list)
23: ext list = f ind extrusion(M−j )
24: for each Pi in ext list do
25: Pi = simplif y prim contour(Pi, M−j )
26: interf list = generate geom interfaces(Pi, M−j )
27: interf list = discard complex(interf list, Pi, M−j )
28: if size(interf list) = 0 then
29: remove from list(Pi, ext list);
30: end if
31: append(prim list, interf list(i))
32: end for
33: sort primitive(prim list)
34: conf ig list = generate independent ext(prim list, M−j , )
35: end procedure
36: procedure ext list = f ind extrusion(M−j ) � Find sets of primitives to be removed from M−j
37: ext list = f ind visible extrusions(M−j );
38: ext list = remove ext outside model(M−j , ext list); � Reject primitives not totally included in M−j
39: ext list = remove ext included ext(ext list); � Process only maximal primitives
40: end procedure
The main procedure Extract graph of the algorithm 1 processes the node list containing
the current variants of the model at the current step ‘backward in time’ using
the procedure P rocess variant and compares the new variants to the existing graph
nodes using compare conf ig. If variants are identical, graph nodes are merged, which
creates cycles. Then, Extract graph adds a tree structure to a given variant corresponding
to the new simpler variants derived from M−j . The graph is completed when
there is no more variant to process, i.e., node list is empty. Here, the purpose is to
remove (using remove primitives) the largest possible amount of primitives Pi whose
interfaces IGk are not overlapping each other, i.e., ∀(i, j, k, l), i �= j, IGk ∈ Pi, IGl ∈ Pj ,
109Chapter 4: Extraction of generative processes from B-Rep shapes
P1 P2 P3
(a) (b)
Criterion of Maximal Primitive Criterion of Independence
dependent
edges
independent
edges
Figure 4.18: Selection of primitives: (a) Maximal primitive criterion not valid for P2 and P3
because they are included in P1, (b) two dependent primitives with common edges in red.
IGl ∩ IGk = φ, otherwise δjk would not be meaningful. Selecting the largest possible
amount of Pi and assigning them to a graph node is mandatory to produce a compact
graph. Each such node expresses the fact that all its Pi could be removed, one by one,
in an arbitrary order, which avoids describing trivial ordering changes. The primitive
removal operator, described in Section 4.4.3, generates not only simpler solids’ shapes
but also simplify the primitives’ contours (using simplify prim contour). Both simpli-
fication effects reduce considerably the complexity of the extracted generative processes
compared to the initial construction tree of the CAD component.
To process each variant M−j of M, P rocess variant starts with the identification
of valid visible extrusion primitives in M−j using f ind extrusion (see Sections 4.4.2
and 4.4.3 respectively). However, to produce maximal primitives (see Hypothesis 1),
all valid primitives which can be included into others (because their contour or their
extrusion distance is smaller than the others) are removed (remove ext included ext).
Figure 4.18a shows two primitives P2 and P3 included in a maximal primitive (see
Hypothesis 1) P1.
Once valid maximal primitives (see Hypothesis 1) have been identified, processing
the current variant M−j carries on with contour simplification: simplify prim contour,
if it does not impact the shape complexity of M−(j+1) (see Section 4.4.3). Then, all the
valid geometric interfaces IGk of each primitive are generated with
generate geom interf aces (see Section 4.4.3) and interfaces IGk increasing the shape
complexity are discarded with discard complex to ensure the convergence (see Section
4.5.1). Sets of independent primitives are ordered to ease the user’s navigation in
the graph. As illustrated in Figure 4.18, two primitives are independent if there is no
geometric intersection between them.
4.6 Results of generative process graph extractions
The previous process described in Section 4.5 has been applied to a set of components
whose shapes are compatible with extrusion processes to stay consistent with
110Chapter 4: Extraction of generative processes from B-Rep shapes
(c) (d)
(a)
T
T
T
B
T
T
B
T
T
T
(b)
Figure 4.19: Extraction of generative processes for four different components: a, b, c, d.
Orange sub-domains highlight the set of visible primitives removed at each step of the graph
generation. Construction graph reduces to a tree for each of these components: (a) T and B
indicate Top and Bottom views to locate easily the primitives removed. Other components
use a single view.
111Chapter 4: Extraction of generative processes from B-Rep shapes
algorithm 1 though they are industrial components. The results have been obtained
automatically using algorithm 1 implemented using Python and bindings with Open
Cascade (OCC) library [CAS14]. The complexity of Algorithm 1 is O(n2). Regarding
time, most consuming operations refer to the procedure f ind extrusion which uses
boolean operations to verify the validity of each primitive. Therefore, the practical
performance of the algorithm is dependent on the robustness and complexity of the
boolean operators. Statistics given are the amount of calls to a generic Boolean type
operator available in the OCC [CAS14] library, the total number of visible primitives
(f ind visible extrusions), nv, and the final number of Pi in the graph, np.
Results on industrial shapes
Figure 4.19 shows the generative processes extracted from four different and rather
simple components. They are characterized by triples (nB; nv; np), (2183; 220; 8),
(9353; 240; 31), (8246; 225; 15), (1544; 132; 6), for (a), (b), (c) and (d), respectively.
The graph structure reduces to a tree one for each of them. It shows that merging all
extrusions in parallel into a single node can be achieved and results into a compact
representation. These results also show the need for a constraint that we can formalize
as follows: configurations produced by generate independent ext must be such that
each variant M−(j+1)k generated from M−j must contain a unique connected component
as it is with M. However, this has not been implemented yet. This continuity constraint
expresses the fact that M is a continuous medium and its design process follows this
concept too. Figure 4.21 illustrates this constraint on the construction graph of a
simple solid. The object M−11 is composed of 5 solids which represent a non continuum
domain. Consequently, any of its transformation stages must be so to ensure that any
simplified model, i.e., any graph node, can stand as basis for an idealization process.
Then, it is up to the idealizations and their hypotheses to remove such a constraint,
e.g., when replacing a primitive by kinematic boundary conditions to express a rigid
body behavior attached to one or more primitives in the graph.
Figure 4.20 shows the graph extracted from the component analyzed in Figure 4.1.
It is characterized by (111789; 1440; 62). Two variants appear at step 4 and lead to
the same intermediate shape at step 8. It effectively produces a graph structure. It
can be observed that the construction histories are easier to understand for a user than
the one effectively used to model the object (see Figure 4.1). Clearly, the extrusion
primitives better meet the requirements of an idealization process and they are also
better suited to dimension modification processes as mentioned in Section 4.1. The
current implementation of Algorithm 1 uses high-level operators, e.g., boolean operations,
rather than dedicated ones. This implementation limits the time reduction which
could be achieved compared to the interactive transformations. Issues also lies in the
robustness of CAD boolean operators which use quite complex modeling techniques.
In a future work, instead of boolean operators, specific operators can be developed for
an efficient implementation.
112Chapter 4: Extraction of generative processes from B-Rep shapes
M
M-1
M-2
M-3 M-3
M-8
M-42
M-52
M-62
M-72
M-7 1
M-6 1
M-5 1
M-4 1
L2 L1
Figure 4.20: Construction graph GD of a component. Orange sub-domains indicate the
removed primitives Pi at each node of GD. Labels M−jk indicate the step number j when
‘going back over time’ and the existence of variants k, if any. Arrows described the successive
steps of D. Arcs of GD are obtained by reversing these arrows to produce construction trees.
Steps M−61 and M−62 differ because of distinct lengths L1 and L2.
113Chapter 4: Extraction of generative processes from B-Rep shapes
M
M-1 M 2 -11
Non continuous
medium ( 5 solids)
Continuous
medium ( 1 solid)
Figure 4.21: Illustration of the continuity constraint with two construction processes of an
object M. The generated object M−11 is composed of 5 independent solids which represent
a non continuum domain. Object M−12 contains one solid which represents a continuum
domain.
Equivalence between a graph representation and a set of construction trees
Also, GD is a compact representation of a set of construction processes. Figure 4.22
illustrates the equivalence between a set of construction trees and the graph representation
GD. There, the set of primitives removed from M−j to obtain M−(j+1) is characterized
by the edge α−j,−(j+1) of GD that connects these two models. The cardinality
of this set of primitives is nj . If these nj primitives are related to different sketching
planes, they must be attached to nj different steps of a construction tree in a CAD
software. Without any complementary criterion, the ordering of these nj primitives
can be achieved in nj ! different ways involving nj additional nodes and edges in GD
to represent the corresponding construction tree. Here, it is compacted into a single
graph edge α−j,−(j+1) in GD between M−j and M−(j+1). Furthermore, the description of
this set of tree structures requires the expansion of α−j,−(j+1) into the nj ! construction
tree structures ending up to M−j . This modification of GD generates new cycles in GD
between M−j and M−(j+1). Indeed, the graph structure of GD is a much more compact
structure than the construction tree of CAD software. All the previous results and
observations show that GD is a promising basis for getting a better insight about a
shape structure and evaluating its adequacy for idealizations.
4.7 Extension of the component segmentation to
assembly structure segmentation
This section explains how the generative processes used for single B-Rep component
can be adapted to assembly structures of several B-Rep components.
114Chapter 4: Extraction of generative processes from B-Rep shapes
M-j M-(j+1)
Contruction Trees
Graph GD
Compact
representation
of nj primitives
in one edge α-j,-(j+1)
1 - 4
5
7
6
8
9 9
7 - 8
1 - 6
7
1 - 6
7
9
8
...
!nj ordering possibilities corresponding the nj primitives
Figure 4.22: A set of CAD construction trees forming a graph derived from two consecutive
construction graph nodes.
115Chapter 4: Extraction of generative processes from B-Rep shapes
P7
P3
P17
P1
P2
P4
P6
P8
P9
P10 P11 P12 P13
P14 P15
P16 P18
P5
Interface Graph
between primitives
C1
C2
C3
C4
Interface Graph
between components
(a) Component (b) Assembly
Figure 4.23: Illustration of the compatibility between the component segmentation (a) and
assembly structure segmentation (b).
Equivalence between generative processes of components and assembly structures
As explained in 1.3.1, a CAD assembly structure contains a set of volume B-Rep
components located in a global reference frame. The method of Jourdes et al. [JBH∗14]
enriches the assembly with geometric interfaces between components. Shahwan et
al. [SLF∗12, SLF∗13] further enrich the results of Jourdes et al. with functional designation
of components. As a result, the final assembly model is composed of a set of
3D solid components connected to each other through functional interfaces.
An equivalence can be made between this enriched assembly structure (see Figure
4.23b) and generative processes of components. Indeed, a solid decomposition
of each component can be derived from its generative processes expressed with GD.
It provides intrinsic structures of components made of 3D solid primitives linked by
geometric interfaces (see Figure 4.23a). These structures are compatible with the assembly
structure also described using 3D solids and interfaces. The decomposition of
each component, GD, can be integrated into an assembly graph structure. Figure 4.24a
illustrates an assembly of two components C1 and C2 connected by one assembly interface
I1,2. In 4.24b, each component is subdivided into two primitives (P1,1, P1,2) and
(P2,1, P2,2), respectively, linked by geometric interfaces I11,12 and I21,22 , respectively.
Now, the assembly structure can be represented by a graph GA where nodes represent
the assembly components and edges contains functional assembly interfaces. Each solid
decomposition of a component Ci also constitutes a graph structure GDi which can be
nested into the nodes of GA, see 4.24c, in a first place.
116Chapter 4: Extraction of generative processes from B-Rep shapes
Graph of the final enriched
assembly model
P1.1 P1.2
C1
C2
I1/2 I1/2
P1.1
P1.2
P2.2
P2.1
I1.1/1.2
P2.1
P2.2
I1/2
I2.1/2.2
I1.1/1.2
Assembly structure Components segmentation
(a) (b) (c)
Figure 4.24: Insertion of the interface graphs between primitives obtained from component
segmentations into the graph of assembly interfaces between components GA: (a) The assembly
structure with its components and assembly interfaces between these components, (b) the
components segmented into primitives and interfaces between these primitives forming GDi ,
(c) the graph of the final enriched assembly model.
Advantages for the shape analysis of components and assemblies
The compatibility of the component segmentation with the assembly graph structure
is a great benefit for the analysis algorithms dedicated to the determination of
the simulation modeling hypotheses. Considering sub-domains and interfaces as input
data to a general framework enabling the description of standalone components as
well as assemblies, the analysis algorithms can be applied at the level of a standalone
component as well as at the assembly level. This property extends the capabilities
of the proposed FEA pre-processing methods and tools from the level of standalone
components to an assembly level and contributes to the generation of FE analyses of
assembly structures.
However, it has to be pointed out that the nesting mechanism of GA and GDi
has been briefly sketched and a detailed study is required to process configurations
in which component interfaces are not exactly nested into component primitive faces,
e.g., interface I1,2 that covers faces of P2,1 and P2,2. Additionally, interfaces used for
illustration are all of type surface, whereas interfaces between primitives can be of
types surface or volume and geometric interfaces between components can be of type
contact or interference. If, in both cases, this leads to common surfaces or volumes,
the detailed study of these configurations is left to future work to obtain a thorough
validation.
4.8 Conclusion
This chapter has described a new approach to decompose a B-Rep shape into volume
sub-domains corresponding to primitive shapes, in order to obtain a description that
is intrinsic to this B-Rep shape while standing for a set of modeling actions that will
be used to identify idealizable sub-domains.
117Chapter 4: Extraction of generative processes from B-Rep shapes
Construction trees and shape generation processes are common approaches to model
mechanical components. Here, it has been shown that construction trees can be extracted
from the B-Rep model of a component. Starting with a B-Rep object free of
blends, the proposed approach processes it by iteratively identifying and removing a
set of volume extrusion primitives from the current shape. The objective of this phase
is to ‘go back in time’ until reaching root primitives of generative processes. As a
result, a set of non-trivial generative processes (construction trees) is produced using
the primitives obtained at the end of this first phase.
It has been shown that construction trees are structured through a graph to represent
the non trivial collection of generative processes that produce the input B-Rep
model. This graph contains non trivial construction trees in the sense that neither
variants of extrusion directions producing the same primitive are encoded nor are the
combinatorial variants describing the binary construction trees of CAD software, i.e.,
material addition operations that can be conducted in parallel are grouped into a single
graph node to avoid the description of combinatorial combinations when primitives are
added sequentially as in CAD software. Thus, each node in the construction graph
can be associated with simple algorithms to generate the trivial construction variants
of the input object.
The proposed method includes criteria which generate primitives with simple shapes
and which ensure that the shape of intermediate objects is simplified after each primitive
suppression. These properties guarantee the algorithm to be convergent.
Finally, a graph of generative processes of a B-Rep component is a promising basis to
gain a better insight of a shape structure and to evaluate its adequacy for idealizations.
It has been illustrated that this process can also be extended to the assembly context
with the nesting of the primitive-interface structure with respect to the componentinterface
one. The next Chapter 5 describes how a construction graph can be efficiently
used in an idealization process.
118Chapter 5
Performing idealizations from
construction graphs
Benefiting from the enrichment of a component shape with its construction graph,
this chapter details the proposed morphological approach and the idealization
process to generate idealized representations of a component shape’ primitives.
Based on this automated decomposition, each primitive is analyzed in order to
define whether it can be idealized or not. Subsequently, geometric interfaces
between primitives are taken into account to determine more precisely the idealizable
sub-domains. These interfaces are further used to process the connections
between the idealized sub-domains generated from these primitives to finally
produce the idealized model of the initial object. Also it is described how the
idealization process can be extended to assembly models.
5.1 Introduction
According to Section 1.5.4, shape transformations taking place during an assembly simulation
preparation process interact with simulation objectives, hypotheses, and shape
transformations applied to standalone components and to their assembly interfaces.
Section 2.3 underlines the value of a shape analysis prior to the application of these
transformations to characterize their relationship with geometry adaption and FEA
modeling hypotheses, especially in the scope of idealization processes which need to
identify the candidate regions for idealization.
As explained in Chapter 2, prior research work has concentrated on identifying idealizable
areas rather than producing simple connections between sub-domains [LNP07b,
SSM∗10, MAR12, RAF11]. Recent approaches [CSKL04, Woo14] subdivide the input
CAD model into simpler sub-domains. However, these segmentation algorithms do not
aim at verifying the mechanical hypotheses of idealization processes and the identified
features found do not necessarily produce appropriate solids for dimensional reduction
operators. The idealization process proposed in this chapter benefits from the shape
119Chapter 5: Performing idealizations from construction graphs
IP2/P3
C1
IP2/P3
Graph of volume
primitives of C1
P1 P2
P3
IP1/P3
P3
P1 P2
IP1/P3
Component C1
Medial
Surfaces
e1 e2
e3
P1 P2
P3
Idealizable
subdomains
Non idealizable
subdomains
e1 e2
e3
Thickness
Morphological
analysis of component
Full idealized
CAD model
Construction graph
Figure 5.1: From a construction graph of a B-Rep shape to a full idealized model for FEA.
structure produced by construction graphs generated from a component as a result of
the process described in Chapter 4 and containing volumes extrusion primitives which
can be already suited to idealization processes. This construction graph directly offers
the engineer different segmentation alternatives to test various idealization configurations.
Starting from a construction graph of a B-Rep model, this chapter describes a
morphological analysis approach to formalize the modeling hypotheses for the idealization
of a CAD component. This formalization leads to the generation of a new
geometric structure of a component that is now dedicated to the idealization process.
Figure 5.1 illustrates the overall process which is then described in the following sections.
Section 5.2 explains the advantages of applying a morphological analysis on a
component shape and states the main categories of morphology that needs to be located.
Section 5.3 describes the general algorithm proposed to analyze the morphology
of a B-Rep shape from its generative processes containing extrusion primitives. The
algorithm evaluates each primitive morphology and process interfaces between these
primitives to extend the morphological analysis to the whole object. Section 5.4 studies
the influence of external boundary conditions and of assembly interfaces on the
new component structure. There, the objective is to determine the adequacy of the
proposed approach with an assembly structure. Section 5.5 illustrates the process to
derive idealized models from a set of extrusion primitives and geometric interfaces.
5.2 The morphological analysis: a filtering approach
to idealization processes
A common industrial principle of the FEA of mechanical structures is to process the
analysis step-by-step using a top-down approach. To simulate large assembly struc-
120Chapter 5: Performing idealizations from construction graphs
tures, i.e., aeronautical assemblies, a first complete idealized mesh model is generated
to evaluate the global behavior of the structure. Then, new local models are set up
to refine the global analysis in critical areas. At each step of this methodology, the
main purpose of the pre-processing task is to generate, as quickly as possible, a well
suited FE model. In the industry, guidelines have been formalized to help engineers
defining these FE models and correctly applying the required shape transformations.
Although these guidelines are available for various simulation objectives, there are still
difficulties about:
• The model accuracy needed to capture the mechanical phenomenon to be evaluated.
An over-defined model would require too many resources and thus, would
delay the results. In case of large assemblies, the rules set in the guidelines are
very generic to make sure a global model can be simulated in practice. This way,
the FEM is not really optimized. As an example, the mesh size is set to a constant
value across all geometric regions of the components and is not refined in
strategic areas. Section 1.4 points out current engineering practices to generate
large FE assembly models;
• The application of modeling rules. The engineer in charge of the FEM creation
has difficulties when identifying the regions potentially influencing or not the
mechanical behavior of the structure, prior to the FEA computation results. In
addition, evaluating the geometric extent of the regions to be idealized as well
as determining the cross influences of geometric areas on each other are difficult
tasks for the engineer because they can be performed only mentally, which is even
harder for 3D objects. Section 2.3 highlights the lack of idealization operators to
delimit their conditions of application.
In case of large assembly data preparation, automated tools are required (due to
model size and time consuming tasks). These tools have to produce simulation models
in line with the two previous challenges (model accuracy and rule-based modeling).
In the following sections, we introduce approaches to deal with such challenges using
morphological analysis tools. These tools support the engineers when comparing the
manufactured shape of a component with the simplification and idealization hypotheses
needed to meet some simulation hypotheses.
5.2.1 Morphological analysis objectives for idealization processes
based on a construction graph
As introduced in Chapter 3, a major objective of this thesis aims at improving the
robustness of FE pre-processing using a shape analysis of each component before the
application of shape transformation operators. For a simulation engineer, the purpose
is to understand the shape, support the localization of transformations, and to build
121Chapter 5: Performing idealizations from construction graphs
the different areas to transform in the initial CAD models. This scheme contributes to
an a priori approach that illustrates the application of modeling hypotheses, especially
the idealization hypotheses. In addition, this approach is purely morphological, i.e., it
does not depend on discretization parameters like FE sizes.
Morphological categories identified in solid models
The first requirement of the idealization process is to identify which geometric regions
of the object contain proportions representing a predefined mechanical behavior.
In the scope of structural simulations, the predefined categories representing a specific
mechanical behavior correspond to the major finite element families listed in Table 1.1.
These categories can be listed as follows:
• Beam: a geometric sub-domain of an object with two dimensions being signifi-
cantly smaller than the third one. These two dimensions define the beam cross
section;
• Plate and shell: a geometric sub-domain of an object with one dimension being
significantly smaller than the two others. This dimension defines the thickness
of the plate or the shell, respectively;
• 3D thick domain: a geometric sub-domain that does not benefit from any of the
previous morphological properties and that should be modeled with a general 3D
general continuum medium behavior.
From a geometric perspective, the principle of the idealization process corresponds
to a dimensional reduction of the manifold representing a sub-domain of the solid object,
as defined in 1.2.1. A detailed description of the idealization hypotheses is available
in Section 1.4.2. To construct fully idealized models derived from an object M,
geometric connection operations between idealized sub-domains must be performed.
As stated in Chapter 2, automated geometric transformations do not produce accurate
results in connections areas. The main issue lies in the determination of the geometric
boundaries where the connection operators must process the idealized sub-domains
(see Figure 2.8). Currently, the engineer applies these operators manually to define the
direction and the extent of the connection areas (see Figure 1.15 illustrating a manual
process to connect medial surfaces). The proposed idealization process benefits from
an enriched initial component model with a volume segmentation into sub-domains
and into interfaces between them that contain new geometric information to make the
connections operators robust. This segmentation gives the engineer, a visual understanding
of the impact of simulation hypotheses on the component geometry. Additionally,
the proposed analysis framework identifies the regions that can be regarded as
details, independently of the resolution method. These regions represents areas having
no significant mechanical influence with respect to the morphological category of their
neighboring regions.
122Chapter 5: Performing idealizations from construction graphs
In case of assembly structures, the categories presented above are still valid at
the difference that the identified geometric domains are not anymore a sub-domain
restricted to a single solid. Indeed, a group of components can be considered as a
unique beam, plate, or shell element. In this case, if the interfaces between a group of
connected sub-domains from different components have been defined as mechanically
rigid connections by the engineer, this group of sub-domains can also be identified as
a unique continuum, hence distinguishing components is not necessary anymore. The
effects of assembly interfaces are detailed in Section 5.4.
Adequacy of generative construction graphs with respect to the morphological
analysis
A shape decomposition is a frequent approach to analyze and structure objects
for FEA requirements. Section 2.4 has highlighted the limits of current morphological
analysis methods and underlined the need of more robust automatic techniques adapted
to FE model generation. The proposed approach uses the generative construction
graph GD to perform a morphological analysis of CAD components adapted to FEA
requirements. Section 4.2 has addressed the advantages of construction graphs to
structure the shape of a component. It proposes a compact shape decomposition of
primitives containing a fair amount of information that is intrinsic to this shape. The
geometric structure of GD with sub-domains and associated interfaces is close to the
structure described in Section 5.2.1 with regions candidate to idealization. GD also
offers various construction processes which enable the engineer to construct and study
various simulation models that can be derived from the same component using different
construction processes.
Generating the idealization of an object M from a set of primitives, obtained from
its construction graph GD, is more robust compared to the prior idealization methods
for three reasons:
• The information contained in GD is intrinsic to the definition of primitives. Each
maximal primitive Pi ∈ GD and its associated interfaces determine both the
3D location of the idealized representation of Pi and its connections with its
neighboring idealized primitives;
• The effective use of connections between sub-domains to be idealized. A taxonomy
of categories of connections can be defined. This classification determines
the most suitable geometric operator to process each connection. Currently, the
idealization process still relies on the engineer’s expertise to manage complex
connections whereas a CAD or a CAE software is bound to much simpler connections;
• Shape modification processes of components. When a component shape modification
is performed, only the impacted primitives have to be revised in its
123Chapter 5: Performing idealizations from construction graphs
· Global morphological analysis of each primitive Pi using extrusion distance
· Morphological analysis of the extrusion contour of each primitive Pi and determination of the geometric
sub-domains Dj(Pi)to be idealized in Pi
Morphological analysis of the primitives Pi
01
step
Extension of the morphological analysis of primitives Pi to the whole object
02
step
· Categorization of the interfaces IG between primitives Pi
· Segmentation of the primitives Pi in new partitions P’ based on the interfaces IG typology
· Merge or make independent the new partitions P’ with the primitives Pi to obtain a segmentation which is
most suited for idealization
Idealization of the primitives Pi and processing connections
· Generation of mid-surface and mid-lines of the primitives Pi to be idealized
· Connections of the idealized models of the primitives Pi
03
step
Figure 5.2: Global description of an idealization process.
construction graph. Therefore, the idealization process can be locally updated
and does not have to be restarted over from its shape decomposition.
The next section details the structure of the proposed idealization process from the
exploitation of the geometric information provided with the construction graph GD of
a component to the generation of its idealized models.
5.2.2 Structure of the idealization process
The idealization process of an object M is based on morphological analysis operations,
idealization transformations and connections between idealized sub-domains. Its
objective is to produce the idealized model, denoted by MI , of the initial object M.
Figure 5.2 contains a comprehensive chart illustrating the various steps of the proposed
idealization process. In a first step, the decomposition of M into primitives Pi,
described in the graph GD, leads to a first morphological analysis of each primitive Pi.
For each extrusion primitive, this morphological analysis determines whether Pi has a
morphology of type plate, shell, or a morphology of type thick 3D solid (see Section 5.2
describing the morphology categories). This first step is described in Section 5.3.1.
Then, a second morphological analysis is applied to each primitive Pi to determine
whether or not it can be subdivided into sub-domains Dij , morphologically different
from the one assigned to Pi. This analysis is performed using the 2D extrusion contour
124Chapter 5: Performing idealizations from construction graphs
of the primitive Pi. The resulting decomposition of Pi generates new interfaces IG,
integrated in GD.
In a second phase, using a typology of connections between the different categories
of idealizations, the interfaces IG between Dij are used to propagate and/or update
the boundary of the primitives Pi. This step, described in Section 5.3.3, results in
the decomposition of the object M into sub-domains with a morphology of type beam,
plate/shell, or 3D thick solid. The third phase consists in generating the idealization of
each primitive Pi and then, it connects the idealized domains of Pi using the typology
and the location of the interfaces IG. During this operation, the morphology of each
Pi, combined with the typology of each of its interfaces IG, is used to identify regions
to be considered as details, independently from any FE size. The generation of an
idealized model is described in Section 5.5.
Overall, the different phases illustrated in Figure 5.2 fit into an automated process.
The engineer can be involved in it to select some connection model between idealized
sub-domains or some boundary adjustment category of idealized sub-domain depending
on its types of connections. The next sections detail each step of the proposed
idealization process.
5.3 Applying idealization hypotheses from a construction
graph
The purpose of this section is to illustrate how the construction graph GD of an object
M obtained with the algorithm described at Section 4.5.2 can be used in shape idealization
processes. In fact, idealization processes are high level operations that interact
with the concept of detail because the idealization of sub-domains, i.e., Pi obtained
from GD, triggers their dimensional reduction, which, in turn, influences the shape
of areas around IGs, the geometric interfaces between these sub-domains. Here, the
proposed approach is purely morphological, i.e., it does not depend on discretization
parameters like FE sizes. It is divided into two steps. Firstly, each Pi of GD is evaluated
with respect to an idealization criterion. Secondly, according to IGs between Pis,
the ‘idealizability’ of each Pi is propagated in GD through the construction graph up
to the shape of M. As a result, an engineer can evaluate effective idealizable areas.
Also, it will be shown how variants of construction trees in GD can influence an idealization
process. Because the idealization process of an object is strongly depending
on the engineer’s know-how, it is the principle of the proposed approach to give the
engineer access to the whole range of idealization variants. Finally, some shape details
will appear subsequently to the idealization process when the engineer will define FE
sizes to mesh the idealized representation of M.
125Chapter 5: Performing idealizations from construction graphs
e
Thickness
Max Diameter
d
d
(a) (b)
e
Figure 5.3: Determination of the idealization direction of extrusion primitives using a 2D
MAT applied to their contour. (a) Configuration with an extrusion distance (i.e., thickness d
= e) much smaller than the maximal diameter obtained with the 2D MAT on the extrusion
contour, the idealization direction corresponds to the extrusion direction (b) Configuration
with an extrusion distance much larger than the maximal diameter obtained with the 2D MAT
on the extrusion contour, the idealization direction is included in the extrusion contour.
5.3.1 Evaluation of the morphology of primitives to support
idealization
Global morphological analysis of each primitive Pi
In a first step, each primitive Pi extracted from GD is subjected to a morphological
analysis to evaluate its adequacy for idealization transformation into a plate or a shell.
Because the primitives are all extrusions and add material, analyzing their morphology
can be performed with a MAT [MAR12, RAM∗06, SSM∗10].
A MAT is particularly suited to extrusion primitives having constant thickness since
it can be applied in 2D. Furthermore, it can be used to decide whether or not subdomains
of Pi can be assigned a plate or shell mechanical behavior. In the present case,
the extrusion primitives obtained lead to two distinct configurations (see Figure 5.3).
Figure 5.3a shows a configuration with a thin extrusion, i.e., the maximal diameter Φ
obtained with the MAT from Pi’s contour is much larger than Pi’s thickness defined by
the extrusion distance d. Then, the idealized representation of Pi would be a surface
parallel to the base face having Pi’s contour. Figure 5.3b shows a configuration where
the morphology of Pi leads to an idealization that would be based on the content of
the MAT because d is much larger than Φ.
To idealize a sub-domain in mechanics [TWKW59], a commonly accepted reference
proportion used to decide whether a sub-domain is idealizable or not is a ratio of ten
between the in-plane dimensions of the sub-domain and its thickness, i.e., xr = 10.
Here, this can be formalized with the morphological analysis of Pi obtained from the
MAT using: x = max((max Φ/d),(d/max Φ)). Consequently, the ratio x is applicable
for all morphologies of extrusion primitives.
126Chapter 5: Performing idealizations from construction graphs
d: extrusion distance
d = 2
(b)
(c)
d < max Ø
x =
d > max Ø
x d =
max Ø
max Ø Ratio x
MAT 2D
d = 35
0 3
xu xr
1.5 < <25
x 1.5 = 25 = 16.6 d = 1.5
(a)
Max Diameter Ø = 25
Max Diameter Ø = 10
d = 25
Max Diameter Ø = 25
Primitive Morphology
(d)
35 > 10
x 10 = 35 = 3.5
2 < 10
x 2 = 10 = 5
25 = 25
x 25 = 25 = 1
10
Max Diameter Ø = 10
d
Table 5.1: Categorization of the morphology of a primitive using a 2D MAT applied to the
contour of extrusion primitives. Violet indicates sub-domains that cannot be idealized as
plates or shells (see component d), green ones can be idealized (see component a) and yellow
ones can be subjected to user decision (see component b and c).
127Chapter 5: Performing idealizations from construction graphs
Because idealization processes are heavily know-how dependent, using this reference
ratio as unique threshold does not seem sufficient to help an engineer analyze
sub-domains, at least because xr does take precisely into account the morphology of
Pi’s contour. To let the engineer tune the morphological analysis and decide when Pi
can/cannot be idealized a second, user-defined threshold, xu < xr, is introduced that
lies in the interval ]0, xr[. Figure 5.3b illustrates a configuration where the morphological
analysis does not produce a ratio x > xr though a user might idealize Pi as a
plate.
Let xu = 3 be this user-defined value, Table 5.1 shows the application of the 2D
MAT to the contours of four extrusion primitives. This table indicates the three categories
made available to the engineer to visualize the morphology of Pi. Primitives
with a ratio of x > xr, e.g., primitive (a), are considered to be idealizable and are
colored in green. Primitives with a ratio of xu < x < xr, e.g., primitives (b) and (c),
are subjected to a user’s decision for idealization and are colored in yellow. Finally,
primitives with a ratio x < xu, e.g., primitive(d), indicate sub-domains that cannot be
idealized and are colored in violet.
Figure 5.4 illustrates the evaluation of the morphology of the primitives of a component
prior to its idealization. The component has been initially segmented into
15 extrusion primitives using the algorithm presented at Section 4.5.2. Then, the 2D
MAT has been applied to the extrusion contour of each primitive to determine the
maximal diameter Φ. Finally, this diameter is compared to the extrusion distance of
the corresponding primitive to determine the ratio x. Three morphological evaluations
are presented in Figure 5.4 that correspond to different values of the thresholds xu and
xr, which are set to (a) (3, 10), (b) (6, 10), and (c) (2, 10), respectively.
Figure 5.5 shows the result of the interactive analysis the user can perform from the
graphs GD obtained with the components analyzed in Figures 5.5a, b, c, and d. It has
to be mentioned that the morphological analysis is applied to GD rather than to a single
construction tree structure so that the engineer can evaluate the influence of D with
respect to the idealization processes. However, the result obtained on the component
in Figure 4.20 shows that the variants in GD have no influence with respect to the
morphological analysis criterion, in the present case. Consequently, Figure 5.5 displays
the morphological analysis obtained from the variant M−j2 in Figure 4.20. Results
on components in 5.5a, c also show the clear use of this criterion because some nonidealizable
sub-domains (see indications in Figure 5.5 regarding violet sub-domains)
are indeed well proportioned to be idealized with beams.
Now, considering the morphological classification of sub-domains stated in Section
5.2.1, this first morphological analysis of Pi acts as a necessary condition for Pi to
fall into a category of:
• plate/shell but Pi can contain sub-domains Dij where Φ can get small enough
to produce a beam-like shape embedded in Pi, see Figure 5.6a. In any case, Pi
128Chapter 5: Performing idealizations from construction graphs
Ø
0
3
10
x
Ø
Ø
Ø
Max Diameter Ø
Extrusion distance d
xr
xu
v
0
6
x
xr
xu
Ratio x
0
2
x
xr
xu
10 10
Ø
Ø Ø Ø
Ø
Evaluation of sub domain for idealization
Identification of Maximal
diameter in 2D sketch
using MAT
Segmentation from
Construction Graph
d < max Ø
x =
d > max Ø
x d =
max Ø
max Ø
d
(a) (b) (c)
Figure 5.4: Example of the morphological evaluation of the extrusion primitives extracted
during the construction process of a component. Violet indicates sub-domains that cannot
be idealized as plates or shells, green ones can be idealized and yellow ones are up to the
user’s decision.
129Chapter 5: Performing idealizations from construction graphs
T
T
B
B
sub domains idealizable as beams
(a) (c) T B
0
3
10
x
xr
xu
T B (b)
(d)
Figure 5.5: Idealization analysis of components. T and B indicate Top and Bottom views of
the component, respectively. The decomposition of a is shown in Figure 4.20 and decompositions
of b, c and d are shown in Figure 4.19. Violet indicates sub-domains that cannot be
idealized as plates or shells, green ones can be idealized and yellow ones can be subjected to
user’s decisions.
130Chapter 5: Performing idealizations from construction graphs
Beam
local sub-domain to idealize as beam
local sub-domain
to consider as detail
local sub-domain
to idealize as beam
Beam
Primitive Pi
Dij
Dik
d
local Ø ≈ d << max Ø
max Ø
local Ø
local Ø ≈ d << max Ø
d
d
local Ø << d ≈ max Ø
Detail
(a)
(b)
(c)
Figure 5.6: Illustration of primitives’ configurations containing embedded sub-domains Dik
which can be idealized as beams or considered as details. (a) Primitive morphologically identified
as a plate which contains a beam sub-domain, (b) primitive morphologically identified
as a plate which contains a volume sub-domain to be considered as a detail, (c) primitive
morphologically identified as a thick domain which contains a beam sub-domain
cannot contain a sub-domain of type 3D thick domain because the dominant
sub-domain Dij is morphologically a plate/shell. If there exists a sub-domain
Dik, adjacent to Dij , such that x < xu, i.e., it is morphologically thick, Dik is
not mechanically of type 3D thick domain because it is adjacent to Dij . Indeed,
Dik can be regarded as a detail compared to Dij since the thickness of Dij will
be part of the dimensional reduction process. Figure 5.6b shows an example of
such configuration;
• 3D thick domain because Pi contains at least one dominant sub-domain Dij
of this category. However, it does not mean that Pi does not contain other subdomains
Dik that can be morphologically of type plate/shell or beam. Figure 5.6b
illustrates a beam embedded in a 3D thick domain.
Indeed, all green sub-domains and yellow ones validated by the engineer can proceed
with the next step of the morphological analysis. Similarly, violet sub-domains cannot
be readily classified as non idealizable. Such configurations show that the classification
described in Section 5.2.1 has to take into account the relative position of sub-domains
Dij of Pi and they are clearly calling for complementary criteria that are part of the
next morphological analysis where Pi needs to be decomposed into sub-domains Dij to
refine its morphology using information from its MAT.
131Chapter 5: Performing idealizations from construction graphs
Determination of geometric sub-domains Dij to be idealized in Pi
Then, in a second step, another morphological analysis determines in each primitive
Pi if some of its areas, i.e., sub-domains Dij , can be associated with beams and, therefore,
admit further dimensional reduction. Indeed, the previous ratio x determines
only one morphological characteristic of a sub-domain Dij , i.e., the dominant one, of
Pi because the location of the MAT, where x is defined, is not necessarily reduced to a
point. For example, Figure 5.7 illustrates a configuration where x holds along a medial
edge of the MAT of the extrusion contour. Similarly to the detail removal using MAT
conducted by Armstrong et al. [Arm94], a new ratio y is introduced to compare the
length of the medial edge to the maximal disk diameter along this local medial edge.
The parameter y is representative of a local elongation of Pi in its contour plane and
distinguishes the morphology of type beam located inside a morphology of type plate
or shell when the starting configuration is of type similar to Figure 5.3a. If Pi is similar
to Figure 5.3b, then the dominant Dij is of type beam if x appears punctually or of
type plate/shell if x appears along a medial edge of the MAT of the extrusion contour
of Pi.
Appendix C provides two Tables C.1 and C.2 with 18 morphological configurations
associated with a MAT medial edge of a primitive Pi. The two tables differ according
to whether the idealization direction of Pi corresponds to the extrusion direction, see
Table C.1 (type similar to Figure 5.3a), or whether the idealization direction of Pi is
included in the extrusion contour, see Table C.2 (type similar to Figure 5.3b). The
reference ratio xr and user ratio xu are used to specify, in each table, the intervals of
morphology differentiating beams, plates or shells and 3D thick domains. Therefore,
nine configurations are presented in Table C.1 illustrating the elongation of the extrusion
contour of Pi. Table C.1 allows both the elongation of the extrusion distance
and the elongation of the extrusion contour, this produces also nine configurations.
These tables illustrates 18 morphological possible configurations when the medial edge
represents a straight line with a constant radius for the inscribed circles of the MAT.
Other configurations can be found when the medial edge is a circle, or more generally,
a curve or when the radius is changing along the medial edge. These configurations
have not been studied in detail and are left for future work.
L1
L2
max Ø
x = L1 / max Ø
y = L2 / max Ø
xu = 10 (user threshold)
L1 < xu . max Ø
L2 > xu . max Ø
Figure 5.7: Example of a beam morphology associated with a MAT medial edge of a primitive
Pi.
132Chapter 5: Performing idealizations from construction graphs
Tables C.1, C.2 of Appendix C represents a morphological taxonomy associated
with one segment of the MAT of Pi. Because the extrusion contour of Pi consists
in line segments and arcs of circles, the associated MAT has straight and curvilinear
medial edges which can be categorized as follows:
1. Medial edges with one of their end point located on the extrusion contour of Pi,
the other one being connected to another medial edge;
2. Medial edges with their two end points connected to other medial edges. In the
special case of a segment having no end point, e.g., when the extrusion contour
is a circular ring, its MAT reduces to a closed circle and falls into this category.
Segments of category 1 are deleted and the morphological analysis focuses on the
segments of category 2 which are noted Sij . On each of these edges, the ratio y includes
a maximum located at an isolated point or it is constant along the entire edge. ymax
represents this maximum and is assigned to the corresponding medial edge, Sij . The
set of edges Sij is automatically classified using the taxonomy of Tables C.1, C.2 or
some of them can be specified by the engineer wherever yu < y < yr. This is the
interactive part left to the engineer to take into account his, resp. her, know-how.
Pi is segmented based on the changes in the morphological classification of the
edges Sij . This decomposition generates a set of sub-domains Dij of each primitive Pi.
These sub-domains Dij are inserted with their respective morphological status and their
geometric interfaces in the graph GD. Figure 5.8 summarizes the different phases of the
morphological analysis of each extrusion primitive Pi extracted from the construction
graph GD of on object M. Because each sub-domain Dij is part of only one primitive
Pi, it can also be considered as a new primitive Pk. To reduce the complexity in the
following process, the sub-domains Dij are regarded as independent primitives Pk.
These results are already helpful for an engineer but it is up to him, or her, to
evaluate the mechanical effect of IGs between primitives Pi. To support the engineer
in processing the stiffening effects of IGs, the morphological analysis is extended by a
second step described as follows.
5.3.2 Processing connections between ‘idealizable’ sub-domains
Dij
The morphological analysis of standalone primitives Pi is the first application of GD.
Also, the decomposition obtained can be used to take into account the stiffening effect
of interfaces IG between Pi or, more generally, between Dij , when Pi
1 are iteratively
1From now on Pi designates sub-domains that correspond to primitives Pi obtain from the segmentation
of M or one subdivision domain Dkj of a primitive Pk decomposed after the morphological
analysis described at Section 5.3.1.
133Chapter 5: Performing idealizations from construction graphs
For each extrusion primitivePi
MAT 2D on extrusion contour of Pi
Input: set of primitives Pi from construction graph GD of an object M
Output: set of sub-domains Dij of morphology type beams, plates or shells and 3D thick domains
Determination of Pi global morphology (x =max((max Φ / d), (d / max Φ))
For each medial edge Sij of the MAT 2D of category 2
Determination of the morphology associated with Sij (y = LSij / max Φ )
If morphology (Sij) ≠ morphology (Pi)
and Sij not a detail
Segmentation of Pi in sub-domains Dij and insertion in GD
Primitive Pi
Figure 5.8: Synthesis of the process to evaluate the morphology of primitives Pi.
merged together along their IG up to obtain the whole object M. As a result, new
sub-domains will be derived from the primitives Pi and the morphological analysis will
be available on M as a whole, which will be easier to understand for the engineer. To
this end, a taxonomy of connections between extrusion sub-domains is mandatory.
Taxonomy of connections between extrusion sub-domains to be idealized
This taxonomy, in case of ”plate sub-domain connections”, is summarized in Figure
5.9a. It refers to parallel and orthogonal configurations for simplicity but these
configurations can be extended to process a larger range of angles, i.e., if Figure 5.9
refers to interfaces IG of surface type, these configurations can be extended to interfaces
IG of volume type when the sub-domains S1 and S2 are rotated w.r.t. each other.
More specifically, it can be noticed that the configuration where IG is orthogonal to
the medial surfaces of S1 and S2 both is lacking of robust solutions [Rez96, SSM∗10]
and other connections can require deviation from medial surface location to improve
the mesh quality. Figure 5.18c illustrates such configurations and further details are
given in Section 5.5.2.
Figure 5.9 describes all the valid configurations of IG between two sub-domains S1
and S2 when a thickness parameter can be attached to each Pi, which is presently the
case with extrusion primitives.
Figure 5.9a depicts the four valid configurations: named type (1), (2), (3), (4).
These configurations can be structured into two groups: type (1) and type (4) form the
134Chapter 5: Performing idealizations from construction graphs
(b)
S2 S2
S1
S1
S2
S1
S2
S1
(c)
Fb1S1
Fb1S2
Fb1S2
IG
IG
Orthogonal to S1
and Parallel to S2:
Orthogonal:
Parallel:
Parallel: S1 // S2 Orthogonal:
Medial Surface S1
vs Medial Surface S2
Interface IG
vs Medial Surface S1 & S2
S1
S1
S1
S1
S2
S2 S2
S2
IG
IG
IG
IG
IG ^ S1
IG // S2
type (1)
I'G
I'G
I'G I'G
IG ^ S1
IG ^ S2
IG // S1
IG // S2
type (1) e1
e2
e1
e1
e1
e2
e2
e2
e1+e2
e1+e2
e1+e2
I'G
I'G
S'1
S'2
S'3
type (4)
e2
e1
e2
e1
e2
I'G I'G
S''21 S''22
S'21 S'22
type (2)
(a)
type (2)
type (3)
type (4)
type (2)
type (2)
type (2)
type (1)
type (4)
C2
C1
C1
C2
Figure 5.9: (a) Taxonomy of connections between extrusion sub-domains Pi. (b) Decomposition
of configurations type(1) and type(4) into sub-domains Pi showing that the decomposition
produced reduces to configurations type (2) only. (c) example configurations of types (1)
and (4) where S1 and S2 have arbitrary angular positions that generate volume interfaces
IG where base faces Fb1S1 and Fb1S2 are intersection free in configuration type (1) and Fb1S2
only is intersection free in configuration type (4). 135Chapter 5: Performing idealizations from construction graphs
group C1, and (2) and type (3) form the group C2. Figure 5.9b illustrates the effect
of the decomposition of configurations type (1) and type (4) that produces configurations
(2) only.
Reduced set of configurations using the taxonomy of connections
Configuration type (1) of C1 is such that the thicknesses e1 and e2 of S1 and S2 respectively,
are influenced by IG, i.e., their overlapping area acts as a thickness increase
that stiffens each of them. This stiffening effect can be important to be incorporated
into a FE model as a thickness variation to better fit the real behavior of the corresponding
structure. Their overlapping area can be assigned to either S1 or S2 or form
an independent sub-domain with a thickness (e1 + e2). If S1 and S2 are rotated w.r.t.
each other and generate a volume IG, the overlapping area still exists but behaves with
a varying thickness. Whatever the solution chosen to represent mechanically this area,
the sub-domains S1 and S2 get modified and need to be decomposed. The extent of
S2 is reduced to produce S�
2 now bounded by I�
G. Similarly, the extent of S1 is reduced
to S�
1 now bounded by another interface I�
G. A new sub-domain S�
3 is created that
contains IG and relates to the thickness (e1 + e2) (see Figure 5.9b). Indeed, with this
new decomposition IG is no longer of interest and the new interfaces I�
G between the
sub-domains S�
i produce configurations of type (2) only.
Similarly, configuration (4) is such that S2 can be stiffened by S1 depending on the
thickness of S1 and/or the 2D shape of IG (see examples in Figure 5.11). In this case,
the stiffening effect on S2 can partition S2 into smaller sub-domains and its IG produces
a configuration of type (2) with interfaces I�
G when S2 is cut by S1. The corresponding
decomposition is illustrated in Figure 5.9b and Figure 5.10. This time, IG is still
contributing to the decomposition of S1 and S2 but S2 can be decomposed in several
ways (S�
21 , S�
22 ) or (S��
21 , S��
22 ) producing interfaces I�
G. Whatever, the decomposition
selected to represent mechanically this area, the key point is that I�
G located on the
resulting decomposition are all of same type that corresponds to configuration (2).
Configuration (1) reduces the areas of S1 and S2 of constant thicknesses e1 and e2,
which can influence their ‘idealizability’. Configuration (4) reduces the area of S2 of
thickness e2 but it is not reducing that of S1, which influences the ‘idealizability’ of
S2 only. As a result, it can be observed that processing configurations in C1 produce
new configurations that always belong to C2. Now, considering configurations in C2,
none of them is producing stiffening effects similar to C1. Consequently, the set of
configurations in Figure 5.9a is a closed set under the decomposition process producing
the interfaces I�
G. More precisely, there is no additional processing needed for C2 and
processing all configurations in C1 produces configurations in C2, which outlines the
algorithm for processing iteratively interfaces between Pi and shows that the algorithm
always terminates.
Figure 5.9a and b refers to interfaces IG of surface type. Indeed, GD can produce
136Chapter 5: Performing idealizations from construction graphs
interfaces of volume type between Pi. This is equivalent to configurations where S1 and
S2 departs from parallel or orthogonal settings as depicted in Figure 5.9. Such general
configurations can fit into either set C1 or C2 as follows. In the 2D representations of
Figure 5.9a, b, the outlines of S1 and S2 define the base faces Fb1 and Fb2 of each Pi.
What distinguishes C1 from C2 is the fact that configurations (1) and (4) each, contains
at least S2 such that one of its base face (Fb1S2 in Figure 5.9c) does not intersect S1 and
this observation applies also for S1 in configuration (1) (Fb1S1 in Figure 5.9c). When
configurations differ from orthogonal and parallel ones, a first subset of configurations
can be classified into one of the four configurations using the distinction observed, i.e.,
if a base face of either S1 or S2 does not intersect a base face of its connected subdomain,
this configuration belongs to C1 and if this property holds for sub-domains S1
and S2 both, the corresponding configuration is of type (1). Some other configurations
of type (4) exist but are not detailed here since the purpose of the above analysis
is to show how the reference configurations of Figure 5.9a can be extended. The
completeness of configurations has not been entirely investigated yet.
5.3.3 Extending morphological analyses of Pi to the whole object
M
Now, the purpose is to use the stiffening influence of some connections as analyzed in
Section 5.3.2 to process all the IG between Pi, to be able to propagate and update the
‘idealizability’ of each Pi when merging Pis. This process ends up with a new subdivision
of some Pi as described in the previous section and a decomposition of M into
a new set of sub-domains Pi
2, each of them having an evaluation of its ‘idealizability’
so that the engineer can evaluate more easily the sub-domains he, or she, wants to
effectively idealize.
The corresponding algorithm can be synthesized as follows (see algorithm 2). The
principle of this algorithm is to classify IG between two Pi such that if IG belongs
to C1 (configurations 1 and 4 in algorithm 2), it must be processed to produce new
interface(s) I�
G and new sub-domains that must be evaluated for idealization (procedure
Propagate morphology analysis). Depending on the connection configuration between
the two primitives Pi, one of them or both are cut along the contour of IG to produce the
new sub-domains. Then, the MAT is applied to these new sub-domains to update their
morphology parameter (procedure MA morphology analysis) that reflects the effect of
the corresponding merging operation taking place between the two Pi along IG that
stiffens some areas of the two primitives Pi involved. The algorithm terminates when
all configurations of C1 have been processed.
Among the key features of this algorithm, it has to be observed that the influence
2Here again like in Section 5.3.1, Pi designates also the set of sub-domains Dkj that can result
from the decomposition of a primitive Pk when merging it with some other Pl sharing an interface
with Pk.
137Chapter 5: Performing idealizations from construction graphs
Algorithm 2 Global morphological analysis
1: procedure P ropagate morphologyanalysis(GD, xu) � The main procedure to extend morphological analyses of
sub-domains to the whole object
2: for each P in list prims(GD) do
3: if P.x > xu then � If the primitive has to be idealized
4: for each IG in list interfaces prim(P) do
5: P ngh = Get connectedprimitive(P, IG)
6: if IG.conf ig = 1 or IG.conf ig = 4 then
7: interV ol = Get interfaceV ol(P, P ngh, IG)
8: Pr = Remove interfaceV ol(P, interV ol) � Update the primitive by removing the volume
resulting from interfaces with neighbors
9: for i = 1 to Card(Pr) do � New morphological analysis of the partitions Pr
10: P� = Extract partition(i, Pr)
11: P�
.x = MA morpho analysis(P�
)
12: P ngh.x = MA morph analysis(P ngh)
13: if IG.conf ig = 1 then
14: if P ngh.x > xu then
15: P rngh = Remove interV ol(P ngh, interV ol)
16: interV ol.x = MA morph analysis(interV ol)
17: for j = 1 to Card(P rngh) do
18: P� ngh = Extract partition(j, P rngh)
19: P� ngh.x = MA morpho analysis(P� ngh)
20: if interV ol.x < xu then � If the interVolume is ‘idealizable’
21: Merge(P, P ngh, interV ol) � Merge the intervolume either with P or P ngh
22: end if
23: end for
24: else � If the interVolume is not ‘idealizable’
25: P = P�
26: Merge(P ngh, interV ol) � Merge the interVolume with the neighboring primitive
which is non ‘idealizable’
27: end if
28: Remove prim(P ngh, list prims(GD))
29: end if
30: if P�
.x < xu then � if a partition is not ‘idealizable’
31: Merge(P ngh, P�
) � Merge the partition with the non ‘idealizable’ primitive neighbor
32: end if
33: end for
34: end if
35: end for
36: end if
37: end for
38: end procedure
39: procedure MA morphology analysis(Pi) � Procedure using the 2D MAT on the extrusion contour of a primitive
40: Cont = Get Contour(Pi)
41: listof pts = Discretize contour(Cont)
42: vor = V oronoi(listof pts) � MAT generated using Voronoi diagram of a set of points
43: maxR = Get max radius of inscribed Circles(vor)
44: x = Set primitive idealizableT ype(maxR, Pi)
45: return x
46: end procedure
138Chapter 5: Performing idealizations from construction graphs
Init CAD model
Modeling
processes Evaluation of sub
domains morphology
Same results of
morphology analysis
IG
(4)
(4)
IG
A
B
Modeling
processes
OR
New
Sub domains
Volume Interface I’G
New
Sub domains
Volume Interface I’G
Figure 5.10: Propagation of the morphology analysis of each Pi to the whole object M. A
and B illustrates two different sets of primitives decomposing M and numbers in brackets
refer to the configuration category of interfaces (see Section 5.3.2.)
of the primitive neighbor Pngh of Pi, is taken into account with the update of Pi that
becomes Pr. Indeed, Pr can contain several volume partitions, when Card(Pr) > 1,
depending on the shapes of Pi and Pngh. Each partition P� of Pr may exhibit a different
morphology than that of Pi, which is a more precise idealization indication for the
engineer. In case of configuration 1, the overlapping area between Pngh and Pi must
be analyzed too, as well as its influence over Pngh that becomes Prngh . Here again,
Prngh may exhibit several partitions, i.e., Card(Prngh ≥ 1), and the morphology of
each partition P�
ngh must be analyzed. If the common volume of P�
ngh and P� is not
idealizable, it is merged with either of the stiffest sub-domains Pngh or Pi to preserve
the sub-domain the most suited for idealization. In case a partition P� of Pr is not
idealizable in configuration 4, this partition can be merged with Pngh if it has a similar
morphological status.
Figure 5.10 illustrates this approach with two modeling processes of a simple component.
Both processes contain two primitives to be idealized by plate elements and
interacting with a surface interface of type (4). The stiffening effect of one primitive on
the other creates three sub-domains with interfaces I�
G of type (2). The sub-domain in
violet, interacting with both sub-domains to be idealized, can be merged with each of
the other sub-domains to create a fully idealized geometry or it can be modeled with
a specific connection defined by the user.
Full examples of the extension of the morphological analysis to the whole object
M using the interfaces IG between the primitives of GD, are given in Figure 5.11.
Figures 5.11a, b and c show the sub-domain decomposition obtained after processing
the interfaces IG between primitives Pi of each object M. The same figures illustrate
also the update of the morphology criterion on each of these sub-domains when they
are iteratively merged through algorithm 2 to form their initial object M. Areas A
and B show the stiffening effect of configurations of category (1) on the morphology
139Chapter 5: Performing idealizations from construction graphs
(a) (b)
T T
B B
(c) C
A
D
B
T T B B
Figure 5.11: Propagation of the morphology analysis on Pi to the whole object M. a, b and c
illustrate the influence of the morphology analysis propagation. The analyzed sub-domains
are iteratively connected together to form the initial object. T and B indicate the top and
bottom views ob the same object, respectively.
of sub-domains of M. Areas C and D are examples of the subdivision produced with
configurations of type (4) and the stiffening effects obtained that are characterized by
changes in the morphology criterion values.
After applying algorithm 2, one can notice that every sub-domain strictly bounded
by one interface IG of C2 or by one interface I�
G produced by this algorithm gives a
precise idealization information about an area of M. Areas exhibiting connections of
type (1) on one or two opposite faces of a sub-domain give also precise information,
which is the case for examples of Figure 5.11. However, if there are more piled up
configurations of type (1), further analysis is required and will be addressed in the
future.
Conclusion
This section has shown how a CAD component can be prepared for idealization. The
initial B-Rep geometry has been segmented into a set of extrusion primitives Pi using
its construction graph GD. Using a taxonomy of geometric interfaces, a morphological
analysis has been applied to these primitives to identify the ‘idealizable’ areas over
the whole object. As a result, the geometric model is partitioned into volume subdomains
which can be either idealized by shell or beams or not idealized at all. At
that stage, only a segmentation of a standalone component has been analyzed. Neither
the compatibility with an assembly structure nor the influence of external boundary
conditions have been addressed yet, as this is the purpose of the next section.
140Chapter 5: Performing idealizations from construction graphs
C1
C2
I1/2
Assembly interface
F Boundary condition:
Load F =500N
Boundary condition:
rigid condition to wall
C3
C3 = C1 U C2
F
Assembly interface considered
as a rigid connection
between C1 and C2
Figure 5.12: Influence of an assembly interface modeling hypothesis over the transformations
of two components
5.4 Influence of external boundary conditions and
assembly interfaces
As explained in Section 4.7, an assembly model is composed of a set of 3D solid components
linked to each other through functional interfaces. A boundary condition that is
external to the assembly, as defined in Section 1.4.2, also acts as an interface between
the object and its external environment. Figure 5.12 illustrates two types of boundary
conditions, a load acting on component C1 and a rigid connection with the environment
on C2. These areas are defined by the user and are represented as a geometric
region on its B-Rep surface which is equivalent to an assembly interface, except that
the interface is only represented on one component.
Each component of the assembly can be segmented using respective construction
graphs. However, the segmentation of components generates new geometric interfaces
between primitives which can be influenced by the assembly interfaces. Therefore, this
section aims at studying the role of assembly interfaces and boundary conditions in the
idealization process. They can be analyzed either before the morphological analysis as
input data or after the segmentation of components.
Impact of the interface modeling hypotheses
Depending on the simulation objectives, the engineer decides if he, resp. she, wants
to apply some mechanical behavior over some assembly interfaces (see Table 1.2).
This first choice highly influences the components’ idealization. As it is highlighted
in Section 6.2.1, the engineer may decide not to apply any mechanical behavior at a
common interface between two components, e.g., with the definition of rigid connections
between their two mesh areas to simulate a continuous medium between components
at this interface. This modeling hypothesis at assembly interfaces influences directly
the geometric transformations of components. As illustrated in Figure 5.12, a set of
components connected by rigid connections can be seen as a unique component after
merging them. Therefore, to reduce the complexity of the FEA pre-processing, the
141Chapter 5: Performing idealizations from construction graphs
morphological analysis can be applied to this unique component instead of applying it
to each component individually.
In case the engineer wants to assign a mechanical behavior to interfaces between
components, these interfaces ought to appear in the final idealized model. Now, defining
when this assignment can take place during the pre-processing enumerates:
a) at the end of the idealization process, i.e., once the components have been idealized;
b) during the segmentation process, i.e., during the construction graph generation
of each component or during their morphological analysis.
These two options are addressed in the following parts of this section. In this section,
only the geometric aspect of assembly interfaces is addressed. The transfer of
meta-information, e.g., friction coefficient, contact pressure is not discussed here.
Applying assembly interfaces information after components’ idealization
In a first step, this part of the section studies the consequences of integrating assembly
interfaces at the end of the idealization process, i.e., option (a) mentioned above.
These assembly interfaces represent information that is geometrically defined by the
interactions between components. These interactions have a physical meaning because
the contacts between components exist physically in the final product though a physical
contact may not be always represented in a DMU as a common area between the
boundaries of two components [SLF∗13] (see Section 1.3.2). For sake of simplicity,
let us consider that physical contacts are simply mapped to common areas between
components. Then, the assembly interfaces are initially prescribed in contrast with
geometric interfaces, IG between primitives of a component that have been created
during its segmentation process and aim at facilitating the geometric transformations
performed during the idealization process of a component.
One can observe that these assembly interfaces have to be maintained during the
dimensional reduction operations of each component. However, these interfaces can
hardly be transferred using the only information provided by the idealized models. For
example, Figure 5.13b shows that a projection of the assembly interface on the idealized
model of C1 could generate narrow areas which would be difficult to mesh and, on that
of C2, could produce areas that fall outside the idealized model of C2. This assembly
interface has been defined on the initial solid models of C1 and C2. If this link is lost
during the idealization process, a geometric operator, i.e., like the projection operator
just discussed, has to recover this information to adapt this interface on the idealized
assembly model. Therefore, to obtain robust transformations of assembly interfaces,
these interfaces have to be preserved during the dimensional reduction processes of each
142Chapter 5: Performing idealizations from construction graphs
Assembly
interface
Generation
of narrow mesh areas
C1
C2
CAD + assembly interfaces Idealized representation
Projection of
assembly interface
(a) (b)
Non-correspondance
between interface
and idealized surfaces
Figure 5.13: Illustration of the inconsistencies between an assembly interface defined between
initial CAD components C1 and C2 (a) and its projection onto their idealized representations
(b).
component. Each of these interfaces, as a portion of the initial solid boundary of a
component, has a corresponding representation in its idealized model. This equivalent
image would have to be obtained through the transformations applied to the initial
solid model of this component to obtain its idealized representation.
Integration of assembly interfaces during the idealization process
In a second step, this part of the section addresses the option (b) mentioned above.
As stated in Section 5.4, assembly interfaces have to be generated before the dimensional
reduction of assembly components. Now, the purpose is to determine at which
stage of the proposed morphological analysis process the interfaces should be integrated.
This analysis incorporates the segmentation process, which prepares a component
shape for idealization and is dedicated to a standalone 3D solid. This approach
can be extended to an assembly model from two perspectives described as follows:
b1) The assembly interfaces and boundary conditions can be used to monitor the
definition of specific primitives, e.g., primitives containing the whole assembly
interface. Figure 5.14a illustrates such a decomposition with two components C1
and C2 fitting the assembly interface with only one primitive in both segmentations.
The benefit of this approach lies in avoiding splitting assembly interfaces
across various component primitives, which would divide this assembly interface
representation across all the primitives boundaries;
b2) The segmentation process is performed independently of the assembly interfaces.
Then, they are introduced as additional information when transforming the set
of primitives derived from each component and these interfaces are incorporated
into the idealized representation of each component. In this case, the intrinsic
143Chapter 5: Performing idealizations from construction graphs
Constrained
extrusion face
Integration of external
interfaces after segmentation
(cat. b2)
(a)
(b)
External
assembly interface
Internal
segmentation interface
Integration of external
interfaces before segmentation
(cat. b1)
P1.1
P1.2
I1/2
I1/2
I1/2
I1.1/1.2
I2.1/2.2
I2.1/2.2 I1.1/1.2
P1.1
P1.2
P2.2
P2.2
P2.1
P2.1
C1
C2
C1
C2
Figure 5.14: Two possible schemes to incorporate assembly interfaces during the segmentation
process of components C1 and C2: (a) The assembly interface is used to identify extrusion
primitives of C1 and C2 containing entirely the assembly interface in one extrusion contour,
(b) The assembly interface is integrated after the segmentation of components C1 and C2
and propagated on each of their primitives.
property of the proposed segmentation approach is preserved and the assembly
interfaces are propagated as external parameters on every primitive they are
respectively related to. Figure 5.14b shows the imprints of the assembly interface
on the primitives derived from the segmentation of components C1 and C2.
As a conclusion of the previous analyses, the choice of the idealization process made
in this thesis falls into category (b2). Though a fully detailed analysis would bring complementary
arguments to each of the previous categories, it appears that category (a)
is less robust than category (b), which is an important point when looking for an automation
of assembly pre-processing. Within category (b), (b1) leads to a solution
that is not intrinsic to the shape of a component, which is the case for (b2). With the
current level of analysis, there is no strong argument favoring (b1) over (b2) and (b2)
is chosen to keep the level of standalone component pre-preprocessing decoupled from
that of the assembly level.
Therefore, assembly interfaces are not constraining the extraction of each the construction
graph GD for each component. During the segmentation process, assembly
interfaces are propagated only. Rigid connections only are assembly interfaces that can
be processed prior the component segmentation process without interfering with it.
Indeed, the first part of this section has shown that these interfaces lead to merge the
components they connect. Consequently, the rigid interfaces only can be removed from
the initial CAD components after the corresponding components have been merged,
which simplifies the geometry to be analyzed. From a mechanical point of view, this
operation is equivalent to extending the continuum medium describing each compo-
144Chapter 5: Performing idealizations from construction graphs
nent because their material parameters and other mechanical parameters are strictly
identical.
Then, the other assembly interfaces and external boundary conditions, where a
mechanical behavior has to be represented, are propagated through the segmentation
process and taken into account during the dimensional reduction process. Chapter 6
carries on with the analysis of interactions between simulation objectives, hypotheses
and shape transformations for assembly pre-processing. This helps structuring the
preparation process of an assembly in terms of methodology and scope of shape transformation
operators. Section 6.4 shows an example of automated idealization of an
aeronautical assembly using the idealization process presented in this chapter which is
also taken into account in the methodology set in Chapter 6.
Now that the roles of assembly interfaces and external boundary conditions have
been clarified, the next section focuses on the dimensional reduction of a set of extrusion
primitives connected through geometric interfaces, IG. The objective is to set up a
robust idealization operator enabling the dimensional reduction of extrusion primitives
and performing idealized connections between medial surfaces through the analysis of
the interface graph GI of an object M.
5.5 Idealization processes
Having decomposed a assembly component M into extrusion primitives Pi, the last
phase of the idealization process consists in the generation and connection of idealized
models of each primitive Pi. Now, the interfaces IG between Pis are precisely identified
and can be used to monitor the required deviations regarding medial surfaces. These
deviations are needed to improve the idealization process and to take into account the
engineer’s know-how when preparing a FE model (see discussions of Chapter 2).
Based on the morphological analysis described in Sections 5.2 and 5.3, each Pi has
a shape which can be classified in idealization categories of type plate, shell, beam or
3D thick solid. Therefore, depending on Pi’s morphological category, a dimensional
reduction operator can be used to generate its idealized representation. The geometric
model of the idealized Pi is:
• A planar medial surface when Pi has been identified as a plate. This surface
corresponds to the extrusion contour offset by half the thickness of this plate
along the extrusion direction;
• A medial surface when the primitive has been identified as a shell (see the detailed
taxonomy in Tables C.1, C.2). This medial surface is generated as the extrusion
of the medial line extracted from the extrusion contour of Pi. This medial line
can be generated by applying the 2D MAT to the extrusion contour, as proposed
145Chapter 5: Performing idealizations from construction graphs
P1
P2
P3
Solid Primitives
P1
P2
P3
Initial CAD model
Interfaces
P7
P3
Interface of type (2)
Interface of type (4)
P17
P1
P2
P4
P6
P8
P9
P10 P11 P12 P13
P14 P15
P16 P18
P5
Interface Graph GI
Figure 5.15: Illustration of an interface graph containing IGs derived from the segmentation
process of M producing GD.
by Robinson et al. [RAM∗06]. The shell thickness varies in accordance with the
diameter of circles inscribed in the extrusion contour;
• A medial line when the primitive has been identified as a beam. This line is
generated through the extrusion of the point representing the barycenter of the
extrusion contour if the beam direction is aligned with the extrusion direction.
If the beam direction is orthogonal to the extrusion direction, the medial line
corresponds to the medial line of the extrusion contour, offset by half of the
extrusion distance;
• The volume domain of Pi when Pi is identified as a 3D thick solid;
since every Pi reduces to an extrusion primitive.
Now that each primitive Pi is idealized individually, the purpose of the following
section is to show how the medial surfaces can be robustly connected based on the
taxonomy of interfaces IG illustrated in Figure 5.9.
5.5.1 Linking interfaces to extrusion information
From the construction graph GD and the geometric interfaces IG between its primitives
Pi, the interface graph GI can be derived. Figure 5.15 illustrates GI for a set of extrusion
primitives extracted from one component of the aeronautical use-case presented
in Figure 1.6.
In GI , each node, named Ni, is a primitive Pi ∈ GD and each arc is a geometric
interface IG between any two primitives Pi and Pj , as IG has appeared during the
segmentation process of M. In a first step, GI is enriched with the imprints of the
146Chapter 5: Performing idealizations from construction graphs
boundary of each IG on each primitive Pi and Pj that defines this IG. The jth boundary
of an IG w.r.t. a primitive Pi is noted Cj(Pi).
A direct relationship can be established between Cj(Pi) and the information related
to the extrusion property of Pi. The interface boundary Cj(Pi) is classified in accordance
with its location over ∂Pi. To this end, each node Ni of GI representing Pi is subdivided
into the subsets: Ni(Fb1), Ni(Fb2), Ni(Fl), that designates its base face Fb1, its base
face Fb2 and its lateral faces Fl, respectively. Then, Cj(Pi) is assigned to the appropriate
subset of Ni. As an example, if Cj(Pi) has its contours located solely on the base face
F b1 of Pi, its is assigned to Ni(Fb1), or if Cj(Pi) belongs to one at least of the lateral
faces Fl, it is assigned to Ni(Fl). Figure 5.16 illustrates the enrichment of the interface
graph GI of a simple model containing three primitives P1, P2 and P3. For example,
the boundary C1(P1), resulting from the interaction between P1 and P3, is assigned to
F b1 of P1. Reciprocally, the equivalent C1(P3) refers to a lateral face of P3.
The following step determines potential interactions of Cj(Pi)s over Pi. When a pair
of Cj(Pi)s shares a common geometric area, i.e., their boolean intersection is not null:
Cj(Pi) ∩ Ck(Pi) �= φ, (5.1)
the resulting intersection produces common points or curve segments that are de-
fined as an interface between the pair of interface boundaries (Cj(Pi), Ck(Pi)) and the
nth interface is noted IDnCj/Ck . Three interfaces between Cj(Pi) have been identified
on the example of Figure 5.16, e.g., ID1C1/C2 represents the common edge interaction
between C1(P1) and C2(P1). These new relations between Cj(Pi)s form a graph structure
GID where the nodes represent the boundary Cj(Pi) and the arcs define the interface
IDnCj/Ck . The graph structure GID related to a primitive Pi is strictly nested into the
i
th node of GI . More globally, the graph structure GID is nested into GI .
The graph structures GID derived from the relations between the boundaries of
interfaces IG of each Pi can be ‘merged’ with the interface graph GI . Let us call GS
this graph (see Figure 5.16d).
5.5.2 Analysis of GS to generate idealized models
Using GS, algorithms may be applied to identify specific configurations of connections
between idealized primitives. These algorithms are derived from the current industrial
practices of idealized FEM generation from B-Rep models. Specific configurations
of interface connections can be identified automatically from GS while allowing the
engineer to locally modify the proposed results based on his, resp. her, simulation
hypotheses. So, nodes in GS can be either of type Cj(Pi) if there exists a path between
Cj(Pi)s in Pi or they are Pis if there is no such path. Arcs are built up on either IGs or
IDnCj/Ck depending on the type of node derived from Cj(Pi) and Pi.
To generate a fully idealized model, i.e., a model where the medial surfaces are
147Chapter 5: Performing idealizations from construction graphs
Fb1
FLs
Fb2
Fb1
Fb2
Fb2
Fb1 Fb2 FLs
Fb2
FLs
C1 (P1) C2 (P1)
C1 (P2)
C2 (3) C2 (P1)
C1 (P3)
IP1/ P3 IP1/ P2
IP2/ P3
ID1 C1/C2
ID3 C1/C2 ID2 C1/C2
IP1/ P3
IP1/ P2
IP2/ P3
P1
P3
P2
Pi
Primitive
Base Faces
Lateral Faces
Interface between
primitives
Interface boundary
on primitive
ID Cm/Cn
Cm (Pi)
I Pi/Pj
FLs
Fb1,2
Interface between
contours
Fb1
FLs
Fb1
FLs
Fb1
FLs
Fb2
P3 P2
P1
P1
P3 P2
IP1/ P2
IP2/ P3
IP1/ P3
Graph GI
Fb1
FLs
Fb2
Fb1
Fb2
Fb2
Fb1 Fb2 FLs
Fb2
FLs
C1 (P1) C2 (P1)
C1 (P2)
C2 (P1)
C2 (3)
C1 (P3)
ID1 C1/C2
ID2 C1/C2 ID3 C1/C2
Fb1
FLs
Fb1
FLs
Fb1
FLs
Fb2 P P3 P2 1
Graph GID of P1 Graph GID of P2 Graph GID of P3
Graph GS
(a) (b)
(c)
(d)
Figure 5.16: Enrichment of the graph GI with the decomposition of each node into subsets
Ni(Fb1), Ni(Fb2), Ni(Fl). Illustration of an interface cycle between primitives P1, P2 and P3
built from GI and GID. (a) Initial primitives segmentation, (b) GI graph, (c) GID for P1,
P2 and P3, (d) GS graph. 148Chapter 5: Performing idealizations from construction graphs
connected, three algorithms have been developed to identify respectively:
• interface cycles;
• groups of parallel medial surfaces;
• and L-shaped primitives configurations.
The locations of medial surfaces are described here with orthogonal or parallel properties
for sake of simplicity. Therefore, each of them can be generalized to arbitrary
angular positions as described in Section 5.3.2. Each algorithm is now briefly described.
Interface cycles
Cycles of interfaces are of particular interest to robustly generate connections among
idealized sub-domains. To shorten their description, the focus is placed on a common
configuration where all the interfaces between primitives are of type (4). To define a
cycle of interfaces of type (4), it is mandatory, in a first step, to identify a cycle in
GI from connections between Pi. In a second step, the structure of connections inside
each Pi, as defined in GID, must contain themselves a path between their interface
boundaries Cj(Pi)s that extends the cycle in GI to a cycle in GS = GI∪GID. An example
of such a cycle is illustrated in Figure 5.16. This level of description of interfaces among
sub-domains indicates dependencies between boundaries of medial surfaces. Indeed,
such a cycle is a key information to the surface extension operator to connect the set of
medial surfaces simultaneously. The medial surfaces perpendicular to their interfaces
IG (of P3 in Figure 5.16) have to be extended not only to the medial surfaces parallel
to their interfaces (of P1 and P2 in Figure 5.16), but they have also to be extended in
accordance with the extrusion directions of their adjacent primitives. For example, to
generate a fully idealized model of the three primitives of Figure 5.16, the corner point
of the medial surface of P3, corresponding to the ID3C1/C2 edge, has to be extended to
intersect the medial surface of P1 as well as to intersect the medial surface of P2. As
described, the information available in an interface cycle enables a precise and robust
generation of connections among idealized sub-domains.
Interface cycles appear as one category of specific idealization processes because
they appear frequently in mechanical products and they fall into one category of connection
types in the taxonomy of Figure 5.9.
Groups of parallel medial surfaces
Connections of parallel medial surfaces can be handled with medial surface repositioning
(see P1 and P2 on Figure 5.17a) corresponding to the adjustment of the material
thickness on both sides of the idealized surface to generate a mechanical model consistent
with the shape of M. This is a current practice in linear analysis that has
been advantageously implemented using the relative position of extrusion primitives.
149Chapter 5: Performing idealizations from construction graphs
P2
P1
Offset of parallel medial surfaces
(a)
(b)
P2
P1
Offset of L-shaped medial surfaces
Figure 5.17: Examples of medial surface positioning improvement. (a) Offset of parallel
medial surfaces, (b) offset of L-shaped medial surfaces.
These groups of parallel medial surfaces can be identified in the graph GI as the set
of connected paths containing edges of type (2) only. Figure 5.18a shows two groups
of parallel medial surfaces extracted from GI presented in Figure 5.16. As a default
processing of these paths, the corresponding parallel medial surfaces are offset to a
common average position of the medial surfaces and weighted by their respective areas.
However, the user can also snap a medial surface to the outer or inner skins of
an extrusion primitive whenever this prescription is compatible with all the primitives
involved in the path. Alternatively, he, or she, may even specify a particular offset position.
Surfaces are offset to the reference plane as long as the surface remains within the
limits of the original volume of the component M. This restriction avoids generating
interferences between the set of parallel primitives and the other neighboring primitives.
For example, in Figure 5.18, the resulting medial surface of the group of parallel
primitives, containing P1 and P2, cannot intersect the volumes of its perpendicular
primitives such as P3. This simple process points out the importance to categorize the
interfaces between primitives.
Like interface cycles, groups of parallel medial surfaces refer to the taxonomy of
Figure 5.9 where they fall into the type (2) category.
L-shaped primitives configurations
When processing an interface of type (4) in GI , if an interface boundary Cj(Pi) is
located either on or close to the boundary of the primitive Pj which is parallel to the
150Chapter 5: Performing idealizations from construction graphs
Independent Medial
Surfaces
P1
P2
P3
P1
P2
P3
Aligned Medial
Surfaces
(c)
d2 d1
d3
P4
Primitives in connection through
only interfaces of type (4)
Border
primitives
P7
Interface of type (2)
P17
P1
P2
P6
P8
P9
P10 P13
P14 P15
Group of parallel medial surfaces
(a)
(b)
Interface Graph GI
P11
P5 P12 P16 P18 P11
P7
P3
Interface of type (2)
Interface of type (4)
P17
P1
P2
P4
P6
P8
P9
P10 P11 P12 P13
P14 P15
P16 P18
P5
P3
P2
P10
P14
P12
P1
P15
P6
P9
P13
P8
P4 P5
P16
P18
P17
P7
P3
Figure 5.18: Example of identification of a group of parallel medial surfaces and border primitives
configurations from the interface graph GI : (a) extraction of type (2) subgraphs from
GI , (b) set of L-shaped primtives extracted from GI , (c) initial and idealized configurations
of M when groups of parallel primitives and L-shaped configurations have been processed.
151Chapter 5: Performing idealizations from construction graphs
Fb2
Fb1
Fb2
FLs
IP1/ P2
P1
C1 (P1)
P2
IP1/ P2
Fb1
C1 (P1)
Fs
C1 (P2)
P1 (surface) P2 (volume)
Figure 5.19: Example of a volume detail configuration lying on an idealized primitive.
interface (see P1 and P2 on Figure 5.17b or P2 and P3 in Figure 5.18c), the medial
surfaces needs to be relocated to avoid meshing narrow areas along one of the subdomain
boundaries (here P3 is moved according to d3). This relocation is mandatory
because Cj(Pi) being on or close to the boundary of Pj , the distance between the
idealized representation of Pi and the boundary of Pj is of the order of magnitude
of the thickness of Pi. Because Pi is idealized, it means that the dimension of FEs
is much larger than the thickness of Pi, hence meshing the areas between Cj(Pi) and
the boundary of Pj would necessarily result in badly shaped FEs. The corresponding
configurations are designated as L-shaped because Pi and Pj are locally orthogonal or
close to orthogonal.
If this configuration refers to mesh generation issues, which have not been addressed
yet, L-shaped configurations where a subset of Cj(Pi) coincides with the boundary of a
connected primitive (see P2 in Figure 5.18c) can be processed unambiguously without
mesh generation parameters, as justified above. Processing configurations where Cj(Pi)
is only close to a primitive contour requires mesh parameters handling and is left for
future work. Primitives connected through interfaces of type (4) only, as illustrated
in Figure 5.18b, are part of L-shaped configurations if they have at least a primitive
contour Cj(Pi) close to Pj boundary. In Figure 5.18b, only P11, which is located in
the middle of P9 and P14, is not considered as an L-shaped primitive. L-shaped con-
figurations can be processed using the precise location of IG so that the repositioning
operated can stay into IG to ensure the consistency of the idealized model.
Identification criteria of Pi details
The relationships between extrusion information and primitive interfaces may also
be combined to analyze more precisely the morphology of standalone primitives, such as
small protrusions that can be considered as details. As an example, Figure 5.19 shows
the interaction between a primitive P1, which can be idealized as a plate and a primitive
P2, morphologically not idealizable. The enriched interface graph with GID indicates
that the boundary C1(P1) lies on a base face, F b1, of P1 whose boundary is used to
idealize P1. Then, if the morphological analysis of F b1 is such that: F = (F b1−∗FC1(P1) )
shows that F is still idealizable, this means that P2 has no morphological influence
152Chapter 5: Performing idealizations from construction graphs
relatively to P1, even though P2 is not idealizable.
As a result, P2 may be considered as a detail of P1 and processed accordingly
when generating the mesh of P1, P2. This simple example illustrates how further
analyses can be derived from the graph structures GID and GI . Identifying details
using the morphological properties of primitives is a way to be independent from the
FE mesh size. With the proposed idealization process, a volume can be considered as
a detail with respect to the surrounding geometry before the operation of dimensional
reduction. This is an a priori approach satisfying the requirement of Section 2.2.1
which stated that a skin detail cannot be directly identified in an idealized model.
Though the criterion described above is not generic, it is illustrative of the ability
of the graph structures GID and GI to serve as basis of other criteria to cover a much
wider range of configurations where skin and topological details could be identified with
respect to the idealization processes. A completely structured approach regarding these
categories of details is part of future work.
5.5.3 Generation of idealized models
To illustrate the benefits of the interface graph analyses of GID and GI , which have been
used to identify specific configurations with the algorithms described in Section 5.5.2,
an operator has been developed to connect the medial surfaces. Once the groups of
parallel medial surfaces have been correctly aligned, the medial surfaces involved in
interfaces of type (4) are connected using an extension operator. Because the precise
locations of the interfaces between primitives Pi and Pj are known through their geometric
imprint Cj(Pi) on these primitives, the surface requiring extension is bounded
by the imprint of Cj(Pi) on the adjacent medial surface. The availability of detailed
interface information in GI and GID increases the robustness of the connection operator
and prevents the generation of inconsistent surfaces located outside interface areas.
Connection operator
Firstly, the connection operator determines the imprints Cj(Pi) on the corresponding
medial surface of the primitive Pj . This image of Cj(Pi) on the medial surface of the
neighbor primitive Pi is noted Img(Cj(Pi)). Figure 5.20a shows, in red, three interface
boundaries on the medial surfaces Img(Cj(Pi)) of the three primitives P1, P2, P3. When
adjusting Cj(Pi), the medial surface boundary of Pi is also transferred on Img(Cj(Pi)).
Such regions, in green in Figure 5.20a, are noted ImgMS(Cj(Pi)). The next step extends
the medial surfaces involved in interfaces of type (4). The medial surfaces are extended
from Img(Cj(Pi)) to ImgMS(Cj(Pi)) (the red lines to the green lines in Figure 5.20a).
The extensions of the medial surfaces split Img(Cj(Pi)) into two or more sub-regions.
The sub-regions which contains edges coincident with edges of the primitive medial
surface are removed to avoid small mesh areas.
153Chapter 5: Performing idealizations from construction graphs
Imprint of interface
on primitive: C1(P2)
Medial surface
boundary
Image of C1(P2)
on medial surface:
Img(C1(P2))
P2
P1
P2
P1
P2
P1
P2
P1
P2
P1
P2
P1
Image of the medial surface
boundary of P2 on the medial
surface of P1 : ImgMS(C1(P2))
Suppression of
non-connected
areas of Img(C1(P2))
Extension of
medial surface
Offset of the
medial surface of P2
Offset of medial
surface image
Idealization
without offset
Idealization
with offset
(b)
C1 (P8) : interface boundary
on primitive
P2
P8
P3
C2 (P2): interface boundary
on primitive
ImgMS (C2 (P2) ): medial Surface representation
on Interface Boundary
Representation of geometric interfaces on Medial Surfaces
(a)
Img(C1(P2)): image of C1 (P8)
on the medial Surface
Figure 5.20: (a) Representation of the interface imprints on primitives and on medial surfaces.
(b)Connection process of two primitives P1 and P2 with and without offsetting their medial
surfaces.
154Chapter 5: Performing idealizations from construction graphs
Mesh Aligned Medial
Surfaces
Independent Medial
Surfaces with Interface
boundary
Connected Medial
Surfaces
· CAD Medial Surfaces
· Interfaces
Figure 5.21: Idealization process of a component that takes advantage of its interface graph
structures GID and GI .
It must be noticed that the regions ImgMS(Cj(Pi)) lie into Pj and can be obtained
easily as a translation of Cj(Pi). Therefore, it is not comparable to a general purpose
projection operator where existence and uniqueness of a solution is a weakness.
Here, ImgMS(Cj(Pi)) always exists and is uniquely defined from Cj(Pi) based on the
properties of extrusion primitives.
The interface cycles previously detected are used to identify intersection points
within ImgMS(Cj(Pi)). Figure 5.20a illustrates the interaction between the three
ImgMS(Cj(Pi)) corresponding to the intersection between the three green lines. When
processing L-shaped primitives, in case the medial surface of Pi is shifted to the boundary
of Pj , the corresponding images Img(Cj(Pi)) and ImgMS(Cj(Pi)) are also shifted
with the same direction and amplitude. This update of these images preserves the
connectivity of the idealized model when extending medial surfaces. Figure 5.20b illustrates
the connection process of two primitives P1 and P2 with and without moving
the medial surface of the primitive P2. This figure shows how the connection between
the idealized representations of P1 and P2 can preserve the connectivity of the idealized
model.
Results of idealized models
As shown in Figure 5.18b and c, the repositioning of medial surfaces inside P1,
P2 and P3 improves their connections and the overall idealized model. Figure 5.21
illustrates the idealization of this component. Firstly, the medial surface of each primitive
is generated. Then, the groups of parallel medial surfaces are aligned before the
generation of a fully connected idealized model.
Finally, the complete idealization process is illustrated in Figure 5.22. The initial
CAD model is segmented using the construction graph generation of Chapter 4 to
produce GD. It produces a set of volume primitives Pi with interfaces between them
resulting in the graph structures GI and GID. A morphological analysis is applied
on each Pi as described in Section 5.3.1. Here, the user has applied a threshold ratio
155Chapter 5: Performing idealizations from construction graphs
Idealized Mesh
model
Init CAD model Segmented model Interfaces
Dimensional
reduction
Analysis of
interfaces
Final CAD
idealized model
Morphological
analysis
Figure 5.22: Illustration of the successive phases of the idealization process (please read from
the left to the right on each of the two rows forming the entire sequence).
xu = 2 and an idealization ratio xr = 10. Using these values, all the primitives are
considered to be idealized as surfaces and lines. The final CAD idealized model is
generated with the algorithms proposed in Section 5.5.3 and exported to a CAE mesh
environment (see Chapter 6).
5.6 Conclusion
In this chapter, an analysis framework dedicated to assembly idealization has been
presented. This process exploits construction graphs of components that produce their
segmentation into primitives. Morphological criteria have been proposed to evaluate
each primitive with respect to their idealization process. The benefits of generative
process graphs have been evaluated in the context of idealization processes as needed
for FEA.
A morphological analysis forms the basis of an analysis of ’idealizability’ of primitives.
This analysis takes advantage of geometric interfaces between primitives to
assess stiffening effects that potentially propagate across the primitives when they are
iteratively merged to regenerate the initial component and to locate idealizable subdomains
over this component. Although the idealization concentrates on shell and
plates, it has been observed that the morphological analysis can be extended to derive
beam idealizations from primitives.
This morphological analysis also supports the characterization of geometric details
in relation to local and to idealizable regions of a component, independently of any nu-
156Chapter 5: Performing idealizations from construction graphs
merical method used to compute solution fields. Overall, the construction graph allows
an engineer to access non trivial variants of the shape decomposition into primitives,
which can be useful to evaluate different idealizations of a component.
Finally, this decomposition produces an accurate description into sub-domains and
into geometric interfaces which can be used to apply dimensional reduction operators.
These operators are effectively robust because interfaces between primitives are
precisely defined and they combine with the primitives to bound their idealized representations
and monitor the connections of the idealized model.
The principle of component segmentation appears also to be compatible with the
more general needs to process assembly models. Indeed, components are sub-domains
of assemblies and interfaces are also required explicitly to be able to let the engineer
assign them specific mechanical behavior as needed to meet the simulation objectives.
The proposed idealization process can now take part to the methodology dedicated
to the adaption of a DMU to FE assembly models, as described in the next chapter.
157Chapter 5: Performing idealizations from construction graphs
158Chapter 6
Toward a methodology to
adapt an enriched DMU to FE
assembly models
Having detailed the idealization process as a high-level operator taking benefits
from a robust shape enrichment, this chapter extends the approach toward a
methodology to adapt an enriched DMU to FE assembly models. Shape transformations
resulting from user-specified hypotheses are analyzed to extract preprocessing
tasks dependencies. These dependencies lead to the specification of
a model preparation methodology that addresses the shape transformation categories
specific to assemblies. To prove the efficiency of the proposed methodology,
corresponding operators have been developed and applied to an industrial DMU.
The obtained results point out a reduction in preparation times compared to
purely interactive processes. This time saved enables the automation of simulation
processes of large assemblies.
6.1 Introduction
Chapter 3 set the objectives of a new approach to efficiently adapt CAD assembly
models derived from DMUs as required for FE assembly models. Chapters 4 and 5
significantly contributed to solve two issues regarding the proposed approach. The
first challenge addresses the internal structure of CAD components that has to be
improved to provide the engineer with a robust segmentation that can be used as basis
for a morphological analysis. The second challenge deals with the implementation
of a robust idealization process automating the tedious tasks of dimensional reduction
operations and particularly the treatment of connections between idealized areas.
Then, the proposed algorithms have been specified to enable the transformations of
solid primitives as well as their associated interfaces. The set of solid primitives can
result either from a component segmentation or an assembly structure decomposed
159Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
into components in turn decomposed into solid primitives. Thus, the method allows an
engineer to transform components’ shapes while integrating the semantics of assembly
interfaces.
This chapter goes even further to widen the scope of shape transformations at the
assembly level and evolve toward a methodology of assembly pre-processing. The aim
is to enforce the ability of the proposed approach to challenge the current practices
to generate large assembly simulation models. The analysis of dependencies among
component shape transformations applied to assemblies will help us to formalize this
methodology. Thanks to the geometric interfaces of components and functional information
expressed as functional designations of components obtained with the method
of Shahwan et al. [SLF∗13] summarized in Section 3.3, new enriched DMU are now
available to engineers. Thanks also to the component segmentation into solid primitives
and their interfaces that can be used to idealize sub-domains as described in
Chapter 5, the models input to FEA pre-processing contains much more information
available to automate the geometric transformations required to meet the simulation
objectives. The method described in Section 6.1 of this chapter uses this enriched
DMU as input to structure the interactions between shape transformations, leading
to a methodology which structures the assembly preparation process. To prove the
validity of the proposed methodology, Sections 6.3 and 6.4 illustrate it with two test
cases of an industrial assembly structure (see Figure 1.6) to create a simplified volume
model and an idealized surface model. To this end, new developments are presented
that are based on operators that perform shape transformations using functional information
to efficiently automate the pre-processing. Section 6.3 develops the concept
of template-based transformation operators to efficiently transform groups of components.
This operator is illustratively applied to an industrial aeronautical use-case with
transformations of bolted junctions. Section 6.4 deploys the methodology using the idealization
algorithms of Chapter 5 to generate a fully idealized assembly model. Finally,
the software platform developed in this thesis is presented at the end of Section 6.4.
6.2 A general methodology to assembly adaptions
for FEA
Chapter 1 pointed out the impact of interactions between components on assembly
transformation. The idealization of components is not the only time consuming task
during assembly preparation. When setting up large structural assembly simulations,
processing contacts between components as well as transforming entire groups of components
are also tedious tasks for the engineer. The conclusion of Section 1.5.4 showed
that the shape transformations taking place during an assembly simulation preparation
process interact with simulation objectives, hypotheses and functions attached to
components and to their interfaces. Therefore, to reduce the amount of time spent
160Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
on assembly pre-processing, the purpose is now to analyze and structure the interactions
between shape transformations. This leads to a methodology that structures the
assembly preparation process.
6.2.1 From simulation objectives to shape transformations
How do shape transformations emerge from simulation objectives and how do they
interact between themselves? This is to be analyzed in the following section. However,
the intention is not to detail interactions but to focus on issues that help to structure
the shape transformations. Transformation criteria related to time that may influence
simulation objectives are not relevant, i.e., manual operations that have been performed
to save time are irrelevant. Indeed, the purpose is to structure shape transformations
to save time and improve the efficiency of preparation processes.
6.2.1.1 Observation areas
From the simulation objectives, the structural engineer derives hypotheses that address
components and/or interfaces among them, hence the concept of observation area.
Even if this engineer has to produce an efficient simplified model of the assembly
to meet performance requirements, anyhow he/she must be able to claim that his/her
result is correct and accurate enough in critical observations areas that are consistent
with the simulation objectives. Therefore, the mechanical model set up in these areas
must remain as close as possible to the real behavior of the assembly. Thus, the
geometric transformations performed in these areas must be addressed in a first place.
As an example, in Figure 6.1, the simulation objective is to observe displacements in
the identified region (circled area) due to the effects of local loading configurations,
the section of the domain being complex. A possible engineers hypothesis can be to
model precisely the 3D deformation in the observation area with a volume model and
a fine mesh and set up a coarse mesh or even idealized sub-domains outside the area
of interest. To explicit this hypothesis over the domain, the circled area should be
delimited before meshing the whole object. During a preparation process, setting up
observation areas and thus, subdividing an assembly into sub-domains, independently
of the component boundaries and their interfaces, acts as a prominent task.
6.2.1.2 Entire idealization of components
Idealizations have inherently a strong impact on shape transformations because of their
dimensional reduction. Applied to a standalone component, idealization is meaningful
to transform 3D domains up to 1D ones. In the context of assemblies, to meet simulation
objectives, performances, and reduce the number of unknowns, the engineer
161Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Observation Area Geometric
transformation
Surface model
Mixed dimensional
model
(Line + Surface)
Fine Mesh
Coarse Mesh
Idealized element
Load F
Figure 6.1: Setting up an observation area consistent with simulation objectives.
A
B
Analytical model
Global Idealization
A + B
Figure 6.2: Entire idealization of two components.
can idealize a component up to a point (0D), e.g., a concentrated mass, or even replace
it by a pre-defined solution field, e.g., a rigid body behavior or a spring-damper
field. When analytical models are available, some groups of components, like the bolts
in Figure 6.3a, do not appear geometrically in the FE assembly. The planar flange
connected by the bolts forming the major interface is used as location of a section in
the FE assembly model to determine resulting internal forces and moments in that
section. Then, the analytical model is independent of the FE one and it is fed with
these parameters to determine the pre-stress parameters of the bolts. Figure 6.3b illustrates
the complete idealization of pulleys as boundary conditions. This time, an
analytical model has been used prior to the FE assembly model. Such categories of
idealizations can be also applied to a set of connected components (see Figure 6.2). In
either case, such transformations have a strong impact on the interfaces between the
idealized components and their neighboring ones.
Consequently, interfaces between idealized components can no longer be subjected
to other hypotheses, e.g., contact and/or friction. Again, this observation highlights
the prominence of idealization transformations over interfaces ones.
6.2.1.3 Processing Interfaces
Interfaces between components are the location of specific hypotheses (see Table 1.2)
since they characterize junctions between components. Naturally, they interact with
hypotheses and shape transformations applied to the components they connect. Let
162Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Idealization of
groups of
components
Idealization of
component as BCs
(a) (b)
Figure 6.3: (a) Transformation of groups of components as analytical models and, (b) idealization
of components as BCs (courtesy of ANTECIM).
A C B ABC
Interface Idealization
(a) (b) (c)
A B
C
A
B
C
Figure 6.4: Influence of interfaces over shape transformations of components.
us consider the example of Figure 6.4. In a first place, a simulation objective can
be stated as: modeling the deformation of the assembly with relative movements of
plates A, B, C under friction. Under this objective, hypotheses are derived that require
modeling interfaces (A, C) and (B, C) with contact and friction. Then, even if A, B
and C, as standalone components, can be candidate to idealization transformations,
these idealizations cannot be idealized further because the interfaces would need to
be removed, which is incompatible with the hypotheses. In a second place, another
simulation objective can be stated as: modeling the deformation of the assembly where
the junctions between plates A, B, C are perfect, i.e., they behave like a continuous
medium. There, plates A, B, C can still be idealized as standalone components but the
hypothesis on interfaces enables merging the three domains (Figure 6.4b) and idealizing
further the components to obtain an even simpler model with variable thickness (see
Figure 6.4c).
Thus, there are priorities between shape transformations deriving from the hypotheses
applied to interfaces. Indeed, this indicates that hypotheses and shape transformations
addressing the interfaces should take place before those addressing components
as standalone objects. Effectively, interfaces are part of component boundaries; hence
163Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
their transformations modify these boundaries. It is more efficient to evolve the shape
of interfaces alone first and to process component shapes, as isolated domains, afterwards.
As explained in Section 5.4, once the role of interfaces has been defined in the
assembly according to the user’s simulation objectives and the corresponding transformations
have been performed, each individual component can be transformed on its
own to take into account these interfaces as external boundary conditions during its
idealization/simplification process.
6.2.2 Structuring dependencies between shape transformations
as contribution to a methodology of assembly preparation
Section 6.2.1 has analyzed the relationships between simulation objectives, hypotheses,
and shape transformations of assemblies. One outcome of this section structures the
dependencies between hypotheses and shape transformations that address an assembly
at different levels. The purpose is now to exploit these dependencies to organize the
various steps of an assembly simulation preparation process so that it appears as linear
as possible to be efficiently automatized.
Dependencies of geometric transformations of components and interfaces
upon simulation hypotheses
Section 6.2.1.1 has shown the dependency of observation areas upon the simulation
objectives. Defining observation areas acts as a partitioning operation of an assembly,
independently of its components boundaries. Section 6.2.1.2 introduced the concept of
entire idealization of components and pre-defined solutions fields. Indeed, the shape
transformations derived from Section 6.2.1.2 cover also sub-domains over the assembly
that can be designated as ‘areas of weak interest’. There, the assembly interfaces contained
in these areas are superseded by the transformations of Section 6.2.1.2. From a
complementary point of view, areas of interest, once defined, contain sub-domains, i.e.,
components or parts of components, that can still be subjected to idealizations, especially
transformations of volumes sub-domains into shells/membranes and/or plates.
Consequently, areas of weak interest are regarded as primary sub-domains to be de-
fined. Then, entire idealization of components and pre-defined solutions fields will take
place inside these areas, in a first place (identified as task 1 in Figure 6.5). These areas
are necessarily disjoint from the areas of interest, therefore their processing cannot
interfere with that of areas of interest.
Sections 1.5.4 and 6.2.1.3 have shown that hypotheses about assembly interfaces
influence the transformations of component boundaries. Hence, these hypotheses must
be located outside of areas of weak interest to preserve the consistency of the overall
simulation model. Subsequently, these hypotheses about interfaces are known once the
164Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
areas of weak interest have been specified. Consequently, they come as a task 2, after
the definition of the areas of weak interest and the corresponding shape transformations
of assembly interfaces should be applied at that stage.
As highlighted at Sections 1.5.3, 1.5.4, and 6.2.1.3, idealizations are shape transformations
having an important impact on component shapes. As mentioned at Section
2.2, the order of detail removal operations and idealizations has not been studied
precisely yet. However, once idealizations have been assigned to sub-domains corresponding
to primitives Pi of components, these transformations produce new interfaces
between these sub-domains (see Figure 5.1) in addition to the assembly interfaces originated
from the interactions between components. Independently of skin and topological
details, idealizations can be regarded as task 3 in the preparation process flow.
Effectively, these new interfaces are the consequences of idealizations of sub-domains
that result from idealization processes. Therefore, these new interfaces cannot be processed
during the second task. These new interfaces should be processed in a first
place after the idealizations performed during the third task. The corresponding shape
transformations attached to these new interfaces form task 4.
Now, as pointed out at Section 6.2.1.3, idealizations can interact between themselves
because the idealized sub-domains can be extended/merged in accordance to
their geometric configurations to produce a connected idealized model wherever it is
required by the simulation objectives. This new set of shape transformations can be
regarded as task 5 that could indeed appear as part of an iterative process spanning
tasks three and four. This has not yet been deeply addressed to characterize further
these stages and conclude about a really iterative process or not. Even though
task two addresses hypotheses attached to assembly interfaces and their corresponding
shape transformations, it cannot be swapped with task three to contribute to iterative
processes discussed before. Indeed, task 2 is connected to assembly interfaces between
components and their processing could be influenced by component idealizations, e.g.,
in a shaft/bearing junction, idealizing the shaft influences its contact area with the
bearings that guide its rotational movement.
Hypotheses and shape transformations previously mentioned enable the definition of
a mechanical model over each sub-domain resulting from the tasks described above but
this model must be available among the entities of CAE software. This is mandatory
to take advantage of this software where the FE mesh will be generated. Consequently,
if an engineer defines interface transformations consistent with the simulation hypotheses,
there may be further restrictions to ensure that the shapes and mechanical models
produced are effectively compatible with the targeted CAE software capabilities. For
sake of conciseness, this aspect is not addressed here.
Toward a methodology of assembly model preparation
This section has identified dependencies among shape transformations connected to
165Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Task1 – Definition of areas of weak interest
Entire idealization of components, pre-defined solution fields
Task2 – Specification and transformations of components interfaces
Task3 – Idealization of sub-domains outside the areas of weak interest
Task4 – Specification and transformations of interfaces resulting from
idealization
Task5 – Interaction and transformations of idealized sub-domains
Task6 – Skin or topological transformations of sub-domains
Figure 6.5: Synthesis of the structure of an assembly simulation preparation process.
simulation objectives and hypotheses. Shape details on components can be identified
using the morphological analysis, as illustrated in Section 5.5.2. This analysis has
shown that the primitives Pi obtained from the construction graph GD could be further
decomposed into sub-domains after analyzing the result of a first MAT. This analysis
has also shown its ability to categorize sub-domains relatively to each other. However,
detail removal, which originates from different components or even represents an entire
component, needs to be identified through a full morphological analysis of the assembly.
This has not been investigated further and is part of future research. Currently, detail
removals can take place after task two but they can be prior or posterior to idealizations.
The definition of areas of interest has connections with the mesh generation process to
monitor the level of discretization of sub-domains. This definition acts as a partitioning
process that can take place at any time during the process flow of Figure 6.5.
166Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
6.2.3 Conclusion and methodology implementation
As a conclusion, the difference between a simulation model of a standalone component
and that of an assembly relates to:
• The interactions between components. The engineer formulates a hypothesis
for each interface between components. These hypotheses derive from assembly
simulation objectives;
• The ordering of shape transformations. The entire idealization of components and
the specification of pre-defined solution fields followed by shape transformations
of component interfaces are prioritized;
• The interactions between idealizations and assembly interface transformations.
To be able to model large assemblies, not only components but groups of components
have to be idealized, which can significantly increase the amount of
interactions between idealizations and transformations of assembly interfaces.
The simulation objectives are expressed through hypotheses that trigger shape
transformations. Studying the interactions between simulation objectives, hypotheses,
and shape transformations has revealed dependencies between categories of shape
transformations. These dependencies have been organized to structure the assembly
simulation model preparation process in terms of methodology and scope of shape
transformation operators. The proposed methodology aims at successfully selecting
and applying the geometric transformation operators corresponding to the simulation
objectives of the engineer.
Starting from an enriched structure of DMU as proposed in Section 3.3, the purpose
of the next sections is to illustrate how this methodology can be applied to industrial
use-cases. Two implementations are proposed and both are based on the exploitation
of functional features of the assembly using the interfaces between components (see
Figures 2.14 and 3.2).
As a first methodology implementation, Section 6.3 develops the concept of templatebased
operators. This concept uses functional information and the geometry of assembly
interfaces to identify configurations such as bolted junctions and to apply specific
simulation hypotheses to transform their assembly interfaces. This transformation
creates a simplified volume model with a sub-domain decomposition around bolted
junctions, as required by the simulation objectives (see Figure 6.6).
The second methodology implementation, presented in Section 6.4, leads to a full
idealization of an assembly use-case. This implementation confirms that the idealization
process of Chapter 5 can be generalized to assembly structures.
167Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Clearance Fitted
contact
Hypothesis: bolted junctions represented by a
simplified bolt model
Geometric transformations: cylindrical volume
interface representing a screw/hole clearance
transformed into a fitted contact.
(a)
Figure 6.6: Use-Case 1: simplified solid model with sub-domains decomposition around bolted
junctions. Area enlarged (a): Illustration of task 2 that transforms bolted junction interfaces
into fitted contacts.
6.3 Template-based geometric transformations resulting
from function identifications
As illustrated in Section 1.5.4, repetitive configurations, e.g., junctions, and their processing
are critical when preparing assembly structures, justifying the need to automate
the preparation of large assembly models. To improve the efficiency of DMU
transformations for FEA, Section 3.5.2 has proposed to set up relationships between
simulation objectives and geometric transformations through the symbolic representation
of component functions and component interfaces. The method is based on an
enriched DMU as input (see Section 3.3) which contains explicit geometric interfaces
between components (contacts and interferences) as well as their functional designations.
This enriched DMU has been generated based on the research work of Shahwan
et al. [SLF∗12, SLF∗13]. The geometric interfaces feed instances of conventional interfaces
(CI) (see Section 1.3.2) classes structured into a taxonomy, TCI , that binds
geometric and symbolic data, e.g. planar contact, spherical partial contact, cylindrical
interference, . . . Simultaneously, CI and assembly components are organized into a CI
graph: CIG(C, I) where the components C are nodes and CI are arcs.
Starting from this enriched model, Section 6.3.2 extends the functional structure
to reach a level of product functions. Therefore, simulation objectives can be used to
specify new geometric operators using these functions to robustly identify the components
and assembly interfaces to transform [BSL∗14]. If close to Knowledge Based
Engineering (KBE), this scheme is nonetheless more generic and more robust than
KBE approaches due to the fact that functional designations and functions are generic
concepts. KBE aims at structuring engineering knowledge and at processing it with
symbolic representations [CP99, Roc12] using language-based approaches. Here, the
focus is on a robust connection between geometric models and symbolic representations
168Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
featuring functions.
To prove the validity of this approach and of the methodology proposed in Section
6.2.2, this section presents a template-based operator dedicated to the automation
of shape transformations of bolted junctions (see Figure 6.6). The template operator is
described in Section 6.3.3. Using functional information and geometric interfaces, this
operator applies a user-defined template to simplify bolts and sets control sub-domains
around them in their associated tightened components to enable the description of the
friction phenomenon between these components. This template is used to precisely
monitor the mesh generation process while preserving the consistency of contacts and
adapting the assembly model to simulation objectives. Finally, Section 6.3.4 illustrates
the result of the different tasks of the proposed methodology applied to the transformation
of the bolted junctions of the root joint model presented in Figure 1.6.
6.3.1 Overview of the template-based process
The overall principle of the template-based approach is introduced in Figure 6.7. It
uses the available functional information and geometric interfaces, see (1) in Figure 6.7,
as well as a library of pre-defined parametric templates, see (2). From this library, the
templates are selected by the user according to his, resp. her, simulation objectives.
Once the templates have been selected, the operator automatically identifies the functions
in the assembly the templates are related to, see (3). Then, as explained in
Section 6.3.2, the operator identifies in the CAD assembly the components and interfaces
to be transformed, see (4). In (5), the templates definition are fitted to the real
geometry, i.e. the components and interfaces dimensions involved in the geometrical
transformations are updated in the pre-definition of the templates. Section 6.3.3.1
detailed the compatibility conditions required by the templates insertion in the real
geometry. Finally, the real geoemtry is transformed according to the compatibility
conditions and the templates are inserted in the assembly model, see task 6. Section
6.3.4 describes the application of template operator on two aeronautical use-cases.
It results in a new CAD assembly model adapted to simulation objectives.
6.3.2 From component functional designation of an enriched
DMU to product functions
Though the bottom-up approach of Shahwan et al. [SLF∗12, SLF∗13] summarized in
Section 3.3 provides assembly components with a structured model incorporating functional
information that is independent of their dimensions, their functional designation
does not appear as an appropriate entry point to derive shape transformation operators
as required for FE analyses. Indeed, to set up FE assembly models, an engineer looks
for bolted junctions that he, resp. she, wants to transform to express friction phenomena,
pre-stressed state in the screw, . . . Consequently, the functional level needed is not
169Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Template library:
pre-defined parametric templates
Definition of assembly interfaces
and functional designations
Geometrical adjustment of the
template to real shapes
Functions available
for transformation
Identification of components
and interfaces involved in
selected functions
Adaptation of real shapes with
template insertion
Real shape Template
1 2
3
4
5
6
Adapted assembly
Figure 6.7: Overview of the main phases of the template-based process.
170Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Assembly
Disassemblable
Obstacle
Bolted adjusted
Screw + nut
Blocked nut
Adherence Dependent function
Dependent function
Bolted
...
...
... Nut
Screw
Plates
Counter nut
Figure 6.8: Subset of TF N , defining a functional structure of an assembly.
the functional designation, which is bound to a single component, it is the product
function itself that is needed to address the corresponding set of components and their
functional interfaces.
To this end, it is mandatory to refer to product functions. This is achieved with a
taxonomy of functions, TF N , that can produce a functional structure of an assembly
(see Figure 6.8). Blue items define the sub-path in TF N hierarchy that characterizes
bolted junctions.
Each instance of a class in TF N contains a set of components identified by their functional
designation, i.e., it contains their structured geometric models and functional
interfaces. As a result of the use of TF N , a component of a DMU can be automatically
identified when it falls into the category of cap screws, nuts, locking nuts, that are
required to define bolted junctions. This means that their B-Rep model incorporates
their geometric interfaces with neighboring components. The graph of assembly interfaces
set up as input to the process of functional designation assignment, identifies the
components contained in a bolted junction. Each component is assigned a functional
designation that intrinsically identifies cap screws, nuts, locking nuts, . . . , and connects
it with an assembly instance in TF N .
It is now the purpose of Section 6.3 to take advantage of this information to set up
the template-based transformations.
6.3.3 Exploitation of Template-based approach for FE models
transformations
As a result of the functional enrichment process, the DMU is now geometrically structured,
components are linked by their geometric interfaces, and groups of components
can be accurately identified and located in the DMU using their function and geo-
171Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
metric structure, e.g., adjusted bolted junctions with (screw+nut) (see Figure 6.8).
Now, the geometric transformations needed to adapt the DMU to FEA objectives are
strengthened because screws, nuts, locking nuts can be robustly identified, groups of
tightened components are also available through the load cycles attached to cap screws
(see Section 3.3).
Two possible accesses are proposed to define a function-based template T related
to an assembly function:
• A component C through a user-defined selection: from it and its functional designation,
a data structure gives access to the functions it contributes to. After
selecting C, the user selects the function of interest among the available functions
attached to C in TF N and compatible with T. Other components are recovered
through the selected function this component participates to;
• The function itself in TF N that can lead to the set of components needed to
define this function and all the instances of this function existing in the targeted
assembly.
These accesses can be subjected to constraints that can help identifying the proper
set of instances. Constraints aim at filtering out instances when a template T is defined
from a function to reduce a set of instances down to the users needs, e.g., assembly
function with bolts ‘constrained with’ 2 tightening plates componenti and component j .
Constraints aim at extending a set of instances when a template is defined from a
component, i.e., a single function instance recovered, and needs to be extended, e.g.,
assembly function with bolts ‘constrained with’ same tightened components and screw
head functional interface of type ‘planar support’ or ‘conical fit’.
6.3.3.1 Function-based template and compatibility conditions of transformations
The previous section has sketched how component functions can be used to identify
sets of components in an assembly. Indeed, this identification is based on classes
appearing in TF N . Here, the purpose is to define more precisely how the template can
be related to TF N and what constraints are set on shape transformations to preserve the
geometric consistency of the components and their assembly. Shape transformations
are application-dependent and the present context is structural mechanics and FEA to
define a range of possible transformations.
The simplest relationship between a template T and TF N is to relate T to a leaf of
TF N . In this case, T covers instances defining sets of components that contain a variable
number of components. T is also dimension independent since it covers any size of
component, i.e., it is a parameterized entity. Shape transformations on T are designated
as ST and the template devoted to an application becomes ST (T). Now, reducing the
172Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
scope to disassemblable assembly functions and more specifically bolted junctions, one
leaf of TF N can be used to define more precisely T and ST (T). Conforming to Figure 6.8,
let us restrict first to the leaf ‘screw+nut’ of TF N . Then, T contains the following
functional interfaces: one threaded link, two or more planar supports (one between nut
and plate and at least one between two plates), either one planar support or one conical
fit between the screw head and a plate, as many cylindrical loose fits as plates between
the screw and plates because the class of junctions is of type adjusted. The shape
transformations ST (T) of T set up to process bolted junctions can be summarized as
(see Figure 6.9):
• ST 1: merging screw and nut (see Section 6.3.3.1);
• ST 2: localization of friction effects with a sub-domain around a screw (see Section
6.3.3.1);
• ST 3: removal of the locking nut if it exists (see Section 6.3.3.2);
• ST 4: screw head transformation for mesh generation purposes (see Section 6.3.3.3);
• ST 5: cylindrical loose fit around the screw shaft to support the contact condition
with tightened plates (see Section 6.3.4).
Each of these transformations are detailed throughout the following sections.
Now, the purpose is to define ST so that ST (T) exists and preserves the consistency
of the components and the assembly. This defines compatibility conditions, CC, between
T and ST that are conceptually close to attachment constraints of form features
on an object [vdBvdMB03] (see Figure 6.9). CC applied to ST are introduced briefly
here. Given the set of components contained in T, this set can be subdivided into two
disjoint subsets as follows:
• IC is the set of components such that each of its components has all its functional
interfaces in T, e.g., the screw belongs to IC. Consequently, components
belonging to IC are entirely in T (see the green rectangle in Figure 6.9);
• PC is the set of components such that each of its components has some of its
functional interfaces in T, e.g., a plate belongs to PC. Components belonging to
PC are partially in T (see the red rectangle in Figure 6.9).
IC can be used to define a 3D sub-domain of T, TI defined as the union of all
components belonging to IC. Now, if a transformation ST takes place in IC and geometrically
lies inside TI , ST (T) is valid because it cannot create interferences with
other components of the assembly, i.e., CC are satisfied.
Let us consider some of these transformations to illustrate some CC. As an objective
of FEA, the purpose of the assembly model is to analyze the stress distribution between
173Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Functionally
enriched
DMU
CIG
Function
FD
(screw, nut,
locking nut)
FI
CI
Ci Cn
T
Cc
Ic
Pc
Geometric Transformations
ST1 : C’ ← merge (C ,C ) screw nut
i j
ST3
ST5
: remove (C ) locking nut
i
: (C’ ,C’ )←preserve FI(C ,C ) j
screw
i
screw
i j
S : (C’ ,C’ ,…) ← subdivide(C ,C ,...) T2
ST4
i j i j
k
: (C’ i ,C’ j ) ← transform(C ,C ) i j
screw screw
Updated components (C’, C’,...C’ ) i j m
(Automated)
Ci : component i
CI: conventional interface
CIG: conventional interface graph
CC: compatibility conditions between T and ST
;
FD: functional designation of a component;
FI: functional interface
IC: set of components such that each of its components has all its FI in T
PC: set of components such that each of its components has some of its FI in T
ST : shape transformation incorporated in a template, hence ST (T);
T: function-based template performing shape transformations;
Figure 6.9: Principle of the template-based shape transformations. The superscript of a
component C, if it exists, identifies its functional designation.
Threaded
link
Pre- Load
pressure
Friction
IC :
Counter nut
Nut
Screw
PC:
Plates
Domain
decomposition
(CC to verify)
(a) (b) (c) (d) (e)
ST4
(CC to verify)
ST2
(CC satisfied) (CC satisfied)
ST1 ST3
Figure 6.10: Compatibility conditions (CC) of shape transformations ST applied to T. (a)
through (e) are different configurations of CC addressed in Section 6.3.3.
174Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
plates and their interactions with bolts. To this end, the stress distribution around
the threaded link between a screw and a nut is not relevant. Therefore, one shape
transformation, ST 1 is the removal of the threaded link to merge the screw and the nut
(see Figure 6.10c). ST 1 is always compatible since the screw and the nut belong to IC,
hence the CC are always valid.
Now, let us consider another transformation, ST 2, that specifies the localization
of friction effects between plates around the screw shaft and the representation of
the stress distribution nearby the screw shaft. This is modeled with a circular area
centered on the screw axis and a cylindrical sub-domain around the screw shaft (see
Figure 6.10d). Indeed, ST 2, is a domain decomposition [CBG08, Cha12] taking place in
the plates belonging to T. Because the plates belong to PC, CC are not trivial. However,
ST 2, takes place inside the plates so they cannot interfere with other components, rather
they can interfere with the boundary of the plates or they can interfere between them
when several screws are close to each other on the same plate (see Figure 6.11). In this
case, CC can be simply expressed, in a first place, as a non interference constraint.
Other shape transformations are listed when describing one example template in
Section 6.3.4.
6.3.3.2 Shape transformations and function dependency
The previous section has connected T to TF N in the simplest way possible, i.e., using
a leaf that characterizes a single function. The purpose of this section is to analyze
into which extent T can connect to classes of TF N that perform several functions in
the assembly.
In a first place, let us review shortly some concepts of functional analysis [Ull09].
There, it is often referred to several categories of functions that are related to a design
process, i.e., external, internal, auxiliary, . . . However, this does not convey consistency
conditions among these functions, especially from a geometric point of view. Here, the
current content of TF N refers to internal functions, i.e., functions strictly performed by
components of the assembly. The ‘screw+nut’ function, as part of bolted junctions, is
one of them. Bolted junctions can contain other functions. Let us consider the locking
function, i.e., the bolt is locked to avoid any loss of tension in the screw when the
components are subjected to vibrations. The locking process can take place either on
the screw or on the nut. For the purpose of the analysis, we consider here a locking
process on the nut, using a locking nut (see Figure 6.12a). In functional analysis,
this function is designated as auxiliary function but this concept does not characterize
geometric properties of these functions.
From a geometric point of view, it can be observed that functional interfaces of
the screw, nut and locking nut are located in 3D such that the functional interfaces
(planar support) between the nut and locking nut cannot exist if the nut does not
tighten the plates. Consequently, the locking function cannot exist if the tightening
175Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Interference
No interference
User meshing
tolerance
Ø subdomains =
user ratio ´ Ø screw
Figure 6.11: Checking the compatibility of ST (T) with respect to the surrounding geometry
of T.
function does not exist. Rather than using the designation of auxiliary function, which
is geometrically imprecise, it is referred to dependent function.
The concept of dependent functions is inserted in TF N at different levels of TF N to
attach the corresponding functions when they exist (see Figure 6.8). Based on the concept
of dependent function, it is possible to extend the connection rule between T and
TF N . Rather than connections at the leaf level, higher level classes can be connected to
T if the dependent functions are taken into account in the CC of shape transformations
ST so that ST (T) exists and preserves the consistency of the assembly. As an illustration,
let us consider T connected to ‘Bolted adjusted’ (see Figure 6.8). Now, ST can
cover the class of bolted junctions with locking nut. Let ST 3, be the transformation
that removes the locking nut of a bolted junction, which meets also the FEA objectives
mentioned earlier. Because ST 3, applies to a dependent function of ‘screw+nut’, the
CC are always satisfied and the resulting model has a consistent layout of functional
interfaces, i.e., the removal of the locking nut cannot create new interfaces in the assembly
(see Figure 6.9 and 6.10b). Consequently, T can be effectively connected to
‘Bolted adjusted’, which is a generalization of T.
6.3.3.3 Template generation
T is generated on the basis of the components involved in its associated function in
TF N . T incorporates the objectives of the FEA to specify ST . Here, ST covers all
the transformations described previously, i.e., ST 1, ST 2, ST 3. Figure 6.10 and 6.11
illustrates the key elements of these shape transformations.
Other shape transformations, ST 4, can be defined to cover screw head transformations
and extend the range of screws to flat head ones. However, this may involve
176Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
(a) (b)
Figure 6.12: (a) Multi-scale simulation with domain decomposition around bolted junctions,
(b) Load transfers at critical holes (courtesy of ROMMA project [ROM14]).
geometric transformations where the volume of a screw head gets larger. In this case,
ST 4 takes place in PC and the compatibility conditions are not intrinsic to T (see Figure
6.9). Consequently, it is mandatory to perform an interface/interference checking
with the other components of the assembly to make sure that the transformation is
valid (see Figure 6.10).
Then, the set of shape transformations structures the dialog with the user to allow
him, resp. her, to select some of these transformations. However, the user settings are
applied to instances whenever possible, i.e., when the instance belongs to a class where
the shape transformations are applicable.
6.3.4 Example of template-based operator of bolted junctions
transformation
In an aeronautical company, simulation engineers perform specific FEAs on assembly
sub-structures such as the aircraft junction between wings and fuselage. Based on
pre-existing physical testing performed by ROMMA project [ROM14] partners, this
structure can be subjected to tensile and compressive forces to analyze:
• The distribution of the load transfer among the bolted junctions;
• The admissible extreme loads throughout this structure.
From the physical testing and preliminary numerical models, the following simulation
objectives have been set up that initiate the requirements for the proposed
template-based transformations. To adapt the FE model to these simulation objectives
while representing the physical behavior of the structure, an efficient domain decomposition
approach [CBG08, Cha12] uses a coarse mesh far enough from the bolted
junctions and a specific sub-domain around each bolted junction with friction and preload
phenomena (see Figure 6.12a, b). The objective is not to generate a detailed
stress distribution everywhere in this assembly but to observe the load distribution
areas among bolts using the mechanical models set in the sub-domains.
177Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
The objective of this section is to validate the methodology of Section 6.2 through
the template-based approach. The proposed demonstrator transforms automatically
the bolts into simplified sub-domains ready for meshing with friction areas definition
while preserving the consistency of the assembly. Consequently, there is no area of
weak interest. All the above transformations are aggregated into a parameterized template
whose input is the functional designation of components to locate the cap screws
in the assembly. Then, the template adapts to the screw dimensions, the number of
plates tightened, . . . , to apply the operators covering tasks 2 through 6. The template
features are aligned with the needs for setting up a simulation model able to exhibit
some of the physical phenomena observed during testing and expressed in the above
simulations results.
Operator description
Having enriched the assembly with functional information, the template interface
lets the engineer select a node of TF N that is compatible with T. In this example, the
function to select is: ‘assembly with Bolted junction’ (see Figure 6.14). Now, several
ST are either pre-set or user-accessible.
Figures 6.6a and 6.13 illustrates the task 2 of the methodology. An hypothesis
focuses on the interfaces between screw shafts and plate holes: the clearances there are
regarded as small enough in the DMU to be reduced to a fitted configuration where
shafts and holes are set to the same nominal diameter to produce a conform mesh
with contact condition at these interfaces. To precisely monitor the stress distribution
around bolts and friction between plates, ST 2 is user-selected. It a simplified model of
the Rotschers cone [Bic95] that enables generating a simple mesh pattern around bolts.
In this task also, hypothesizing that locking nuts, nuts, and screws can be reduced to
a single medium leads to the removal of assembly interfaces between them. ST 3 is
user-accessible and set here to remove the dependent function ‘locking with locking
nut’.
Then, there is no idealization taking place, hence no action in tasks 3 and 5. Task 4
connects to a hypothesis addressing the interfaces resulting from task 2, i.e., the interfaces
between plates need not to model contact and friction over the whole interface.
Friction effects can be reduced to a circular area around each screw, which produces
a subdivision of these interfaces. ST 5 is pre-set in T to preserve the cylindrical loose
fit between screw and plates to set up contact friction BCs without inter-penetration
over these functional interfaces. ST 1 is also pre-set as well as ST 4.
Finally, task 6 concentrates on skin and topological transformations. These are
achieved with locking nut, nut, and screw shape transformations. The latter is performed
on the functional interface (planar support) between the screw head/nut and
the plates to obtain a meshing process independent of nut and screw head shapes. Now,
T can cover any bolted junction to merge screw, nut and locking-nut into a single do-
178Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
Rotscher’s
cone
Sub-domains Structured hex
Mesh
(a) (b) (c)
Figure 6.13: Template based transformation ST (T) of a bolted junction into simple mesh
model with friction and contact areas definition around screw and nut. (a) the bolted junction
in the DMU, (b) the bolted junction after simplification to define the simulation model, (c)
the desired FE mesh of the bolted junction.
main, reduce the screw and nut shapes to a simple shape of revolution while preserving
the consistency of its interfaces.
Based on T, ST (T) is fairly generic and parameterized to intelligently select and
transform bolts, i.e., it is independent of the number and thicknesses of plates, of the
screw diameter, the length and head type (cylindrical (see Figure 6.13a) versus flat
ones) in addition to the location of each bolt.
Here, ST (T) contains ST 2, a generation of sub-domains taking into account the
physical effects of the Rotschers cone. This geometric transformation could interact
with plate boundaries to change the shape of these sub-domains and influence the mesh
generation process. Presently, templates are standalone entities and are not taking into
account these effects left for future developments. At present, the engineer can adjust
the sub-domain to avoid these interactions (see Figure 6.14a).
Implementation and results
The developed prototype is based on OpenCascade [CAS14] and Python scripting
language. The DMU is imported as STEP assembly models, the geometric interfaces
between components are represented as independent trimmed CAD faces with
identifiers of the initial face pairs of the functional interfaces. The assembly functional
description is imported as a text file from the specific application performing
the functional enrichment described in [SLF∗13] and linked to the assembly model by
component identifiers.
Figure 6.14a shows the user interface of the prototype. When selecting the ‘assembly
with Bolted Junction’ function, the user has a direct access to the list of bolted
junctions in the assembly. To allow the user filtering his selection, DMU parameters
are extracted from the functional designation of components, e.g., the screw and nut
types, the number of tightened components, or from geometry processing based on
functional interfaces, e.g., screw diameter. Using these parameters, the user is able
179Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
to select bolted junctions within a diameter range, e.g., between 10 and 16 mm (see
Figure 6.14b) or bolted junctions with screw and locking nut (see Figure 6.14c), etc.
The user can monitor the Rotschers cone dimension with a FEA parameter called ‘sub
domain ratio’ that represents the ratio between the screw nominal diameter and the
sub-domain diameter (see Figure 6.14d and e). Then, the user-defined ‘meshing tolerance’
is used during the verification phase to check the compatibility conditions, CC,
between instances and their surrounding geometry (see Figure 6.9 and 6.11).
Figure 6.15 shows two results of the template-based transformations on aircraft
structures:
Aircraft structure 1: A junction between the wing and the fuselage. The assembly
contains 45 bolted junctions with 3 different diameters and 2
different screw heads;
Aircraft structure 2: An engine pylon. The assembly contains over 250 bolted junctions
with identical screws and nuts.
The final CAD assembly (see Figure 6.14b) with simplified bolted junctions has
been exported to a CAE software, i.e., Abaqus [FEA14]. STEP files [ISO94, ISO03]
transfer the geometric model and associated xml files describes the interfaces between
components to trigger meshing strategies with friction area definitions. Appendix D
illustrates the STEP data structure used to transfer the Aircraft structure 1.
Comparing with the process pipeline used with existing industrial software (see
Section 1.4.3), the improvements are as follows. The model preparation from CAD
software to an Abaqus simulation model takes 5 days of interactive work for ‘Aircraft
structure 1’ mentioned above (see Figure 1.13b). Using the pipeline performing the
functional enrichment of the DMU and the proposed template-based shape transformations
to directly produce the meshable model in Abaqus and perform the mesh in
Abaqus, the overall time is reduced to one hour. The adequacy of this model conforms
to the preliminary numerical models set up in ROMMA project [ROM14] and
extending this conformity to testing results is ongoing since the template enables easy
adjustments of the mesh model.
Regarding the ‘Aircraft structure 2’, there is no reference evaluation of its model
preparation time from CAD to mesh generation because it is considered as too complex
to fit into the current industrial PDP. However, it is possible to estimate the time
reduction since the interactive time can be linearly scaled according with the number
of bolted junction. This ends up with 25 days of interactive work compared to 1.5 hour
with the proposed approach where the time is mostly devoted to the mesh generation
phase rather than the template-based transformations.
Though the automation is now very high, the template-based approach still leaves
the engineer with meaningful parameters enabling him/her to adapt the shape transformations
to subsets of bolted junctions when it is part of FE requirements.
180Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
(b) (d)
(c) (e)
(a)
Figure 6.14: (a) User interface of a template to transform ‘assembly Bolted Junctions’. Results
obtained when filtering bolts based on diameters (b) or screw type (c). Results of the
template-based transformations with (d) or without (e) sub-domains around bolts.
181Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
(a) (b) (c)
Aircraft structure 1
Aircraft structure 2
Figure 6.15: Results of template-based transformations on CAD assembly models: (a) CAD
models with functional designations and geometric interfaces, (b) models (a) after applying
ST (T) on bolts, (c) mesh assembly models obtained from (a) with friction area definition.
182Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
DMU
Analysis for idealization
Geometric Operations
CAD Interfaces Simplify fastener
SIMULATION
Volume Segmentation
Assembly Idealization
Assembly analysis
Components Idealization
Interfaces Graph
Idealized
Assembly
· Geometric Interfaces
· Functinal Information
· User Simulation Objectives
· Idealized CAD assembly ready for meshing
· Boundary conditions (contact)
· Physical information (thickness, offset)
Figure 6.16: Illustration of the idealization process of a CAD assembly model. All components
are fully idealized and bolted junctions are represented with FE fasteners. Solid plates and
stiffeners are idealized as surfaces.
6.4 Full and robust idealization of an enriched assembly
The methodology of Section 6.2.2 has also been applied to create an idealized plate
model of the ‘Root joint’ use-case presented in Figure 1.6. The simulation objectives
are set on the global analysis of the stress field in the structure and the analysis
of the maximal loads transferred through the bolted junctions. Consequently (see
Section 1.4.3), the generated FEM contains idealized components with shell FE and
each junction can be simplified with a fastener model (see Figure 6.17). Figure 6.16
illustrates the different data and processes used to transform the initial DMU model into
the final FE mesh model. Once the CAD data associated with functional interfaces
have been imported, all bolted connections are transformed into simplified fastener
models (see Section 6.4.1) in a first step. Then, a second step segments and idealizes all
components in accordance with the method described in Chapter 5 (see Section 6.4.2).
183Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
A
B
C
A
B
C
Hypothesis: bolted junctions represented by
fasteners’ models
Geometric transformations: a cylindral interfaces
transformed into a single mesh node
(a)
Figure 6.17: Illustration of Task 2: Transformation of bolted junction interfaces into mesh
nodes.
Fastener connection points
Figure 6.18: Results of the template-based transformation of bolted junctions. The blue
segment defines the screw axis. Red segments are projections of interfaces between the plates
and the screw. Yellow points are the idealizations of these interfaces to connect the screw to
the plates.
184Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
6.4.1 Extension of the template approach to idealized fastener
generation
Given the above simulation objectives, the first step of transformations is related to the
transfer of plate loads throughout the assembly and FE beam elements are sufficient
to model the bolts behavior. This hypothesis implies, in task 2 of the methodology, a
transformation of cylindrical interfaces between bolts and plate holes into single mesh
nodes (see Figure 6.17a) linked to beam elements that represent the idealized fasteners.
A specific template-based operator has been developed to automate the transformation
of bolted junctions into idealized fasteners. As in Section 6.3, the bolted junctions
are identified among all 3D components through the function they are involved in:
‘adjusted bolted junctions with screw+nut’. Then, the template applies a set of shape
transformations ST to generate the beam elements with their associated connection
points. These shape transformations are described as follows:
• ST 1: merging screw and nut (identical to Section 6.3.3.1);
• ST 2: removal of the locking nut if it exists (identical to Section 6.3.3.2);
• ST 3: screw transformation into beam elements (see Figure 6.18). FE beam elements
are represented by line segments. The axis of the screw is used as location
for the line segments;
• ST 4: transfer of interfaces between plates and screw as points on the line segments.
The blue part in Figure 6.18 represents the whole screw, the red parts are
the projections of the interfaces between the plates and the screw while yellow
points represent the idealization of these interfaces and define the connections
between each plate and the screw;
• ST 5: reduce junction holes in plates to single points. The fastener model used to
represent bolted junctions does not represent holes in the final idealized model
(see Figure 6.19).
Different idealizations, i.e., the set of ST , can be generated to match different
simulation objectives. For instance, one ST can focus on the screw stiffness in addition
to the current simulation objectives. To this end, a new objective can be set up
to compare the mechanical behavior when screws are modeled as beams and when
they are perfectly rigid. Consequently, the screws must now be represented as rigid
bodies. This means that the blue part (see Figure 6.18) representing the FE beam
element is no longer needed. Then, the yellow points (see Figure 6.18) can be used
directly to generate the mesh connection points in the final medial surfaces of the plate
components. These points can be used to set kinematic constraints.
Indeed, the list of previous geometric operations describes a new category of shape
transformation, ST i that would be needed to meet this new simulation objective. Be-
185Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
cause these transformations are close the templates described, this shows how the
principle of the template-based transformations can be extended to be adapted to new
simulation objectives using additional elementary transformations. Here, ST 3 would
be replaced by ST i that would produce the key points needed to express the kinematic
constraints.
Now that the bolted junctions have been simplified into FE fasteners, the next
section illustrates the idealization of the whole assembly.
6.4.2 Presentation of a prototype dedicated to the generation
of idealized assemblies
In order to generalize the idealization approach presented in Chapter 5, a prototype has
been developed to process not only components but also whole assemblies. Likewise the
template demonstrator, the prototype is based on OpenCascade [CAS14] and Python
scripting language. The CAD assembly as well as the geometric interfaces are imported
as STEP models.
Figure 6.19 illustrates the user interface of the prototype. Here, the 3D viewer shows
the result of task 2 where the bolted junctions of the CAD assembly have been transformed
into simple fasteners using the template-based approach. The interface graph
in the graph tag shows all the neighboring relationships between assembly components
(including the fasteners).
Figure 6.20 illustrates task 3 where the assembly components are segmented into
sub-domains according to shape primitives organized into a construction graph. The
set of solid primitives in red is extracted using the algorithm described in Section 4.5.2.
The primitives are then removed from the initial solid to obtain a simpler component
shape. Once the construction graph is generated, the user selects a construction process
which creates a component segmentation into volume sub-domains. Then, each
sub-domain is idealized wherever the primitive extent versus its thickness satisfies the
idealization criterion. The interfaces resulting from this idealization can be associated
with new transformations of assembly interfaces, e.g., a group of parallel idealized
surfaces linked to the same assembly interface can be aligned and connected. The analysis
of interactions between independently idealized sub-domains can guide geometric
transformations such as sub-domain offsets and connections. These transformations
are part of task 4. Figure 6.21 illustrates an intermediate result of the idealization
process of a component (task 5). The graph of primitives’ interfaces has been analyzed
in task 4 to identify and align groups of parallel medial surfaces. For example, the
medial surface highlighted in brown is offset by 2.9 mm from its original position. The
medial surfaces are then connected with the operator described in Section 5.5.3. The
result is a fully idealized representation of the component.
Finally, other idealized components are incorporated in the idealized assembly
186Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
List of
interfaces
List of
components
3D Viewer
Output/ Input
console
Graph of interfaces
Figure 6.19: User interface of the prototype for assembly idealization. The 3D viewer shows
the assembly after the transformation of bolted junctions into FE fasteners.
Configurations
of component’s
segmentation
3D Visualization of a set of
primitives to be removed from solid
Configuration
of the
primitives
extraction
algorithm
Figure 6.20: Illustration of a component segmentation which extract extruded volumes to be
idealized in task 3. The primitives to be removed from the initial solid are highlighted in red.
187Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
List of
interfaces
between
primitives
List of
component’s
primitives
3D Vizualization of
component idealization
Primitive
attributes
Graph of interfaces between primitives
Figure 6.21: Illustration of task 4: Identification and transformation of groups of idealized
surfaces connected to the same assembly interfaces.
model using complementary sub-domain transformations applied to each of them as
illustrated in Figure 6.22.
List of
idealized
components
and fasteners
3D Vizualization of
assembly idealization
Figure 6.22: Final result of the idealized assembly model ready to be meshed in CAE software.
Again, functional information about components and successive decomposition into
188Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
sub-domains as well as idealization processes reduce the preparation process to minutes:
up to approximately ten minutes to process all the components including all the
user interactions required to load each component, select the appropriate template or
process the components subjected to the segmentation process and the morphological
analysis. This is a significant time reduction compared to the days required when
performing interactively the same transformations using tedious interactions with low
level operators existing in current CAE software.
Yet, the constraints related to mesh generation through mesh size constraints, have
not been taken into account in the current analysis of preparation processes. These
constraints have to be addressed in future research work. It has also to be noted
that the process flow of Figure 6.5 turns into a sequential flow in all the simulation
frameworks illustrated.
6.5 Conclusion
In this chapter, dependencies between categories of shape transformations have been
organized to structure the assembly simulation model preparation process in terms
of methodology and scope of shape transformation operators. The proposed methodology
empowers the use of DMUs enriched with geometric interfaces and functional
information to automate CAD assembly pre-processing and to generate a ‘FE-friendly’
equivalence of this assembly.
The template-based method has shown that shape transformations highly benefit
from functional information. Using functional information strengthens the transformation
of complex models like assemblies where many components interact with each
other. The template can be instantiated over the whole assembly to quickly transform
repetitive configurations such as bolted junctions that are highly time-consuming when
processed purely interactively.
The idealization method introduces a robust geometric operator of assembly idealization.
This operator takes advantage of the assembly decomposition into sub-domains
and their associated geometric interfaces as produced in Chapter 5. This structure has
been used successfully to idealize sub-domains and address some general mesh generation
constraints to ensure obtaining high quality meshes.
Finally, a demonstrator has been implemented to prove the validity of the proposed
methodology. This prototype has been applied to an industrial use-case proposed in
ROMMA project [ROM14] to create a simplified solid model and an idealized, surfacebased
model, using the operators currently developed. This use-case has demonstrated
the benefits of the proposed methodology to:
1. Efficiently process real 3D assemblies extracted from large DMU;
189Chapter 6: Toward a methodology to adapt an enriched DMU to FE assembly models
2. Enable the implementation of a robust approach to monitor automated shape
transformations.
Thanks to this methodology, the preparation time can be drastically shortened
compared to purely interactive processes as commonly practiced by today’s engineers.
190Conclusion and perspectives
Assemblies, as sets of components, bring a new complexity level for CAD-FEA data
processing of mechanical structures. Here, new principles and associated operators have
been developed to automate the adaptation of CAD assembly models. The objective
targeted robust transformations to process the large amount of repetitive geometric
configurations of complex assemblies and to reduce the time spent by engineers to
prepare these assemblies.
Summary of conclusions
Now, each of the contributions stated in the previous chapters can be synthesized and
summarized.
In-depth analysis of FE pre-processing rules
The first contribution stands in the analysis of the current pre-processing of CAD
models derived from DMUs to produce FE models. Due to the lack of assembly-related
information in a DMU, very tedious tasks are required to process the large amount of
components as well as their connections. Preparing each component is already a tedious
task, especially when idealizations are necessary, that increases significantly with
the number of components and their interfaces. Additionally, these interfaces form
new entities to be processed. It has been observed that repetitive configurations and
their processing are also an issue of assembly preparation, justifying the need to automate
the preparation of large assembly models. This first analysis has concluded
that the adaption of an assembly to FEA requirements and geometric transformations
derive from simulation objectives and component functions are needed as well to geometrically
transform groups of components. Also, it has been shown that functional
information can be an efficient enrichment of a DMU to identify and process repetitive
configurations.
Challenging assembly models preparation
Studying the current CAD-FEA methods and tools related to data integration
191Conclusion and perspectives
reveals that operators currently available focus on the transformation of standalone
components. One main contribution of this thesis is the proposal of an approach
to assembly model preparation. Rather than reducing the preparation process to a
sequence of separately prepared parts, the entire assembly has been considered when
specifying shape transformations to reach simulation objectives, taking into account the
kinematics and physics associated with assembly interfaces. The proposed approach
to assembly pre-processing uses, as input model, a DMU enriched at an assembly level
with interface geometry between components, additional functional properties of these
components, and, at the component level, a structured volume segmentation using a
graph structure.
Geometrically enriched components
A new approach has been proposed to decompose a B-Rep solid into volume subdomains.
This approach robustly enriches a CAD component using a construction
graph and provides a volume decomposition of each component shape. This construction
graph is generated by iteratively identifying and removing a set of extrusion primitives
from the current B-Rep shape. It has been shown that, compared to any initial
construction process performed by a designer, the extracted graph is unique for a given
object and is intrinsic to its shape because it overcomes modeling, surface decomposition,
and topological constraints. In addition, it provides non trivial construction trees,
i.e., variants of extrusion directions producing the same primitive are not represented
and variants in primitives ordering are grouped into a single node. This generates a
compact representation of a large set of shape construction processes. Moreover, the
proposed approach, while enriching a standalone component shape, can be extended
to assembly structures after they have been enriched with component interfaces. Each
component construction graph can be nested into the component-interface assembly
structure, thus forming a robust data structure for CAD-FEA transformation processes.
Finally, a graph of generative processes of a B-Rep component is a promising
basis to gain a better insight about a shape structure. The criteria used to generate
this graph bring meaningful and simple primitives which can be subsequently used to
support the idealization process of component shapes.
Formalizing a shape idealization process through a morphological analysis
It has been shown that generating a fully idealized model cannot be reduced to a
pure application of a dimensional reduction operator such that this model is a mechanical
equivalence of the initial component. The incorporation of idealization hypotheses
requires the identification of candidate geometric areas associated with the connections
between idealized sub-domains. The proposed idealization process benefits from the
new enrichment of components with their shape structure. The segmentation of the
component into meaningful primitives and interfaces between them has been used as a
first step of a morphological analysis. This analysis evaluates each primitive with re-
192Conclusion and perspectives
spect to its dominant idealized shape. Then, using a taxonomy of geometric interfaces
between idealized sub-domains, this analysis is propagated over the whole component
and results in the decomposition of its shape into ’idealizable’ areas of type ’plate/shell,
beam and ’non-idealizable’ areas. Overall, the morphological analysis is independent
from any resolution method and is able to characterize geometric details in relation
to local and to ’idealizable’ regions of a component. Finally, an idealization operator
has been developed which transforms the sub-domains into medial surfaces/lines and
robustly connects them using the precise geometric definition of interfaces between
primitives.
Laying down the basis of a methodology to assembly preparation
To address the current industrial needs about assembly pre-processing for structural
simulation, the analysis of dependencies between geometric transformations, simulation
objectives, and simplification hypotheses led to a first methodology increasing the
level of automation of FE assembly model pre-processing. Using an enriched DMUs
containing geometric interfaces between components and their primitives as well as
functional information to end up with the generation of a ‘FE-friendly’ equivalence of
this assembly, the methodology is in line with the industrial needs to develop a new
generation of DMU: the Functional DMU. Finally, the development of a prototype platform
has illustrated that the methodology fits well with the methods and tools proposed
in this thesis. The template-based transformation, empowering the use of functional
information, has illustrated how repetitive configurations, such as assembly junctions,
can be automatically transformed. Then, the generation of the complete idealization
of an aeronautical structure has demonstrated the ability of the proposed idealization
approach to efficiently process CAD assemblies extracted from a large DMU.
As a final conclusion, compared to purely geometric operators currently available
in CAD-FEA integration, this thesis has proposed an approach based on a shape analysis
of a enriched DMU model that significantly shortens the time commonly spent
by today’s engineers and robustly performs repetitive idealization transformations of
components and assemblies as well.
Research perspectives
From the proposed approach of DMU pre-processing for structural assembly simulation,
future work can extend and build further on the methods and tools described
in this thesis. The perspectives presented in this section refers to the generation of
construction graph of B-Rep shapes and to the morphological analysis of DMU models.
193Conclusion and perspectives
Construction graph
Regarding the generation of construction graphs from B-Rep shapes, perspectives
are listed as follows:
• Extend the definition of primitive to include material removal as well
as additional operations (revolution, sweep,. . . ). In a first step, to reduce
the complexity of this research work, the choice has been made to concentrate
the extraction of generative processes on extrusion primitives. Primitives are
combined solely using a material addition operator. Clearly, future work will focus
on incorporating material removal operations and revolutions to extend the
range of objects that can be processed. Allowing new definitions of primitives
may increase the amount of primitives. However, the construction graph can
be even more compact. Indeed, groups of extrusion primitives can be replaced
by a unique revolution, or a sweeping primitive in the construction graph. To
reduce the complexity of the dimensional reduction of primitives, the presented
idealization process favored primitives adding material instead of primitives removing
material. Including primitives which removes material can be convenient
for other applications, e.g., to simplify components’ shapes for 3D simulation or
to identify cavities in components for computational fluid simulations.
• Extend the attachment condition of primitives. Regarding the attachment
of a primitive into an object, it has been shown all the benefits to avoid constraining
the primitive identification process with their attachment conditions and to
avoid looking at prioritizing primitives with geometric criteria such as: largest
visible boundaries within the object. Identifying primitives without restriction
on their ’visible’ boundaries is a way to release this constraint. However, to validate
the major concepts of the proposed approach, two restrictions have been
set on the primitive definition. The extrusion distance had to be represented by
a lateral edge and one of the primitive’s base face had to be totally ’visible’. A
future target stands in the generalization of the primitive definition to enlarge
the number of valid primitives and hence, will produce a more generic algorithm;
• Reduce the interaction between primitives. Currently, the computation
time is highly dependent on the number of extracted primitives which are compared
with each others. To reduce the complexity of the algorithm, future work
may integrate the identification of repetitions and symmetries [LFLT14]. It is
not only the global symmetries or repetitions, e.g., reflective symmetries valid at
each point of an object, which may directly reduce the extent of a shape being
analyzed, more frequently partial symmetries and repetitions are more efficient
to identify specific relationships between primitives. Partial symmetries and repetitions
initiated by the location of identical primitives convey a strong meaning
from a shape point of view. They can be used after the extraction of primitives
to generate groups of symmetrical/repetitive primitives or even before that
194Conclusion and perspectives
stage to help identifying primitives, e.g., selecting a set of base faces sharing the
same plane and the same orientation. Finally, symmetries and repetitions are
very relevant to structure an idealized model to propagate these shape structure
information across the mesh generation phase.
• Further applications of construction graphs. A construction graph structures
the shape of a B-Rep object independently from any CAD modeler. Applied
to hex-meshing, a shape intrinsic segmentation into extrusion primitives extracted
from its construction graph can be highly beneficial. Indeed, it directly provides
simple meshable volumes. Moreover, the complementary information about the
connections between primitive interfaces can help to generate a complete component
3D mesh. Applied to 3D direct modeling CAD software, this intrinsic shape
structure can be used to significantly extend this approach with larger shape
modification as well as parametrization capabilities. Because primitives are geometrically
independent of each other, the parametrization of a primitive can be
directly related to the object shape, i.e., the influence of the shape modification
of a primitive can be identified through the interface of this primitive with the
object.
Morphological analysis of assemblies.
The morphological analysis method of Chapter 5 has been presented as a preliminary
step for dimensional reduction operations. The perspectives related to this
morphological analysis are as follows:
• Extend the taxonomy of reference morphologies. The determination of
idealizable volume sub-domains in a component is based on a taxonomy of morphologies.
Each morphology is associated with one medial edge of the MAT
applied to the extrusion contour of a primitive. Clearly, this taxonomy is not
complete. Only morphologies associated with straight medial edges with constant
radius has been studied. To enable the processing of a larger range of
component shapes, this taxonomy can be extended, in a first step, to curved
edges, with or without radius variation, and, in a second step, to other types of
primitives (revolution, sweeping, . . . );
• Extend the taxonomy of connections. Regarding the propagation of the
morphological analysis of primitives to the whole object, the current taxonomy
of connections covers extrusion sub-domains to be idealized with planar medial
surfaces only. The detailed study of these configurations has demonstrated all
the robustness of the proposed approach. Here too, this taxonomy can be enlarged
to process beams, shells, or thick domains. In addition, the taxonomy of
connections is currently restricted to couples of sub-domains. In case of groups
of connected sub-domains, a new level of morphology may emerge, e.g., a set of
piled up thin extrusion primitives forming a beam. Analyzing and formalizing
195Conclusion and perspectives
this new taxonomy of connections between sub-domains will enlarge the shape
configurations which can be processed;
• Extend the approach to the morphological analysis of assemblies. Although
construction graph structures (primitives/interfaces) is compatible with
assembly structures (components/interfaces), the morphological analysis has been
applied on standalone components. When the input model is an assembly structure,
the assembly interfaces brings a new level of information. The influence of
assembly interfaces on the established taxonomies have to be studied to extend
the morphology analysis to assembly. For example, on large assemblies models,
a group of component can be viewed as a unique morphology. Propagating the
morphological analysis of components to the whole assembly will give the user a
complete access to multi-resolution morphological levels of a DMU.
Finally, we can mention the report from a 2013 ASME Panel on Geometric Interoperability
for Advanced Manufacturing [SS14]. The panelists involved had considerable
experience in the use of component geometry throughout various design and manufacturing
softwares. They stated that current CAD systems have hit hard limit with
the representation of 3D products. They came to the same conclusions that we have
highlighted about the need of a better interoperability of geometric models and design
systems with current DMUs. The proposed approaches made in this thesis with
construction graph and morphological analysis of assembly offers new opportunities to
adapt a model to the needs of the different applications involved in a product development
process.
196Bibliography
[AA96] Aichholzer O., Aurenhammer F.: Straight skeletons for general
polygonal figures in the plane. In Computing and Combinatorics, Cai
J.-Y., Wong C., (Eds.), vol. 1090. Springer Berlin Heidelberg, 1996,
pp. 117–126. 57
[AAAG96] Aichholzer O., Aurenhammer F., Alberts D., Grtner B.:
A novel type of skeleton for polygons. In J.UCS The Journal of Universal
Computer Science, Maurer H., Calude C., Salomaa A., (Eds.).
Springer Berlin Heidelberg, 1996, pp. 752–761. 57
[ABA02] Andujar C., Brunet P., Ayala D.: Topology-reducing surface
simplification using a discrete solid representation. ACM Trans.
Graph.. Vol. 21, Num. 2 (avril 2002), 88–105. 39, 44, 47, 64
[ABD∗98] Armstrong C. G., Bridgett S. J., Donaghy R. J., Mccune
R. W., Mckeag R. M., Robinson D. J.: Techniques for interactive
and automatic idealisation of CAD models. In Proceedings
of the Sixth International Conference on Numerical Grid Generation
in Computational Field Simulations (Mississippi State, Mississippi,
39762 USA, 1998), NSF Engineering Research Center for Computational
Field Simulation, ISGG, pp. 643–662. 35, 53
[ACK01] Amenta N., Choi S., Kolluri R. K.: The power crust, unions of
balls, and the medial axis transform. Computational Geometry. Vol.
19, Num. 2 (2001), 127–153. 54
[AFS06] Attene M., Falcidieno B., Spagnuolo M.: Hierarchical mesh
segmentation based on fitting primitives. The Visual Computer. Vol.
22, Num. 3 (2006), 181–193. 59
[AKJ01] Anderson D., Kim Y. S., Joshi S.: A discourse on geometric
feature recognition from cad models. J Comput Inform Sci Eng. Vol.
1, Num. 1 (2001), 440–746. 51
[AKM∗06] Attene M., Katz S., Mortara M., Patane G., Spagnuolo ´
M., Tal A.: Mesh segmentation-a comparative study. In Shape
197BIBLIOGRAPHY
Modeling and Applications, 2006. SMI 2006. IEEE International Conference
on (2006), IEEE, pp. 7–7. 59
[ALC08] ALCAS: Advanced low-cost aircraft structures project. http://
alcas.twisoftware.com/, 2005 – 2008. xv, 18
[AMP∗02] Armstrong C. G., Monaghan D. J., Price M. A., Ou H.,
Lamont J.: Engineering computational technology. Civil-Comp
press, Edinburgh, UK, UK, 2002, ch. Integrating CAE Concepts with
CAD Geometry, pp. 75–104. 35
[Arm94] Armstrong C. G.: Modelling requirements for finite-element analysis.
Computer-aided design. Vol. 26, Num. 7 (1994), 573–578. xvi,
48, 49, 132
[ARM∗95] Armstrong C., Robinson D., McKeag R., Li T., Bridgett
S., Donaghy R., McGleenan C.: Medials for meshing and more.
In Proceedings of the 4th International Meshing Roundtable (1995).
48, 49, 53
[B∗67] Blum H., et al.: A transformation for extracting new descriptors
of shape. Models for the perception of speech and visual form. Vol. 19,
Num. 5 (1967), 362–380. 48
[Bad11] Badin J.: Ing´enierie hautement productive et collaborative `a base
de connaissances m´etier: vers une m´ethodologie et un m´eta-mod`ele
de gestion des connaissances en configurations. PhD thesis, BelfortMontb´eliard,
2011. 44
[Bat96] Bathe K.-J.: Finite element procedures, vol. 2. Englewood Cliffs,
NJ: Prentice-Hall, 1996. 24
[BBB00] Belaziz M., Bouras A., Brun J.-M.: Morphological analysis
for product design. Computer-Aided Design. Vol. 32, Num. 5 (2000),
377–388. 63
[BBT08] Bellenger E., Benhafid Y., Troussier N.: Framework for
controlled cost and quality of assumptions in finite element analysis.
Finite Elements in Analysis and Design. Vol. 45, Num. 1 (2008), 25–
36. 44
[BC04] Buchele S. F., Crawford R. H.: Three-dimensional halfspace
constructive solid geometry tree construction from implicit boundary
representations. CAD. Vol. 36 (2004), 1063–1073. 62, 63, 107
198BIBLIOGRAPHY
[BCGM11] Badin J., Chamoret D., Gomes S., Monticolo D.: Knowledge
configuration management for product design and numerical simulation.
In Proceedings of the 18th International Conference on Engineering
Design (ICED11), Vol. 6 (2011), pp. 161–172. 44
[BCL12] Ba W., Cao L., Liu J.: Research on 3d medial axis transform via
the saddle point programming method. Computer-Aided Design. Vol.
44, Num. 12 (2012), 1161 – 1172. 54
[BEGV08] Barequet G., Eppstein D., Goodrich M. T., Vaxman A.:
Straight skeletons of three-dimensional polyhedra. In Algorithms-ESA
2008. Springer, 2008, pp. 148–160. 57
[Bic95] Bickford J.: An Introduction to the Design and Behavior of Bolted
Joints, Revised and Expanded, vol. 97. CRC press, 1995. 178
[BKR∗12] Barbau R., Krima S., Rachuri S., Narayanan A., Fiorentini
X., Foufou S., Sriram R. D.: Ontostep: Enriching product
model data using ontologies. Computer-Aided Design. Vol. 44, Num.
6 (2012), 575–590. 27
[BLHF12] Boussuge F., Leon J.-C., Hahmann S., Fine L. ´ : An analysis
of DMU transformation requirements for structural assembly simulations.
In The Eighth International Conference on Engineering Computational
Technology (Dubronik, Croatie, 2012), B.H.V. Topping, Civil
Comp Press. 65, 82
[BLHF14a] Boussuge F., Lon J.-C., Hahmann S., Fine L.: Extraction of
generative processes from b-rep shapes and application to idealization
transformations. Computer-Aided Design. Vol. 46, Num. 0 (2014), 79
– 89. 2013 {SIAM} Conference on Geometric and Physical Modeling.
86
[BLHF14b] Boussuge F., Lon J.-C., Hahmann S., Fine L.: Idealized models
for fea derived from generative modeling processes based on extrusion
primitives. In Proceedings of the 22nd International Meshing
Roundtable (2014), Sarrate J., Staten M., (Eds.), Springer International
Publishing, pp. 127–145. 86
[BLNF07] Bellec J., Ladeveze P., N ` eron D., Florentin E. ´ : Robust
computation for stochastic problems with contacts. In International
Conference on Adaptive Modeling and Simulation (2007). 82
[BR78] Babuvˇska I., Rheinboldt W. C.: Error estimates for adaptive
finite element computations. SIAM Journal on Numerical Analysis.
Vol. 15, Num. 4 (1978), 736–754. 46
199BIBLIOGRAPHY
[BS96] Butlin G., Stops C.: Cad data repair. In Proceedings of the 5th
International Meshing Roundtable (1996), pp. 7–12. 47
[BSL∗14] Boussuge F., Shahwan A., Lon J.-C., Hahmann S., Foucault
G., Fine L.: Template-based geometric transformations of a functionally
enriched dmu into fe assembly models. Computer-Aided Design
and Applications. Vol. 11, Num. 4 (2014), 436–449. 168
[BWS03] Beall M. W., Walsh J., Shephard M. S.: Accessing cad geometry
for mesh generation. In IMR (2003), pp. 33–42. 47
[CAS14] CASCADE O.: Open cascade technology, version 6.7.0 [computer
software]. http://www.opencascade.org/, 1990 – 2014. 12, 112, 179,
186
[CAT14] CATIA D.: Dassault syst`emes catia, version v6r2013x [computer
software]. http://www.3ds.com/products-services/catia/, 2008
– 2014. 89, I, IX
[CBG08] Champaney L., Boucard P.-A., Guinard S.: Adaptive multianalysis
strategy for contact problems with friction. Computational
Mechanics. Vol. 42, Num. 2 (2008), 305–315. 30, 175, 177
[CBL11] Cao L., Ba W., Liu J.: Computation of the medial axis of planar
domains based on saddle point programming. Computer-Aided
Design. Vol. 43, Num. 8 (2011), 979 – 988. 54
[Cha12] Champaney L.: A domain decomposition method for studying the
effects of missing fasteners on the behavior of structural assemblies
with contact and friction. Computer Methods in Applied Mechanics
and Engineering. Vol. 205 (2012), 121–129. 30, 175, 177
[CHE08] Clark B. W., Hanks B. W., Ernst C. D.: Conformal assembly
meshing with tolerant imprinting. In Proceedings of the 17th International
Meshing Roundtable. Springer, 2008, pp. 267–280. 65
[CP99] Chapman C., Pinfold M.: Design engineeringa need to rethink
the solution using knowledge based engineering. Knowledge-Based
Systems. Vol. 12, Num. 56 (1999), 257 – 267. 168
[CSKL04] Chong C., Senthil Kumar A., Lee K.: Automatic solid decomposition
and reduction for non-manifold geometric model generation.
Computer-Aided Design. Vol. 36, Num. 13 (2004), 1357–1369. 39, 44,
61, 95, 119
200BIBLIOGRAPHY
[CV06] Chouadria R., Veron P.: Identifying and re-meshing contact
interfaces in a polyhedral assembly for digital mock-up. Engineering
with Computers. Vol. 22, Num. 1 (2006), 47–58. 65
[DAP00] Donaghy R. J., Armstrong C. G., Price M. A.: Dimensional
reduction of surface models for analysis. Engineering with Computers.
Vol. 16, Num. 1 (2000), 24–35. 39, 45, 53
[DLG∗07] Drieux G., Leon J.-C., Guillaume F., Chevassus N., Fine ´
L., Poulat A.: Interfacing product views through a mixed shape
representation. part 2: Model processing description. International
Journal on Interactive Design and Manufacturing (IJIDeM). Vol. 1,
Num. 2 (2007), 67–83. 43
[DMB∗96] Donaghy R., McCune W., Bridgett S., Armstrong D.,
Robinson D., McKeag R.: Dimensional reduction of analysis
models. In Proceedings of the 5th International Meshing Roundtable
(1996). 53
[Dri06] Drieux G.: De la maquette numrique produit vers ses applications
aval : propositions de modles et procds associs. PhD thesis, Institut
National Polytechnique, Grenoble, FRANCE, 2006. 6, 19
[DSG97] Dey S., Shephard M. S., Georges M. K.: Elimination of the
adverse effects of small model features by the local modification of
automatically generated meshes. Engineering with Computers. Vol.
13, Num. 3 (1997), 134–152. 47
[Eck00] Eckard C.: Advantages and disavantadges of fem analysis in an
early state of the design process. In Proc. of the 2nd Worldwide
Automotive Conference, MSC Software Corp, Dearborn, Michigan,
USA (2000). 44
[EF11] E. Florentin S.Guinard P. P.: A simple estimator for stress
errors dedicated to large elastic finite element simulations: Locally
reinforced stress construction. Engineering Computations: Int J for
Computer-Aided Engineering (2011). 46
[FCF∗08] Foucault G., Cuilliere J.-C., Franc¸ois V., L ` eon J.-C., ´
Maranzana R.: Adaptation of cad model topology for finite element
analysis. Computer-Aided Design. Vol. 40, Num. 2 (2008),
176–196. xvi, 34, 50, 97
[FEA14] FEA A. U.: Dassault syst`emes abaqus unified fea, version 6.13
[computer software]. http://www.3ds.com/products-services/
simulia/portfolio/abaqus/overview/, 2005 – 2014. 180, XIX
201BIBLIOGRAPHY
[Fin01] Fine L.: Processus et mthodes d’adaptation et d’idalisation de modles
ddis l’analyse de structures mcaniques. PhD thesis, Institut National
Polytechnique, Grenoble, FRANCE, 2001. 22, 34, 45, 47
[FL∗10] Foucault G., Leon J.-C., et al. ´ : Enriching assembly cad models
with functional and mechanical informations to ease cae. In Proceedings
of the ASME 2010 International Design Engineering Technical
Conferences & Computers and Information in Engineering Conference
IDETC/CIE 2010 August 15-18, 2010, Montr´eal, Canada
(2010). 18, 20
[FLM03] Foskey M., Lin M. C., Manocha D.: Efficient computation of a
simplified medial axis. In Proceedings of the eighth ACM symposium
on Solid modeling and applications (2003), ACM, pp. 96–107. 54
[FMLG09] Ferrandes R., Marin P. M., Leon J. C., Giannini F. ´ : A
posteriori evaluation of simplification details for finite element model
preparation. Comput. Struct.. Vol. 87, Num. 1-2 (janvier 2009), 73–
80. 44
[Fou07] Foucault G.: Adaptation de modles CAO paramtrs en vue d’une
analyse de comportement mcanique par lments finis. PhD thesis, Ecole ´
de technologie sup´erieure, Montreal, CANADA, 2007. 13, 18, 46
[FRL00] Fine L., Remondini L., Leon J.-C.: Automated generation of
fea models through idealization operators. International Journal for
Numerical Methods in Engineering. Vol. 49, Num. 1-2 (2000), 83–108.
44
[GPu14] GPure: Gpure, version 3.4 [computer software]. http://www.
gpure.net, 2011 – 2014. 35
[GZL∗10] Gao S., Zhao W., Lin H., Yang F., Chen X.: Feature suppression
based cad mesh model simplification. Computer-Aided Design.
Vol. 42, Num. 12 (2010), 1178–1188. 44
[HC03] Haimes R., Crawford C.: Unified geometry access for analysis
and design. In IMR (2003), pp. 21–31. 47
[HLG∗08] Hamri O., Leon J.-C., Giannini F., Falcidieno B., Poulat ´
A., Fine L.: Interfacing product views through a mixed shape representation.
part 1: Data structures and operators. International Journal
on Interactive Design and Manufacturing (IJIDeM). Vol. 2, Num.
2 (2008), 69–85. 43
202BIBLIOGRAPHY
[HPR00] Han J., Pratt M., Regli W. C.: Manufacturing feature recognition
from solid models: a status report. Robotics and Automation,
IEEE Transactions on. Vol. 16, Num. 6 (2000), 782–796. 51
[HR84] Hoffman D. D., Richards W. A.: Parts of recognition. Cognition.
Vol. 18, Num. 1 (1984), 65–96. 59
[HSKK01] Hilaga M., Shinagawa Y., Kohmura T., Kunii T. L.: Topology
matching for fully automatic similarity estimation of 3d shapes. In
Proceedings of the 28th annual conference on Computer graphics and
interactive techniques (2001), ACM, pp. 203–212. 59
[Hut86] Huth H.: Influence of fastener flexibility on the prediction of load
transfer and fatigue life for multiple-row joints. Fatigue in mechanically
fastened composite and metallic joints, ASTM STP. Vol. 927
(1986), 221–250. 29
[IIY∗01] Inoue K., Itoh T., Yamada A., Furuhata T., Shimada K.:
Face clustering of a large-scale cad model for surface mesh generation.
Computer-Aided Design. Vol. 33, Num. 3 (2001), 251–261. 49
[IML08] Iacob R., Mitrouchev P., Leon J.-C. ´ : Contact identification
for assembly–disassembly simulation with a haptic device. The Visual
Computer. Vol. 24, Num. 11 (2008), 973–979. 6
[ISO94] ISO:. ISO TC184-SC4: ISO-10303 Part 203 - Application Protocol:
Configuration controlled 3D design of mechanical parts and assemblies,
1994. 33, 72, 89, 180, XIX
[ISO03] ISO:. ISO TC184-SC4: ISO-10303 Part 214 - Application Protocol:
Core data for automotive mechanical design processes, 2003. 33, 72,
89, 180, XIX
[JB95] Jones M.R. M. P., Butlin G.: Geometry management support
for auto-meshing. In Proceedings of the 4th International Meshing
Roundtable (1995), pp. 153–164. 47
[JBH∗14] Jourdes F., Bonneau G.-P., Hahmann S., Leon J.-C., Faure ´
F.: Computation of components interfaces in highly complex assemblies.
Computer-Aided Design. Vol. 46 (2014), 170–178. xvi, 65, 71,
72, 79, 116
[JC88] Joshi S., Chang T.-C.: Graph-based heuristics for recognition of
machined features from a 3d solid model. Computer-Aided Design.
Vol. 20, Num. 2 (1988), 58–66. 51
203BIBLIOGRAPHY
[JD03] Joshi N., Dutta D.: Feature simplification techniques for freeform
surface models. Journal of Computing and Information Science in
Engineering. Vol. 3 (2003), 177. 51
[JG00] Jha K., Gurumoorthy B.: Multiple feature interpretation across
domains. Computers in industry. Vol. 42, Num. 1 (2000), 13–32. 51,
94, 100
[KLH∗05] Kim S., Lee K., Hong T., Kim M., Jung M., Song Y.: An
integrated approach to realize multi-resolution of b-rep model. In
Proceedings of the 2005 ACM symposium on Solid and physical modeling
(2005), ACM, pp. 153–162. 51
[Kos03] Koschan A.: Perception-based 3d triangle mesh segmentation using
fast marching watersheds. In Computer Vision and Pattern Recognition,
2003. Proceedings. 2003 IEEE Computer Society Conference on
(2003), vol. 2, IEEE, pp. II–27. 59
[KT03] Katz S., Tal A.: Hierarchical mesh decomposition using fuzzy
clustering and cuts. ACM Trans. Graph.. Vol. 22, Num. 3 (juillet
2003), 954–961. 59
[KWMN04] Kim K.-Y., Wang Y., Muogboh O. S., Nnaji B. O.: Design
formalism for collaborative assembly design. Computer-Aided Design.
Vol. 36, Num. 9 (2004), 849–871. 27, 64
[LAPL05] Lee K. Y., Armstrong C. G., Price M. A., Lamont J. H.: A
small feature suppression/unsuppression system for preparing b-rep
models for analysis. In Proceedings of the 2005 ACM symposium on
Solid and physical modeling (New York, NY, USA, 2005), SPM ’05,
ACM, pp. 113–124. 35, 39, 44
[LDB05] Lavoue G., Dupont F., Baskurt A. ´ : A new cad mesh segmentation
method, based on curvature tensor analysis. Computer-Aided
Design. Vol. 37, Num. 10 (2005), 975–987. 59
[Ley01] Leyton M.: A Generative Theory of Shape (Lecture Notes in Computer
Science, LNCS 2145). Springer-Verlag, 2001. 93
[LF05] Leon J.-C., Fine L. ´ : A new approach to the preparation of models
for fe analyses. International journal of computer applications in
technology. Vol. 23, Num. 2 (2005), 166–184. 35, 39, 44, 45, 81
[LFLT14] Li K., Foucault G., Leon J.-C., Trlin M.: Fast global and
partial reflective symmetry analyses using boundary surfaces of mechanical
components. Computer-Aided Design, Num. 0 (2014), –. 194
204BIBLIOGRAPHY
[LG97] Liu S.-S., Gadh R.: Automatic hexahedral mesh generation by
recursive convex and swept volume decomposition. In Proceedings
6th International Meshing Roundtable, Sandia National Laboratories
(1997), Citeseer, pp. 217–231. 60
[LG05] Lockett H. L., Guenov M. D.: Graph-based feature recognition
for injection moulding based on a mid-surface approach. ComputerAided
Design. Vol. 37, Num. 2 (2005), 251–262. 51
[LGT01] Lu Y., Gadh R., Tautges T. J.: Feature based hex meshing
methodology: feature recognition and volume decomposition.
Computer-Aided Design. Vol. 33, Num. 3 (2001), 221–232. 60, 100
[LL83] Ladeveze P., Leguillon D.: Error estimate procedure in the
finite element method and applications. SIAM Journal on Numerical
Analysis. Vol. 20, Num. 3 (1983), 485–509. 46
[LLKK04] Lee J. Y., Lee J.-H., Kim H., Kim H.-S.: A cellular topologybased
approach to generating progressive solid models from featurecentric
models. Computer-Aided Design. Vol. 36, Num. 3 (2004),
217–229. 51
[LLM06] Li M., Langbein F. C., Martin R. R.: Constructing regularity
feature trees for solid models. In Geometric Modeling and ProcessingGMP
2006. Springer, 2006, pp. 267–286. 63
[LLM10] Li M., Langbein F. C., Martin R. R.: Detecting design intent
in approximate cad models using symmetry. Computer-Aided Design.
Vol. 42, Num. 3 (2010), 183–201. 63
[LMTS∗05] Lim T., Medellin H., Torres-Sanchez C., Corney J. R.,
Ritchie J. M., Davies J. B. C.: Edge-based identification of
dp-features on free-form solids. Pattern Analysis and Machine Intelligence,
IEEE Transactions on. Vol. 27, Num. 6 (2005), 851–860.
93
[LNP07a] Lee H., Nam Y.-Y., Park S.-W.: Graph-based midsurface extraction
for finite element analysis. In Computer Supported Cooperative
Work in Design, 2007. CSCWD 2007. 11th International Conference
on (2007), pp. 1055–1058. 56
[LNP07b] Lee H., Nam Y.-Y., Park S.-W.: Graph-based midsurface extraction
for finite element analysis. In Computer Supported Cooperative
Work in Design, 2007. CSCWD 2007. 11th International Conference
on (2007), pp. 1055–1058. 119
205BIBLIOGRAPHY
[LOC16] LOCOMACHS: Low cost manufacturing and assembly of composite
and hybrid structures project. http://www.locomachs.eu/, 2012 –
2016. xv, 18
[LPA∗03] Lee K., Price M., Armstrong C., Larson M., Samuelsson
K.: Cad-to-cae integration through automated model simplification
and adaptive modelling. In International Conference on Adaptive
Modeling and Simulation (2003). 47, 49
[LPMV10] Lou R., Pernot J.-P., Mikchevitch A., Veron P. ´ : Merging enriched
finite element triangle meshes for fast prototyping of alternate
solutions in the context of industrial maintenance. Computer-Aided
Design. Vol. 42, Num. 8 (2010), 670–681. 65
[LSJS13] Lee-St John A., Sidman J.: Combinatorics and the rigidity of cad
systems. Computer-Aided Design. Vol. 45, Num. 2 (2013), 473–482.
19
[LST∗12] Li K., Shahwan A., Trlin M., Foucault G., Leon J.-C. ´ : Automated
contextual annotation of b-rep cad mechanical components
deriving technology and symmetry information to support partial retrieval.
In Proceedings of the 5th Eurographics Conference on 3D
Object Retrieval (Aire-la-Ville, Switzerland, Switzerland, 2012), EG
3DOR’12, Eurographics Association, pp. 67–70. 20
[LZ04] Liu R., Zhang H.: Segmentation of 3d meshes through spectral
clustering. In Computer Graphics and Applications, 2004. PG 2004.
Proceedings. 12th Pacific Conference on (2004), IEEE, pp. 298–305.
59
[Man88] Mantyla M.: An Introduction to Solid Modeling. W. H. Freeman
& Co., New York, NY, USA, 1988. 93
[MAR12] Makem J., Armstrong C., Robinson T.: Automatic decomposition
and efficient semi-structured meshing of complex solids. In
Proceedings of the 20th International Meshing Roundtable, Quadros
W., (Ed.). Springer Berlin Heidelberg, 2012, pp. 199–215. xvi, 60,
119, 126
[MCC98] Mobley A. V., Carroll M. P., Canann S. A.: An object
oriented approach to geometry defeaturing for finite element meshing.
In Proceedings of the 7th International Meshing Roundtable, Sandia
National Labs (1998), pp. 547–563. 35
[MCD11] Musuvathy S., Cohen E., Damon J.: Computing medial axes
of generic 3d regions bounded by b-spline surfaces. Computer-Aided
206BIBLIOGRAPHY
Design. Vol. 43, Num. 11 (2011), 1485 – 1495. ¡ce:title¿Solid and
Physical Modeling 2011¡/ce:title¿. 54
[MGP10] Miklos B., Giesen J., Pauly M.: Discrete scale axis representations
for 3d geometry. ACM Transactions on Graphics (TOG). Vol.
29, Num. 4 (2010), 101. 54
[OH04] O. Hamri J-C. Leon F. G.: A new approach of interoperability
between cad and simulation models. In TMCE (2004). 48
[PFNO98] Peak R. S., Fulton R. E., Nishigaki I., Okamoto N.: Integrating
engineering design and analysis using a multi-representation
approach. Engineering with Computers. Vol. 14, Num. 2 (1998), 93–
114. 44
[QO12] Quadros W. R., Owen S. J.: Defeaturing cad models using a
geometry-based size field and facet-based reduction operators. Engineering
with Computers. Vol. 28, Num. 3 (2012), 211–224. 47
[QVB∗10] Quadros W., Vyas V., Brewer M., Owen S., Shimada K.: A
computational framework for automating generation of sizing function
in assembly meshing via disconnected skeletons. Engineering with
Computers. Vol. 26, Num. 3 (2010), 231–247. 65
[RAF11] Robinson T., Armstrong C., Fairey R.: Automated mixed
dimensional modelling from 2d and 3d cad models. Finite Elements
in Analysis and Design. Vol. 47, Num. 2 (2011), 151 – 165. xvi, 44,
53, 54, 81, 119
[RAM∗06] Robinson T. T., Armstrong C. G., McSparron G., Quenardel
A., Ou H., McKeag R. M.: Automated mixed dimensional
modelling for the finite element analysis of swept and revolved
cad features. In Proceedings of the 2006 ACM symposium on Solid
and physical modeling (2006), SPM ’06, pp. 117–128. xvi, 53, 60, 61,
87, 126, 146
[RBO02] Rib R., Bugeda G., Oate E.: Some algorithms to correct a geometry
in order to create a finite element mesh. Computers and Structures.
Vol. 80, Num. 1617 (2002), 1399 – 1408. 47
[RDCG12] Russ B., Dabbeeru M. M., Chorney A. S., Gupta S. K.: Automated
assembly model simplification for finite element analysis. In
ASME 2012 International Design Engineering Technical Conferences
and Computers and Information in Engineering Conference (2012),
American Society of Mechanical Engineers, pp. 197–206. 64
207BIBLIOGRAPHY
[Req77] Requicha A.: Mathematical models of rigid solid objects. Tech.
rep., Technical Memorandum - 28, Rochester Univ., N.Y. Production
Automation Project., 1977. 8
[Req80] Requicha A. G.: Representations for rigid solids: Theory, methods,
and systems. ACM Computing Surveys (CSUR). Vol. 12, Num. 4
(1980), 437–464. 8
[Rez96] Rezayat M.: Midsurface abstraction from 3d solid models: general
theory and applications. Computer-Aided Design. Vol. 28, Num. 11
(1996), 905 – 915. xvi, 35, 55, 56, 95, 100, 134
[RG03] Ramanathan M., Gurumoorthy B.: Constructing medial axis
transform of planar domains with curved boundaries. Computer-Aided
Design. Vol. 35, Num. 7 (2003), 619 – 632. 39, 54
[RG04] Ramanathan M., Gurumoorthy B.: Generating the mid-surface
of a solid using 2d mat of its faces. Computer-Aided Design and
Applications. Vol. 1, Num. 1-4 (2004), 665–674. 56
[RG10] Ramanathan M., Gurumoorthy B.: Interior medial axis
transform computation of 3d objects bound by free-form surfaces.
Computer-Aided Design. Vol. 42, Num. 12 (2010), 1217 – 1231. 54
[Roc12] Rocca G. L.: Knowledge based engineering: Between {AI} and cad.
review of a language based technology to support engineering design.
Advanced Engineering Informatics. Vol. 26, Num. 2 (2012), 159 – 179.
Knowledge based engineering to support complex product design. 168
[ROM14] ROMMA: Robust mechanical models for assemblies. http://romma.
lmt.ens-cachan.fr/, 2010 – 2014. xix, 177, 180, 189
[Sak95] Sakurai H.: Volume decomposition and feature recognition: Part
1polyhedral objects. Computer-Aided Design. Vol. 27, Num. 11
(1995), 833–843. 61
[SBBC00] Sheffer A., Bercovier M., Blacker T., Clements J.: Virtual
topology operators for meshing. International Journal of Computational
Geometry & Applications. Vol. 10, Num. 03 (2000), 309–331.
49
[SBO98] Shephard M. S., Beall M. W., O’Bara R. M.: Revisiting the
elimination of the adverse effects of small model features in automatically
generated meshes. In IMR (1998), pp. 119–131. 47
208BIBLIOGRAPHY
[SD96] Sakurai H., Dave P.: Volume decomposition and feature recognition,
part ii: curved objects. Computer-Aided Design. Vol. 28, Num.
6 (1996), 519–537. 61
[SGZ10] Sun R., Gao S., Zhao W.: An approach to b-rep model simplifi-
cation based on region suppression. Computers & Graphics. Vol. 34,
Num. 5 (2010), 556–564. 39
[Sha95] Shah J. J.: Parametric and feature-based CAD/CAM: concepts,
techniques, and applications. John Wiley & Sons, 1995. 13, 50
[She01] Sheffer A.: Model simplification for meshing using face clustering.
Computer-Aided Design. Vol. 33, Num. 13 (2001), 925–934. 34, 49
[Sil81] Silva C. E.: Alternative definitions of faces in boundary representatives
of solid objects. Tech. rep., Tech. Memo. 36, Production Automation
Project, Univ. of Rochester, Rochester, N.Y., 1981, 1981.
97
[SLF∗12] Shahwan A., Leon J.-C., Fine L., Foucault G., et al. ´ : Reasoning
about functional properties of components based on geometrical
descriptions. In Proceedings of the ninth International Symposium
on Tools and Methods of Competitive Engineering, Karlsruhe, Germany)
(2012), TMCE12. 38, 71, 73, 79, 116, 168, 169
[SLF∗13] Shahwan A., Leon J.-C., Foucault G., Trlin M., Palombi ´
O.: Qualitative behavioral reasoning from components interfaces to
components functions for dmu adaption to fe analyses. ComputerAided
Design. Vol. 45, Num. 2 (2013), 383–394. 19, 20, 27, 38, 71, 72,
73, 79, 116, 142, 160, 168, 169, 179
[SRX07] Stroud I., Renner G., Xirouchakis P.: A divide and conquer
algorithm for medial surface calculation of planar polyhedra.
Computer-Aided Design. Vol. 39, Num. 9 (2007), 794–817. 44, 54
[SS14] Shapiro V., Srinivasan V.: Opinion: Report from a 2013
asme panel on geometric interoperability for advanced manufacturing.
Comput. Aided Des.. Vol. 47 (fvrier 2014), A1–A2. 196
[SSCO08] Shapira L., Shamir A., Cohen-Or D.: Consistent mesh partitioning
and skeletonisation using the shape diameter function. The
Visual Computer. Vol. 24, Num. 4 (2008), 249–259. 59
[SSK∗05] Seo J., Song Y., Kim S., Lee K., Choi Y., Chae S.: Wraparound
operation for multi-resolution cad model. Computer-Aided
Design & Applications. Vol. 2, Num. 1-4 (2005), 67–76. 51
209BIBLIOGRAPHY
[SSM∗10] Sheen D.-P., Son T.-g., Myung D.-K., Ryu C., Lee S. H.,
Lee K., Yeo T. J.: Transformation of a thin-walled solid model
into a surface model via solid deflation. Comput. Aided Des.. Vol. 42,
Num. 8 (aot 2010), 720–730. 39, 44, 57, 95, 100, 119, 126, 134
[SSR∗07] Sheen D.-P., Son T.-g., Ryu C., Lee S. H., Lee K.: Dimension
reduction of solid models by mid-surface generation. International
Journal of CAD/CAM. Vol. 7, Num. 1 (2007). 57
[Str10] Stroud I.: Boundary Representation Modelling Techniques, 1st ed.
Springer Publishing Company, Incorporated, 2010. 10
[SV93] Shapiro V., Vossler D. L.: Separation for boundary to csg conversion.
ACM Trans. Graph.. Vol. 12, Num. 1 (1993), 35–55. 62, 63,
107
[Sza96] Szabo B.: The problem of model selection in numerical simulation.
Advances in computational methods for simulation (1996), 9–16. 22
[Tau01] Tautges T. J.: Automatic detail reduction for mesh generation
applications. In Proceedings 10th International Meshing Roundtable
(2001), pp. 407–418. 35, 51
[TBG09] Thakur A., Banerjee A. G., Gupta S. K.: A survey of {CAD}
model simplification techniques for physics-based simulation applications.
Computer-Aided Design. Vol. 41, Num. 2 (2009), 65 – 80. 39,
51
[TNRA14] Tierney C. M., Nolan D. C., Robinson T. T., Armstrong
C. G.: Managing equivalent representations of design and analysis
models. Computer-Aided Design and Applications. Vol. 11, Num. 2
(2014), 193–205. 12
[Tro99] Troussier N.: Contribution to the integration of mechanical calculation
in engineering design : methodological proposition for the
use and the reuse. PhD thesis, University Joseph Fourier, Grenoble,
FRANCE, 1999. 29, 44, 76
[TWKW59] Timoshenko S., Woinowsky-Krieger S., Woinowsky S.: Theory
of plates and shells, vol. 2. McGraw-hill New York, 1959. 25, 126
[Ull09] Ullman D. G.: The mechanical design process, vol. Fourth Edition.
McGraw-Hill Science/Engineering/Math, 2009. 175
[vdBvdMB03] van den Berg E., van der Meiden H. A., Bronsvoort W. F.:
Specification of freeform features. In Proceedings of the Eighth ACM
210BIBLIOGRAPHY
Symposium on Solid Modeling and Applications (New York, NY, USA,
2003), SM ’03, ACM, pp. 56–64. 173
[VR93] Vandenbrande J. H., Requicha A. A.: Spatial reasoning for the
automatic recognition of machinable features in solid models. Pattern
Analysis and Machine Intelligence, IEEE Transactions on. Vol. 15,
Num. 12 (1993), 1269–1285. 51
[VSR02] Venkataraman S., Sohoni M., Rajadhyaksha R.: Removal of
blends from boundary representation models. In Proceedings of the
seventh ACM symposium on Solid modeling and applications (2002),
ACM, pp. 83–94. 35, 52, 93
[Woo03] Woo Y.: Fast cell-based decomposition and applications to solid
modeling. Computer-Aided Design. Vol. 35, Num. 11 (2003), 969–
977. 51, 61, 94
[Woo14] Woo Y.: Abstraction of mid-surfaces from solid models of thinwalled
parts: A divide-and-conquer approach. Computer-Aided Design.
Vol. 47 (2014), 1–11. xvi, 44, 61, 62, 89, 94, 119
[WS02] Woo Y., Sakurai H.: Recognition of maximal features by volume
decomposition. Computer-Aided Design. Vol. 34, Num. 3 (2002), 195–
207. 51, 61, 94, 100
[ZM02] Zhu H., Menq C.: B-rep model simplification by automatic
fillet/round suppressing for efficient automatic feature recognition.
Computer-Aided Design. Vol. 34, Num. 2 (2002), 109–123. 35, 52,
93
[ZPK∗02] Zhang Y., Paik J., Koschan A., Abidi M. A., Gorsich D.:
Simple and efficient algorithm for part decomposition of 3-d triangulated
models based on curvature analysis. In Image Processing. 2002.
Proceedings. 2002 International Conference on (2002), vol. 3, IEEE,
pp. III–273. 59
[ZT00] Zienkiewicz O. C., Taylor R. L.: The Finite Element Method:
Solid Mechanics, vol. 2. Butterworth-heinemann, 2000. 24
211BIBLIOGRAPHY
212Appendix A
Illustration of generation
processes of CAD components
This appendix shows the construction process of two industrial use-cases. The
components have been designed in CATIA [CAT14] CAD software.
A.1 Construction process of an injected plastic part
The followings figures present the complete shape generation process of the use-case as
shown in Figure 4.1. The component has been designed with the successive application
of 37 modeling features. The used features are:
1. Material addition or removal;
2. Surface operations: fillets, chamfers.
Two views, defined as top and bottom view, are associated with the construction
tree to present all modeling step of the object shape.
A.2 Construction process of an aeronautical metallic
part
The following figures present a complete shape generation of a simple metallic component
which is commonly found in aeronautical structures. The component has been
designed using the successive application of boolean operations of type addition and
removal. This is a common practice for aeronautical metallic design. This technique
shows directly the machining steps in the component design but turn the shape generation
process quite complex. The simple example presented in Figure A.6 contains nine
main operations which could be reduced to three majors operations ( one extrusion
and two hole drillings).
IAppendix A: Illustration of CAD component generation
Construction Tree TOP view BOTTOM view
1
2
3
4
5
6
7
8
1
2
3
4
5
6
7
8
Figure A.1: An example of a shape generation process of an injected plastic part 1/5
IIAppendix A: Illustration of CAD component generation
Construction Tree TOP view BOTTOM view
9
10
11
12
13
14
15
16
9
10
11
12
13
14
15
16
Figure A.2: An example of a shape generation process of an injected plastic part 2/5
IIIAppendix A: Illustration of CAD component generation
Construction Tree TOP view BOTTOM view
17
18 17
18
19
20
21
22
23
24
19
20
21
22
23
24
Figure A.3: An example of a shape generation process of an injected plastic part 3/5
IVAppendix A: Illustration of CAD component generation
Construction Tree TOP view BOTTOM view
25
26
27
28
29
30
31
32
25
26
27
28
29
30
31
32
Figure A.4: An example of a shape generation process of an injected plastic part 4/5
VAppendix A: Illustration of CAD component generation
Construction Tree TOP view BOTTOM view
33
34
35
36
37
33
34
35
36
37
Figure A.5: An example of a shape generation process of an injected plastic part 5/5
VIAppendix A: Illustration of CAD component generation
Main Solid Solids removed or added
with boolean operations
Construction Tree
1
2
3
4
5
6
7
8
9
1
2
3
4
5
6
7
8
9
Figure A.6: An example of a shape generation process of a simple metallic component. The
component has been mainly designed using boolean operations.
VIIAppendix A: Illustration of CAD component generation
VIIIAppendix B
Features equivalence
This appendix illustrates the main modeling features used in CAD software to
design components (Illustrations courtesy of Dassault Syst`emes [CAT14])
IXAppendix B: Features equivalence
Additive
extrusion
Non perpendicular
additive extrusion
Removal
extrusion
Additive
revolution
Removal
revolution
Sketch-Based Features
Figure B.1: Examples of Sketch-Based Features
XAppendix B: Features equivalence
Hole Drilling
1 removal
extrusion or 1
removal
revolution
Equivalent to:
Hole type:
2 Removal
extrusion or 1
removal
revolution
1 removal
revolution
1 removal
revolution
1 removal
revolution
Additive sweep
Removal sweep
Stiffener
Equivalent to additive extrusion
Sketch-Based Features
Figure B.2: Examples of Sketch-Based Features
XIAppendix B: Features equivalence
Fillet
Fillet which can be included
in extrusion contour
Usual fillet
Chamfer
Equivalent to removal extrusion of can be included in
additive extrusion contour
Draft angle feature can be equivalent to various additive and removal extrusions
Draft angle
Simple draft can be included in additive extrusion contour
Shell
Equivalent to removal extrusion
Equivalent to additive extrusion
Thickness
Dress-Up Features
Figure B.3: Examples of Dress-Up Features
XIIAppendix B: Features equivalence
Boolean operations
Difference
Union
Intersection
Figure B.4: Examples of Boolean operations
XIIIAppendix B: Features equivalence
XIVAppendix C
Taxonomy of a primitive
morphology
This appendix illustrates 18 morphological configurations associated with a MAT
medial edge of a volume primitive Pi of type extrusion.
The two tables differ according to whether the idealization direction of Pi corresponds
to the extrusion direction, see Table C.1, or whether the idealization direction
of Pi is included in the extrusion contour, see Table C.2. The reference ratio xr and user
ratio xu are used to specify, in each table, the intervals of morphology differentiating
beams, plates or shells and 3D thick domains.
XVAppendix C: Features equivalence
y = L2 / max Ø
x = max Ø / L1
y < xu
xu < y < xr
xr < y
xr < x xr < x < xu x < xu
L1 < max Ø / xr
max Ø < L2 < xu . max Ø
max Ø / xr < L1 < max Ø / xu
max Ø < L2 < xu . max Ø
xu . max Ø < L1 < max Ø
max Ø < L2 < xu . max Ø
L1 < max Ø / xr
xu . max Ø < L2 < xr . max Ø
L1 < max Ø / xr
xu . max Ø < L2
max Ø / xr < L1 < max Ø / xu
xu . max Ø < L2 < xr . max Ø
xu . max Ø < L1 < max Ø
xu . max Ø < L2 < xr . max Ø
max Ø / xr < L1 < max Ø / xu
xu . max Ø < L2
xu . max Ø < L1 < max Ø
xu . max O < L2
x = max Ø / L1 if max Ø > L1
x = L1 / max Ø if max Ø <= L1
y = L2 / max Ø L1
Ø L2
L1
Ø
L2
Ø
L2
L1 L1
Ø
L2
L1
Ø
L2
L1
Ø L2
L1
Ø L2
L1
Ø L2
L1
Ø
L2
L1
Ø
L2
PLATE THICK PLATE under user
hypothesis (in plane Ø )
BEAM under user
hypothesis (direction L2)
BEAM to PLATE
under user hypothesis
BEAM to BAND
under user hypothesis
PLATE (plane orthogonal Ø ) to BEAM (direction L2)
BAND under user hypothesis
BAND
Table C.1: Morphology associated with a MAT medial edge of a primitive Pi. 1/2
XVIAppendix C: Features equivalence
L1 > 10 . L2
x < xu xu < x < xr xr < x
max Ø < L1 < xu . max Ø
max Ø < L2 < xu . max Ø
L1
Ø
L2
xu . max Ø < L1 < xr . max Ø
max Ø < L2 < xu . max Ø
L1
Ø L2
xr . max Ø < L1
max Ø < L2 < xu . max Ø
L1
L Ø 2
max Ø < L1 < xu . max Ø
xu . max Ø < L2 < xr . max Ø
max Ø < L1 < xu . max Ø
xu . max Ø < L2
xu . max Ø < L1 < xr . max Ø
xu . max Ø < L2 < xr . max Ø
xr . max Ø < L1
xu . max Ø < L2
< xr . max Ø
xu . max Ø < L1 < xr . max Ø
xu . max Ø < L2
xr . max Ø < L1
xu . max Ø < L2
L1
Ø L2
L1
Ø
L2
L1
Ø L2
L1 > 10 . L2
L1
Ø L2
L1
Ø L2
L2 > 10 . L1 BAND
MASSIF BEAM under user
hypothesis (direction L1) BEAM (direction L1)
BEAM (direction L2)
SHELL under user
hypothesis (plane L1/L2)
SHELL (plan L1/L2)
BAND
SHELL under user
hypothesis (plane L1/L2)
BEAM (direction L1)
to SHELL under user
hypothesis (plane L1/L2)
BEAM
L1
Ø L2
y = L2 / max Ø
x = max Ø / L1
y < xu
xu < y < xr
xr < y
x = max Ø / L1 if max Ø > L1
x = L1 / max Ø if max Ø <= L1
y = L2 / max Ø L1
Ø L2
SHELL under user
hypothesis (plane L1/L2)
Ø
Table C.2: Morphology associated with a MAT medial edge of a primitive Pi. 2/2
XVIIAppendix C: Features equivalence
XVIIIAppendix D
Export to CAE software
This appendix illustrates the data structure used to transfer the adapted DMU to
a CAE software, i.e., Abaqus [FEA14]. STEP files [ISO94, ISO03] are used to transfer
the geometric model and associated xml files.
XIXAppendix D: Export to CAE software
BoltedJunction_patch
(a) (b)
Figure D.1: Illustration of the STEP export of a Bolted Junction with sub-domains around
screw. (a) Product structure open in CATIA software, (b) associated xml file containing the
association between components and interfaces
BoltedJunction_patch
Figure D.2: Illustration of the STEP export of a Bolted Junction. Each component containing
volume sub-domains is exported as STEP assembly.
XXAppendix D: Export to CAE software
BoltedJunction_patch
Inner Interfaces
Figure D.3: Illustration of the STEP export of a Bolted Junction. Each inner interface
between sub-domains is part of the component assembly.
XXIAppendix D: Export to CAE software
BoltedJunction_patch
Outer Interfaces
Figure D.4: Illustration of the STEP export of a Bolted Junction. Each outer interface
between components is part of the root assembly.
XXIIAppendix D: Export to CAE software
Root Joint
Patchs CAD assembly
Interfaces
Figure D.5: Illustration of the STEP export of the full Root Joint assembly.
XXIII
Modélisation et d´etection statistiques pour la
criminalistique num´erique des images
Thanh Hai Thai
To cite this version:
Thanh Hai Thai. Mod´elisation et d´etection statistiques pour la criminalistique num´erique des
images. Statistics. Universit´e de Technologie de Troyes, 2014. French.
HAL Id: tel-01072541
https://tel.archives-ouvertes.fr/tel-01072541
Submitted on 8 Oct 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.PHD THESIS
to obtain the degree of
DOCTOR of UNIVERSITY
of TECHNOLOGY of TROYES
Speciality: Systems Optimization and Dependability
presented and defended by
Thanh Hai THAI
August 28th 2014
Statistical Modeling and Detection for Digital
Image Forensics
COMMITTEE:
Mrs. Jessica FRIDRICH Professor Reviewer
M. Patrick BAS Chargé de recherche CNRS Reviewer
M. William PUECH Professeur des universités Examinator
M. Igor NIKIFOROV Professeur des universités Examinator
M. Rémi COGRANNE Maître de conférences Examinator
M. Florent RETRAINT Enseignant-Chercheur SupervisorTo my Mom, my Dad, and my little brother,
To Thu Thao, my fiancée,
for their unlimited support, encouragement, and love.iii
Acknowledgments
This work has been carried out within the Laboratory of Systems Modeling and
Dependability (LM2S) at the University of Technology of Troyes (UTT). It is funded
in part by the strategic program COLUMBO.
This work has been accomplished under the supervision of M. Florent RETRAINT.
I would like to express my deepest gratitude to him for his highly professional
guidance and incessant support. He has accompanied with me from my
master’s internship and encouraged me to discover this field. I highly value the
friendly yet professional environment created during my three-year doctoral. The
high confidence he has given to me is possibly the greatest reward of my endeavors.
I am greatly indebted to my PhD co-advisor, M. Rémi COGRANNE who has
assisted me with high efficiency and availability. It was my honor and pleasure to
work with him. His personal and professional help during my doctoral is invaluable.
I would like to express my special thanks to Mrs. Jessica FRIDRICH and M.
Patrick BAS for accepting to review my PhD thesis. I would also like to thank M.
Igor NIKOFOROV and M. William PUECH for agreeing to examine this thesis.
Valuable remarks provided by the respectful experts in this field like them would
improve the thesis’s quality.
I would like to thank the members of LM2S for the friendly and adorable environment
which they have offered me since I joint the LM2S team.v
Résumé
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux
jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De
la même manière, les logiciels sophistiqués de retouche d’images se sont démocratisés
et permettent aujourd’hui de diffuser facilement des images falsifiées. Ceci pose un
problème sociétal puisqu’il s’agit de savoir si ce que l’on voit a été manipulé. Cette
thèse s’inscrit dans le cadre de la criminalistique des images numériques. Deux
problèmes importants sont abordés : l’identification de l’origine d’une image et la
détection d’informations cachées dans une image. Ces travaux s’inscrivent dans le
cadre de la théorie de la décision statistique et proposent la construction de dé-
tecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme.
Afin d’atteindre une performance de détection élevée, il est proposé d’exploiter les
propriétés des images naturelles en modélisant les principales étapes de la chaîne
d’acquisition d’un appareil photographique. La méthodologie, tout au long de ce
manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de
vraisemblance dans le contexte idéal où tous les paramètres du modèle sont connus.
Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés
afin de construire le test du rapport de vraisemblance généralisé dont les performances
statistiques sont analytiquement établies. De nombreuses expérimentations
sur des images simulées et réelles permettent de souligner la pertinence de l’approche
proposée.
Abstract
The twenty-first century witnesses the digital revolution that allows digital media
to become ubiquitous. They play a more and more important role in our everyday
life. Similarly, sophisticated image editing software has been more accessible,
resulting in the fact that falsified images are appearing with a growing frequency
and sophistication. The credibility and trustworthiness of digital images have been
eroded. To restore the trust to digital images, the field of digital image forensics was
born. This thesis is part of the field of digital image forensics. Two important problems
are addressed: image origin identification and hidden data detection. These
problems are cast into the framework of hypothesis testing theory. The approach
proposes to design a statistical test that allows us to guarantee a prescribed false
alarm probability. In order to achieve a high detection performance, it is proposed
to exploit statistical properties of natural images by modeling the main steps of
image processing pipeline of a digital camera. The methodology throughout this
manuscript consists of studying an optimal test given by the Likelihood Ratio Test
in the ideal context where all model parameters are known in advance. When the
model parameters are unknown, a method is proposed for parameter estimation in
order to design a Generalized Likelihood Ratio Test whose statistical performances
are analytically established. Numerical experiments on simulated and real images
highlight the relevance of the proposed approach.Table of Contents
1 General Introduction 1
1.1 General Context and Problem Description . . . . . . . . . . . . . . . 1
1.2 Outline of the Thesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Publications and Authors’ Contribution . . . . . . . . . . . . . . . . 6
I Overview on Digital Image Forensics and Statistical Image
Modeling 9
2 Overview on Digital Image Forensics 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Image Processing Pipeline of a Digital Camera . . . . . . . . . . . . 12
2.2.1 RAW Image Formation . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Post-Acquisition Processing . . . . . . . . . . . . . . . . . . . 15
2.2.3 Image Compression . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Passive Image Origin Identification . . . . . . . . . . . . . . . . . . . 19
2.3.1 Lens Aberration . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2 Sensor Imperfections . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.3 CFA Pattern and Interpolation . . . . . . . . . . . . . . . . . 25
2.3.4 Image Compression . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4 Passive Image Forgery Detection . . . . . . . . . . . . . . . . . . . . 27
2.5 Steganography and Steganalysis in Digital Images . . . . . . . . . . . 29
2.5.1 LSB Replacement Paradigm and Jsteg Algorithm . . . . . . . 32
2.5.2 Steganalysis of LSB Replacement in Spatial Domain . . . . . 33
2.5.3 Steganalysis of Jsteg Algorithm . . . . . . . . . . . . . . . . . 38
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3 Overview on Statistical Modeling of Natural Images 41
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Spatial-Domain Image Model . . . . . . . . . . . . . . . . . . . . . . 41
3.2.1 Poisson-Gaussian and Heteroscedastic Noise Model . . . . . . 42
3.2.2 Non-Linear Signal-Dependent Noise Model . . . . . . . . . . . 44
3.3 DCT Coefficient Model . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 First-Order Statistics of DCT Coefficients . . . . . . . . . . . 45
3.3.2 Higher-Order Statistics of DCT Coefficients . . . . . . . . . . 46
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46viii Table of Contents
II Statistical Modeling and Estimation for Natural Images from
RAW Format to JPEG Format 47
4 Statistical Image Modeling and Estimation of Model Parameters 49
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Statistical Modeling of RAW Images . . . . . . . . . . . . . . . . . . 50
4.2.1 Heteroscedastic Noise Model . . . . . . . . . . . . . . . . . . . 50
4.2.2 Estimation of Parameters (a, b) in the Heteroscedastic Noise
Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3 Statistical Modeling of TIFF Images . . . . . . . . . . . . . . . . . . 57
4.3.1 Generalized Noise Model . . . . . . . . . . . . . . . . . . . . . 57
4.3.2 Estimation of Parameters (˜a, ˜b) in the Generalized Noise Model 59
4.3.3 Application to Image Denoising . . . . . . . . . . . . . . . . . 61
4.3.4 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . 62
4.4 Statistical Modeling in DCT Domain . . . . . . . . . . . . . . . . . . 65
4.4.1 Statistical Model of Quantized DCT Coefficients . . . . . . . 65
4.4.2 Estimation of Parameters (α, β) from Unquantized DCT Coefficients
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4.3 Estimation of Parameters (α, β) from Quantized DCT Coeffi-
cients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.4.4 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . 71
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
III Camera Model Identification in Hypothesis Testing Framework
75
5 Camera Model Identification Based on the Heteroscedastic Noise
Model 77
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.2 Camera Fingerprint . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.3 Optimal Detector for Camera Model Identification Problem . . . . . 80
5.3.1 Hypothesis Testing Formulation . . . . . . . . . . . . . . . . . 80
5.3.2 LRT for Two Simple Hypotheses . . . . . . . . . . . . . . . . 80
5.4 GLRT with Unknown Image Parameters . . . . . . . . . . . . . . . . 83
5.5 GLRT with Unknown Image and Camera Parameters . . . . . . . . . 86
5.6 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.6.1 Detection Performance on Simulated Database . . . . . . . . 89
5.6.2 Detection Performance on Two Nikon D70 and Nikon D200
Camera Models . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.6.3 Detection Performance on a Large Image Database . . . . . . 91
5.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.8 Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95Table of Contents ix
5.8.1 Expectation and Variance of the GLR Λhet(z
wapp
k,i ) under Hypothesis
Hj . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.8.2 Expectation and Variance of the GLR Λehet(z
wapp
k,i ) under Hypothesis
Hj . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6 Camera Model Identification Based on the Generalized Noise
Model 99
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2 Camera Fingerprint . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.3 Optimal Detector for Camera Model Identification Problem . . . . . 102
6.3.1 Hypothesis Testing Formulation . . . . . . . . . . . . . . . . . 102
6.3.2 LRT for Two Simple Hypotheses . . . . . . . . . . . . . . . . 103
6.4 Practical Context: GLRT . . . . . . . . . . . . . . . . . . . . . . . . 105
6.4.1 GLRT with Unknown Image Parameters . . . . . . . . . . . . 105
6.4.2 GLRT with Unknown Image and Camera Parameters . . . . . 106
6.5 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.5.1 Detection Performance on Simulated Database . . . . . . . . 108
6.5.2 Detection Performance on Two Nikon D70 and Nikon D200
Camera Models . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.5.3 Detection Performance on a Large Image Database . . . . . . 110
6.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.7 Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7 Camera Model Identification Based on DCT Coefficient Statistics115
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.2 Camera Fingerprint . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.2.1 Design of Camera Fingerprint . . . . . . . . . . . . . . . . . . 116
7.2.2 Extraction of Camera Fingerprint . . . . . . . . . . . . . . . . 117
7.2.3 Property of Camera Fingerprint . . . . . . . . . . . . . . . . . 119
7.3 Optimal Detector for Camera Model Identification Problem . . . . . 120
7.3.1 Hypothesis Testing Formulation . . . . . . . . . . . . . . . . . 120
7.3.2 LRT for Two Simple Hypotheses . . . . . . . . . . . . . . . . 121
7.4 Practical Context: GLRT . . . . . . . . . . . . . . . . . . . . . . . . 123
7.4.1 GLRT with Unknown Parameters αk . . . . . . . . . . . . . . 123
7.4.2 GLRT with Unknown Parameters (αk, c˜k,1,
˜dk,1) . . . . . . . . 124
7.5 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . . . . . 126
7.5.1 Detection Performance on Simulated Database . . . . . . . . 127
7.5.2 Detection Performance on Two Canon Ixus 70 and Nikon
D200 Camera Models . . . . . . . . . . . . . . . . . . . . . . 128
7.5.3 Detection Performance on a Large Image Database . . . . . . 129
7.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.7 Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.7.1 Relation between the Parameters (˜a, ˜b, γ) and (αu,v, βu,v) . . 132
7.7.2 Laplace’s Approximation of DCT Coefficient Model . . . . . . 133x Table of Contents
7.7.3 Expectation and Variance of the LR Λdct(Ik,i) under Hypothesis
Hj . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.7.4 Asymptotic Expectation and Variance of the GLR Λedct(Ik,i)
under Hypothesis Hj . . . . . . . . . . . . . . . . . . . . . . . 135
IV Statistical Detection of Hidden Data in Natural Images 137
8 Statistical Detection of Data Embedded in Least Significant Bits
of Clipped Images 139
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8.2 Cover-Image Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
8.2.1 Non-Clipped Image Model . . . . . . . . . . . . . . . . . . . . 141
8.2.2 Clipped Image Model . . . . . . . . . . . . . . . . . . . . . . 142
8.3 GLRT for Non-Clipped Images . . . . . . . . . . . . . . . . . . . . . 142
8.3.1 Impact of LSB Replacement: Stego-Image Model . . . . . . . 142
8.3.2 Hypothesis Testing Formulation . . . . . . . . . . . . . . . . . 143
8.3.3 ML Estimation of Image Parameters . . . . . . . . . . . . . . 144
8.3.4 Design of GLRT . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.4 GLRT for Clipped Images . . . . . . . . . . . . . . . . . . . . . . . . 148
8.4.1 ML Estimation of Image Parameters . . . . . . . . . . . . . . 148
8.4.2 Design of GLRT . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.5 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . . . . . 151
8.5.1 Detection Performance on Simulated Database . . . . . . . . 151
8.5.2 Detection Performance on Real Image Database . . . . . . . . 153
8.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.7 Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.7.1 Denoising Filter for Non-Clipped RAW Images Corrupted by
Signal-Dependent Noise . . . . . . . . . . . . . . . . . . . . . 155
8.7.2 Statistical distribution of the GLR Λbncl(Z) under hypothesis
H0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.7.3 Statistical distribution of the GLR Λbncl(Z) under hypothesis
H1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
8.7.4 ML Estimation of Parameters in Truncated Gaussian Data . 159
8.7.5 Statistical distribution of the GLR Λbcl(Z) . . . . . . . . . . . 160
9 Steganalysis of Jsteg Algorithm Based on a Novel Statistical Model
of Quantized DCT Coefficients 163
9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
9.2 Optimal Detector for Steganalysis of Jsteg Algorithm . . . . . . . . . 164
9.2.1 Hypothesis Testing Formulation . . . . . . . . . . . . . . . . . 164
9.2.2 LRT for Two Simple Hypotheses . . . . . . . . . . . . . . . . 165
9.3 Quantitative Steganalysis of Jsteg Algorithm . . . . . . . . . . . . . 168
9.3.1 ML Estimation of Embedding Rate . . . . . . . . . . . . . . . 168Table of Contents xi
9.3.2 Revisiting WS estimator . . . . . . . . . . . . . . . . . . . . . 169
9.4 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.4.1 Detection Performance of the proposed LRT . . . . . . . . . . 169
9.4.2 Accuracy of the Proposed Estimator . . . . . . . . . . . . . . 172
9.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
10 Conclusions and Perspectives 175
10.1 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
10.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
10.2.1 Perspectives to Digital Forensics . . . . . . . . . . . . . . . . 178
10.2.2 Perspectives to Statistical Image Modeling . . . . . . . . . . . 180
10.2.3 Perspectives to Statistical Hypothesis Testing Theory Applied
for Digital Forensics . . . . . . . . . . . . . . . . . . . . . . . 180
A Statistical Hypothesis Testing Theory 181
A.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
A.2 Basic Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
A.3 Test between Two Simple Hypotheses . . . . . . . . . . . . . . . . . . 183
A.4 Test between Two Composite Hypotheses . . . . . . . . . . . . . . . 187
A.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
Bibliography 193List of Figures
1.1 Example of falsification. . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Structure of the work presented in this thesis. . . . . . . . . . . . . . 4
2.1 Image processing pipeline of a digital camera. . . . . . . . . . . . . . 13
2.2 Sample color filter arrays. . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 JPEG compression chain. . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Typical steganographic system. . . . . . . . . . . . . . . . . . . . . . 29
2.5 Operations of LSB replacement (top) and Jsteg (bottom). . . . . . . 31
2.6 Diagram of transition probabilities between trace subsets under LSB
replacement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1 Scatter-plot of pixels’ expectation and variance from a natural RAW
image with ISO 200 captured by Nikon D70 and Nikon D200 cameras.
The image is segmented into homogeneous segments. In each
segment, the expectation and variance are calculated and the parameters
(a, b) are estimated as proposed in Section 4.2.2. The dash line
is drawn using the estimated parameters (a, b). Only the red channel
is used in this experiment. . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2 Scatter-plot of pixels’ mean and variance from JPEG images with
ISO 200 issued from Nikon D70 and Nikon D200 cameras. The red
channel is used in this experiment. The image is segmented into
homogeneous segments to estimate local means and variances. The
generalized noise model is used to fit to the data. . . . . . . . . . . . 58
4.3 Estimated parameters (˜a, ˜b) on JPEG images issued from different
camera models in Dresden image database. . . . . . . . . . . . . . . 63
4.4 Comparison between the proposed method and Farid’s for estimation
of gamma factor on JPEG images issued from Nikon D200 camera
model. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5 Comparison between the Laplacian, GΓ and proposed model of DCT
coefficients. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6 Comparison between the quantized Laplacian, quantized GΓ and proposed
model for quantized AC coefficient. . . . . . . . . . . . . . . . 68
4.7 Averaged χ
2
test statistics of GG, GΓ and proposed model for 63
quantized AC coefficients . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1 Estimated camera parameters (a, b) on 20 RAW images of different
camera model with ISO 200 and different camera settings. . . . . . . 79
5.2 Estimated camera parameters (a, b) of different devices per camera
model with ISO 200 and different camera settings. . . . . . . . . . . 79xiv List of Figures
5.3 The detection performance of the GLRT δ
?
het with 50 pixels selected
randomly from simulated images. . . . . . . . . . . . . . . . . . . . . 85
5.4 The detection performance of the GLRT δe?
het with 50 pixels selected
randomly on simulated images. . . . . . . . . . . . . . . . . . . . . . 88
5.5 The detection performance of the test δ
?
het with 200 pixels selected
randomly on simulated images for a0 = 0.0115 and different parameters
a1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.6 The detection performance of the test δ
?
het and δe?
het on simulated
images for different numbers of pixels. . . . . . . . . . . . . . . . . . 89
5.7 The detection performance of the GLRTs δ
?
het and δe?
het on the Dresden
database for different numbers of pixels. . . . . . . . . . . . . . . . . 91
5.8 Comparison between the theoretical false alarm probability (FAP)
and the empirical FAP, from real images of Dresden database, plotted
as a function of decision threshold τ . . . . . . . . . . . . . . . . . . . 92
6.1 Empirical distribution of noise residuals z˜
res
k,i in a segment compared
with theoretical Gaussian distribution. . . . . . . . . . . . . . . . . . 101
6.2 Estimated parameters (˜a, ˜b) on JPEG images issued from Canon Ixus
70 camera with different camera settings. . . . . . . . . . . . . . . . 102
6.3 Estimated parameters (˜a, ˜b) on JPEG images issued from different
devices of Canon Ixus 70 model. . . . . . . . . . . . . . . . . . . . . 103
6.4 Detection performance of the proposed tests for 50 and 100 pixels
extracted randomly from simulated JPEG images with quality factor
100. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.5 Detection performance of the GLRT δe?
gen for 100 pixels extracted
randomly from simulated JPEG images with different quality factors. 109
6.6 Detection performance of the GLRT δ
?
gen and δe?
gen for 50 and 100 pixels
extracted randomly from JPEG images of Nikon D70 and Nikon
D200 cameras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.7 Comparison between the theoretical false alarm probability (FAP)
and the empirical FAP, plotted as a function of decision threshold τ . 111
7.1 Estimated parameters (α, β) at frequency (0, 1) and (8, 8) of uniform
images generated using a˜ = 0.1,
˜b = 2, γ = 2.2. . . . . . . . . . . . . 117
7.2 Estimated parameters (α, β) at frequency (8, 8) of natural JPEG images
issued from Canon Ixus 70 and Nikon D200 camera models. . . 119
7.3 Estimated parameters (˜c, ˜d) at frequency (8, 8) of natural JPEG images
issued from different camera models in Dresden database. . . . . 120
7.4 Detection performance of proposed tests on simulated vectors with
1024 coefficients. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
7.5 Detection performance of proposed tests on simulated vectors with
4096 coefficients. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125List of Figures xv
7.6 Detection performance of proposed GLRTs for 1024 coefficients at
frequency (8, 8) extracted randomly from simulated images with different
quality factors. . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7.7 Detection performance of proposed tests for different number of coefficients
at frequency (8, 8) of natural JPEG images taken by Canon
Ixus 70 and Nikon D200 camera models. . . . . . . . . . . . . . . . 127
7.8 Detection performance of the GLRT δe?
dct for 4096 coefficients at different
frequencies of natural JPEG images taken by Canon Ixus 70
and Nikon D200 camera models. . . . . . . . . . . . . . . . . . . . . 128
7.9 Comparison between the theoretical false alarm probability (FAP)
and the empirical FAP, plotted as a function of decision threshold τ ,
of the proposed tests at the frequency (8,8) of natural images. . . . . 129
8.1 Detection performance on non-clipped simulated images for embedding
rate R = 0.05. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2 Detection performance on clipped simulated images for embedding
rate R = 0.05. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.3 Detection performance on real clipped images for embedding rate
R = 0.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
8.4 Detection performance on real clipped images for embedding rate
R = 0.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.5 Detection performance on real clipped images for embedding rate
R = 0.6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.6 Detection performance on 12-bit images taken by Canon 400D with
ISO 100 from BOSS database for embedding rate R = 0.05. . . . . . 153
8.7 Detection performance on 5000 images from BOSS database for embedding
rate R = 0.05. . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.8 Empirical false-alarm probability from real images of BOSS database
plotted as a function of decision threshold, compared with theoretical
FAP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
9.1 Detection performance of the test δ
?
jst based on the proposed model
with embedding rate R = 0.05 on the simulated images and real images.167
9.2 Detection performance of the test δ
?
jst based on the quantized Laplacian,
quantized GG, quantized GΓ, and proposed model on the BOSSBase
with embedding rate R = 0.05. . . . . . . . . . . . . . . . . . . 170
9.3 Detection performance of the test δ
?
jst based on the quantized Laplacian,
quantized GG, quantized GΓ, and proposed model on the subset
of 1000 images from the BOSSBase with embedding rate R = 0.05. . 171
9.4 Comparison between the proposed test δ
?
jst, ZMH-Sym detector, ZP
detector, WS detector and quantized Laplacian-based test. . . . . . . 172
9.5 Mean absolute error for all estimators. . . . . . . . . . . . . . . . . . 172
9.6 Mean absolute error for proposed ML estimator, standard WS estimator
and improved WS estimator. . . . . . . . . . . . . . . . . . . . 173xvi List of Figures
9.7 Comparison between the proposed test δ
?
jst, standard WS detector
and improved WS detector. . . . . . . . . . . . . . . . . . . . . . . . 174List of Tables
4.1 Parameter estimation on synthetic images . . . . . . . . . . . . . . . 63
4.2 PSNR of the extended LLMMSE filter . . . . . . . . . . . . . . . . . 64
4.3 χ
2
test statistics of Laplacian, GG, GΓ, and proposed model for the
first 9 quantized coefficients of 3 testing standard images. . . . . . . 71
5.1 Camera Model Used in Experiments (the symbol * indicates our own
camera) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2 Detection performance of the proposed detector. . . . . . . . . . . . 93
5.3 Detection performance of PRNU-based detector for ISO 200. . . . . 93
6.1 Camera Model Used in Experiments . . . . . . . . . . . . . . . . . . 112
6.2 Performance of proposed detector . . . . . . . . . . . . . . . . . . . . 112
6.3 Performance of SVM-based detector (the symbol * represents values
smaller than 2%) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.4 Performance of PRNU-based detector . . . . . . . . . . . . . . . . . 113
7.1 Camera Model Used in Experiments . . . . . . . . . . . . . . . . . . 129
7.2 Detection performance of proposed detector δe?
dct (the symbol * represents
values smaller than 2%) . . . . . . . . . . . . . . . . . . . . . 130
7.3 Detection performance of SVM-based detector . . . . . . . . . . . . 130
7.4 Detection performance of PRNU-based detector . . . . . . . . . . . 131
7.5 Detection performance of proposed detector δ
?
dct . . . . . . . . . . . 131
7.6 Detection performance of proposed detector δe?
dct on 4 camera models
of BOSS database . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
10.1 List of proposed statistical tests. . . . . . . . . . . . . . . . . . . . . 177List of Abbreviations
Acronym What (it) Stands For
AC Alternating Current.
AUMP Asymptotically Uniformly Most Powerful.
AWGN Additive White Gaussian Noise.
cdf cumulative distribution function.
CCD Charge-Coupled Device.
CFA Color Filter Array.
CLT Central Limit Theorem.
CMOS Complementary Metal-Oxide Semiconductor.
CRF Camera Response Function.
DC Direct Current.
DCT Discrete Cosine Transform.
DSC Digital Still Camera.
DSLR Digital Single Lens Reflex.
EXIF Exchangeable Image File.
GG Generalized Gaussian.
GLR Generalized Likelihood Ratio.
GLRT Generalized Likelihood Ratio Test.
GOF goodness-of-fit.
GΓ Generalized Gamma.
IDCT Inverse Discrete Cosine Transform.
i.i.d independent and identically distributed.
JPEG Join Photographic Expert Group.
KS Kolmogorov-Smirnov.
LSB Least Significant Bit.
LR Likelihood Ratio.
LRT Likelihood Ratio Test.
LS Least Squares.
mAE Median Absolute Error.
MAE Mean Absolute Error.
MGF Moment-Generating Function
ML Maximum Likelihood.
MM Method of Moments.
MP Most Powerful.
MSE Mean Squared Error.
NP Neyman-Pearson.
PCE Peak to Correlation Energy.
pdf probability density function.
PRNU Photo-Response Non-Uniformity.
RLE Run-Length Encoding.xx List of Tables
ROC Receiver Operating Characteristic.
R/T Rounding and Truncation.
SPA Sample Pair Analysis.
SPN Sensor Pattern Noise.
SVM Support Vector Machine.
TIFF Tagged Image File Format.
UMP Uniformly Most Powerful.
WLS Weighted Least Squares.
WS Weighted Stego-image.
ZMH Zero Message Hypothesis.
ZP Zhang and Ping.Glossary of Notations
Notation Definition
α0 False alarm probability.
β(δ) Power of the test δ.
χ
2
K Chi square distribution with K degree of freedom.
γ Gamma factor.
δ Statistical test.
η Noise.
κ Quantization step in the spatial domain.
µ Expectation.
ν Bit-depth.
σ Standard deviation.
τ Decision threshold.
ξ Number of collected electrons, which is modeled by Poisson distribution.
ϕ 2-D normalized wavelet scaling function.
φ Probability density function of a standard Gaussian random variable.
∆ Quantization step in the DCT domain.
Λ Likelihood Ratio.
Φ Cumulative distribution function of a standard Gaussian random variable.
Θ Parameter space.
Cov Covariance.
E Mathematical expectation.
P[E] Probability that an event E occurs.
R Set of real numbers.
Var Variance.
Z Set of integer numbers.
B(n, p) Binomial distribution where n is the number of experiments and p is
the success probability of each experiment.
D Denoising filter.
G(α, β) Gamma distribution with shape parameter α and scale parameter β.
H0, H1 Null hypothesis and alternative hypothesis.
I Set of pixel indices.
Kα0 Class of tests whose false alarm probability is upper-bounded by α0.
L Log-likelihood function.
N (µ, σ2
) Gaussian distribution with mean µ and variance σ
2
.xxii List of Tables
P(λ) Poisson distribution with mean λ and variance λ.
Q∆ Quantization with step ∆.
S Source of digital images.
U[a, b] Uniform distribution on the interval [a, b].
Z Set of possible pixel values.
Z
N Image space.
C Cover-image that is used for data hiding.
D Quantized DCT coefficients.
F Fisher information.
HDM Linear filter for demosaicing.
I Unquantized DCT coefficients.
Idn Identity matrix of size n × n.
K PRNU.
M Secret message to be embedded.
PCFA CFA pattern.
S Stego-image that contains hidden data.
Z Natural image.
(a, b) Parameters of heteroscedastic noise model.
(˜a, ˜b) Parameters of generalized noise model.
c Color channel.
(˜c, ˜d) Parameters characterizing the relation between α and β, which are
the parameters of DCT coefficient model.
fCRF Camera response function.
fX(x) Probability density function of a random variable X.
gWB Gain for white-balancing.
pX(x) Probability mass function of a random variable X.
r Change rate, r =
R
2
.
B Boundary of the dynamic range, B = 2ν − 1.
L Secret message length.
N Number of pixels in the image Z, N = Nr × Nc if Z is a grayscale
image and N = Nr × Nc × 3 if Z is a full-color image.
Nblk Number of blocks.
Nc Number of columns.
Nr Number of rows.
Ns Number of sources.
Pθ Probability distribution characterized by a parameter vector θ.
QR,θ Probability distribution after embedding at rate R.
R Embedding rate.Chapter 1
General Introduction
1.1 General Context and Problem Description
Traditionally, images are considered as trustworthy since as they are known as being
captured through analog acquisition devices to depict the real-world happenings.
This traditional trustworthiness is built on remarkable difficulties of image content
modification. Indeed, modifying the content of a film-based photo requires special
skills, yet time-consuming and costly, through dark room tricks. Therefore, this
modification is of limited extent.
In the past decades, we have witnessed the evolution of digital imaging technology
with a dramatic improvement of digital images’ quality. This improvement is not
only due to advances in semiconductor fabrication technology that makes it possible
to reduce the pixel size in an image sensor and thus raises the total number of pixels,
but also advances in image processing technology that allows to reduce noise introduced
in a camera and enhance details of the physical scene. The digital revolution
largely replace their analog counterparts to enable ease of digital content creation
and processing at affordable cost and in mass scale. Nowadays, digital still cameras
(DSCs) are taking over a major segment of the consumer photography marketplace.
Only at the very high end (large format, professional cameras with interchangeable
and highly adjustable lenses) and very low end (inexpensive automated snapshot
cameras) are traditional film cameras holding their own. Besides, the development
of communication and networking infrastructure allows digital content to be more
accessible. One of the greatest advantage of digital images acquired by DSCs is the
ease of transmission over communication networks, which film cameras are difficult
to enable.
Unfortunately, this path of technological evolution may provide means for malicious
purposes. Digital images can be easily edited, altered or falsified because
of a large availability of low-cost image editing tools. Consequently, falsified photographs
are appearing with a growing frequency and sophistication. The credibility
and trustworthiness of digital images have been eroded. This is more crucial when
falsified images that were utilized as evidence in a courtroom could mislead the
judgement and lead to either imprisonment for the innocent or freedom for the
guilty. In general, the falsification of digital images may result in important consequences
in terms of political, economic, and social issues.
One example of falsification that causes political issues is given in Figure 1.1.
In the left corner image, President G.W. Bush and a young child are both reading
from America: A Patriotic Primer by Lynne Cheney. But if we look closely, it2 Chapter 1. General Introduction
(a) Forged image. (b) Original image.
Figure 1.1: Example of falsification.
appears that President Bush is holding his book upside down. An unknown hoaxer
has horizontally and vertically flipped the image on the back of the book in Bush’s
hands. This photo of George Bush holding a picture book the wrong way up during
a visit to a school delighted some opponents of the Republican president, and helped
foster his buffoonish image. But press photos from the event in 2002 revealed that
Mr Bush had been holding the book correctly, i.e. hoaxers had simply used photo
editing software to rotate the cover. The original version of the photo (right corner)
was taken in the Summer of 2002 while Bush was visiting George Sanchez Charter
School in Houston. It was distributed by the Associated Press. By comparing the
forged photo and original photo, it can be noted that a dark blue spot is close to the
spine of Bush’s book, but this same spot in the girl’s copy is near the left-hand edge
of the book. This forensic clue can be considered as evidence of forgery. However in
most of the cases, the forgery is not as easy to detect. The human eyes can hardly
differentiate a genuine scene from a deliberately forged scene. Overall, the digital
revolution has raised a number of information security challenges.
To restore the trust to digital images, the field of digital image forensics was
born. Because of importance of information security in many domains, digital image
forensics has attracted a great attention from academic researchers, law enforcement,
security, and intelligence agencies. Conducting forensic analysis is a difficult mission
since forensic analysts need to answer several questions before stating that digital
content is authentic:
1. What is the true origin of this content? How was it generated? By whom was
it taken?
2. Is the image still depicting the captured original scene? Has its content been
altered in some way? How has it been processed?
The first question involves the problem of image origin identification. Source
information of digital images represents useful forensic clues because knowing the1.2. Outline of the Thesis 3
source device that captures the inspected image can facilitate verification or tracing
of device owner as well as the camera taker. This situation is as identical as bullet
scratches allowing forensic analysts to match a bullet to a particular barrel or gun
and trace the gun owner.1 Besides, knowing device model or brand information can
help forensic analysts know more about characteristics of acquisition devices, which
leads to a potential improvement of detecting the underlying forgeries that could
be performed in the inspected image. Another issue is to determine what imaging
mechanism has been used to generate the inspected image (e.g. scanners, cell-phone
cameras, or computer graphics) before assuming that the inspected image is taken
by a digital camera, which can significantly narrow down the search range for the
next step of the investigation.
The second problem is image content integrity. An image has to be proven
authentic and its content has not be forged before it can be used as forensic clues
or as evidence in a legal context. Determining whether an image is forged, which
manipulation has been performed on the image, or which region of the image has
been altered are fundamental tasks.
Beside some basic manipulations such as adding, splicing, and removal, the
image can be also manipulated by embedding a message into image content directly.
The message remains secret such that it is only known by the sender and receiver
and an adversary does not recognize its existence visually. This concept is called
steganography, which is a discipline of the field of information hiding. However, the
concept of steganography has been misused for illegal activities. Detecting existence
of secret messages and revealing their content are also the tasks of forensic analysts.
This task is called steganalysis.
The field of digital image forensics, including steganalysis, is part of an effort to
counter cyber-attacks, which is nowadays one of strategy priorities for defence and
national security in most countries.
1.2 Outline of the Thesis
The main goal of this thesis is to address information security challenges in the field
of digital image forensics. In particular, the problems of image origin identification
and hidden data detection are studied. The thesis is structured in four main parts.
Apart from the first part providing an overview on the field of digital image forensics
and statistical image modeling, the rest of the thesis involves many contributions.
All the work presented in this thesis is illustrated in Figure 1.2.
Part II establishes a profound statistical modeling of natural images by analyzing
the image processing pipeline of a digital camera, as well as proposes efficient
algorithms for estimation of model parameters from a single image. Typically, the
image processing pipeline is composed of three main stages: RAW image acquisition,
1Evidently, tracing an imaging device owner is more difficult as average users have rights to buy
a camera easily in a market with millions of cameras while the use of guns is banned or controlled
in many countries and a gun user has to register his identities.4 Chapter 1. General Introduction
Figure 1.2: Structure of the work presented in this thesis.
post-acquisition enhancement, and JPEG compression that employs Discrete Cosine
Transform (DCT). Therefore, the statistical image modeling in Part II is performed
both in the spatial domain and the DCT domain. By modeling the photo-counting
and read-out processes, a RAW image can be accurately characterized by the heteroscedastic
noise model in which the RAW pixel is normally distributed and its
variance is linearly dependent on its expectation. This model is more relevant than
the Additive White Gaussian Noise (AWGN) model widely used in image processing
since the latter ignores the contribution of Poisson noise in the RAW image
acquisition stage. The RAW image then undergoes post-acquisition processes in
order to provide a high-quality full-color image, referred to as TIFF image. Therefore,
to study image statistics in a TIFF image, it is proposed to start from the
heteroscedastic noise model and take into account non-linear effect of gamma correction,
resulting in a generalized noise model. This latter involves a non-linear
relation between pixel’s expectation and variance. This generalized noise model has
not been proposed yet in the literature. Overall, the study of noise statistics in the
spatial domain indicates the non-stationarity of noise in a natural image, i.e. pixel’s
variance is dependent on the expectation rather than being constant in the whole
image. Besides, pixels’ expectations, namely the image content, are also heterogeneous.
Apart from studying image statistics in the spatial domain, it is proposed to
study DCT coefficient statistics. Modeling the distribution of DCT coefficients is
not a trivial task due to heterogeneity in the natural image and complexity of image
statistics. It is worth noting that most of existing models of DCT coefficients, which
are only verified by conducting the goodness-of-fit test with empirical data, are given
without a mathematical justification. Instead, this thesis provides a mathematical
framework of modeling the statistical distribution of DCT coefficients by relying on
the double stochastic model that combines the statistics of DCT coefficients in a
block whose variance is constant with the variability of block variance in a natural
image. The proposed model of DCT coefficients outperforms the others including
the Laplacian, Generalized Gaussian, and Generalized Gamma model. Numerical1.2. Outline of the Thesis 5
results on simulated database and real image database highlight the relevance of the
proposed models and the accuracy of the proposed estimation algorithms.
The solid foundation established in Part II emphasizes several aspects of interest
for application in digital image forensics. Relying on a more relevant image
model and an accurate estimation of model parameters, the detector is expected
to achieve better detection performance. Part III addresses the problem of image
origin identification within the framework of hypothesis testing theory. More particularly,
it involves designing a statistical test for camera model identification based
on a parametric image model to meet the optimality bi-criteria: the warranting of
a prescribed false alarm probability and the maximization of the correct detection
probability. Camera model identification based on the heteroscedastic noise model,
generalized noise model, and DCT coefficients is respectively presented in Chapter
5, Chapter 6, and Chapter 7. The model parameters are proposed to be exploited
as unique fingerprint for camera model identification. In general, the procedure in
those chapters is similar. The procedure starts from formally stating the problem
of camera model identification into hypothesis testing framework. According to
Neyman-Pearson lemma, the most powerful test for the decision problem is given
by the Likelihood Ratio Test (LRT). The statistical performance of the LRT can be
analytically established. Moreover, the LRT can meet the two required criteria of
optimality. However, this test is only of theoretical interest because it is based on
an assumption that all model parameters are known in advance. This assumption
is hardly met in practice. To deal with the difficulty of unknown parameters, a
Generalized Likelihood Ratio Test (GLRT) is proposed. The GLRT is designed by
replacing unknown parameters by their Maximum Likelihood (ML) estimates in the
Likelihood Ratio. Consequently, the detection performance of the GLRT strongly
depends on the accuracy of employed image model and parameter estimation. It is
shown in Chapter 5, 6, and 7 that the proposed GLRTs can warrant a prescribed
false alarm probability while ensuring a high detection performance. Moreover, the
efficiency of the proposed GLRTs is highlighted when applying on a large image
database.
The problem of hidden data detection is addressed in Part IV. This problem
is also formulated into hypothesis testing framework. The main idea is to rely
on an accurate image model to detect small changes in statistical properties of a
cover image due to message embedding. The formulation in the hypothesis testing
framework allows us to design a test that can meet two above criteria of optimality.
Chapter 8 addresses the steganalysis of Least Significant Bit (LSB) replacement
technique in RAW images. More especially, the phenomenon of clipping is studied
and taken into account in the design of the statistical test. This phenomenon is
due to to limited dynamic range of the imaging system. The impact of the clipping
phenomenon on the detection performance of steganalysis methods has not been
studied yet in the literature. The approach proposed in Chapter 8 is based on the
heteroscedastic noise model instead of the AWGN model. Besides, the approach
proposes to exploit the state-of-the-art denoising method to improve the estimation
of pixels’ expectation and variance. The detection performance of the proposed6 Chapter 1. General Introduction
GLRTs on non-clipped images and clipped images is studied. It is shown that
the proposed GLRTs can warrant a prescribed false alarm probability and achieve
a high detection performance while other detectors fail in practice, especially the
Asymptotically Uniformly Most Powerful (AUMP) test. Next, Chapter 9 addresses
the steganalysis of Jsteg algorithm. It should be noted that Jsteg algorithm is a
variant of LSB replacement technique. Instead of embedding message bits in the
spatial domain, Jsteg algorithm utilizes the LSB of quantized DCT coefficients and
embeds message bits in the DCT domain. The goal of Chapter 9 is to exploit the
state-of-the-art model of quantized DCT coefficients in Chapter 4 to design a LRT
for the steganalysis of Jsteg algorithm. For the practical use, unknown parameters
of the DCT coefficient model are replaced by their ML estimates in the Likelihood
Ratio. Experiments on simulated database and real image database show a very
small loss of power of the proposed test. Furthermore, the proposed test outperforms
other existing detectors. Another contributions in Chapter 9 are that a Maximum
Likelihood estimator for embedding rate is proposed using the proposed model of
DCT coefficients as well as the improvement of the existing Weighted Stego-image
estimator by modifying the technique of calculation of weights.
1.3 Publications and Authors’ Contribution
Most of the material presented in this thesis appears in the following publications
that represent original work, of which the author has been the main contributor.
Patents
1. T. H. Thai, R. Cogranne, and F. Retraint, "Système d’identification d’un
modèle d’appareil photographique associé à une image compressée au format
JPEG, procédé, utilisations and applications associés", PS/B52545/FR, 2014.
2. T. H. Thai, R. Cogranne, and F. Retraint, "Système d’identification d’un
modèle d’appareil photographique associé à une image compressée au format
JPEG, procédé, utilisations and applications associés", PS/B52546/FR, 2014.
Journal articles
1. T. H. Thai, R. Cogranne, and F. Retraint, "Camera model identification
based on the heteroscedastic noise model", IEEE Transactions on Image Processing,
vol. 23, no. 1, pp. 250-263, Jan. 2014.
2. T. H. Thai, F. Retraint, and R. Cogranne, "Statistical detection of data
hidden in least significant bits of clipped images", Elsevier Signal Processing,
vol. 98, pp. 263-274, May 2014.
3. T. H. Thai, R. Cogranne, and F. Retraint, "Statistical model of quantized
DCT coefficients: application in the steganalysis of Jsteg algorithm", IEEE
Transactions on Image Processing, vol. 23, no. 5, pp. 1980-1993, May 2014.1.3. Publications and Authors’ Contribution 7
Journal articles under review
1. T. H. Thai, F. Retraint, and R. Cogranne, "Generalized signal-dependent
noise model and parameter estimation for natural images", 2014.
2. T. H. Thai, F. Retraint, and R. Cogranne, "Camera model identification
based on the generalized noise model in natural images", 2014.
3. T. H. Thai, R. Cogranne, and F. Retraint, "Camera model identification
based on DCT coefficient statistics", 2014.
Conference papers
1. T. H. Thai, F. Retraint, and R. Cogranne, "Statistical model of natural
images", in IEEE International Conference on Image Processing, pp. 2525-
2528, Sep. 2012.
2. T. H. Thai, R. Cogranne, and F. Retraint, "Camera model identification
based on hypothesis testing theory", in European Signal Processing Conference,
pp. 1747-1751, Aug. 2012.
3. T. H. Thai, R. Cogranne, and F. Retraint, "Steganalysis of Jsteg algorithm
based on a novel statistical model of quantized DCT coefficients", in IEEE
International Conference on Image Processing, pp. 4427-4431, Sep. 2013.
4. R. Cogranne, T. H. Thai, and F. Retraint, "Asymptotically optimal detection
of LSB matching data hiding", in IEEE International Conference on Image
Processing, pp. 4437-4441, Sep. 2013.
5. T. H. Thai, R. Cogranne, and F. Retraint, "Optimal detector for camera
model identification based on an accurate model of DCT coefficient", in IEEE
International Workshop on Multimedia Signal Processing (in press), Sep. 2014.
6. T. H. Thai, R. Cogranne, and F. Retraint, "Optimal detection of OutGuess
using an accurate model of DCT coefficients", in IEEE International Workshop
on Information Forensics and Security (in press), Dec. 2014.Part I
Overview on Digital Image
Forensics and Statistical Image
ModelingChapter 2
Overview on Digital Image
Forensics
Contents
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Image Processing Pipeline of a Digital Camera . . . . . . . 12
2.2.1 RAW Image Formation . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Post-Acquisition Processing . . . . . . . . . . . . . . . . . . . 15
2.2.3 Image Compression . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Passive Image Origin Identification . . . . . . . . . . . . . . . 19
2.3.1 Lens Aberration . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.2 Sensor Imperfections . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.3 CFA Pattern and Interpolation . . . . . . . . . . . . . . . . . 25
2.3.4 Image Compression . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4 Passive Image Forgery Detection . . . . . . . . . . . . . . . . 27
2.5 Steganography and Steganalysis in Digital Images . . . . . 29
2.5.1 LSB Replacement Paradigm and Jsteg Algorithm . . . . . . . 32
2.5.2 Steganalysis of LSB Replacement in Spatial Domain . . . . . 33
2.5.2.1 Structural Detectors . . . . . . . . . . . . . . . . . . 33
2.5.2.2 WS Detectors . . . . . . . . . . . . . . . . . . . . . 35
2.5.2.3 Statistical Detectors . . . . . . . . . . . . . . . . . . 36
2.5.2.4 Universal Classifiers . . . . . . . . . . . . . . . . . . 37
2.5.3 Steganalysis of Jsteg Algorithm . . . . . . . . . . . . . . . . . 38
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1 Introduction
The goal of this chapter is to provide an overview on the field of digital image
forensics. As described in Section 1.1, digital image forensics involve two key problems:
image origin identification and image forgery detection. In general, there are
two approaches to address these problems. Active forensics aims to authenticate
image content by generating extrinsically security measures such as digital watermarks
[1–6] and digital signatures [7–10] and adding them to the image file. These12 Chapter 2. Overview on Digital Image Forensics
security measures are referred to as extrinsic fingerprints. Although active forensics
can provide powerful tools to secure a digital camera and restore the credibility of
digital images, it is of limited extent due to many strict constraints in its protocols.
In order to solve these problems in their entirety, passive forensics has been
quickly evolved. In contrast to active forensics, passive forensics does not impose
any constraint and do not require any prior information including the original reference
image. Forensic analysts have only the suspect image at their disposal and
must explore useful information from the image to gather forensic evidence, trace
the acquisition device and detect any act of manipulation. Passive forensics works
on an assumption that the image contains some internal traces left from the camera.
Every stage from real-world scene acquisition to image storage can provide
clues for forensic analysis. These internal traces are called intrinsic fingerprints.
Extrinsic and intrinsic fingerprints are two forms of digital fingerprints in digital
forensics, which are analogous to human fingerprints in criminal domain. Since passive
forensics does not require neither any external security measures generated in
the digital camera, nor any prior information, it can authenticate an image in a
blind manner and can widely be applied to millions of images that circulate daily
on communication networks.
This thesis mainly addresses the problem of origin identification and integrity
based on passive approach. The chapter is organized as follows. Before discussing
active and passive forensics, it is vital to understand deeply the creation and characteristics
of digital images. Section 2.2 briefly introduces the typical image processing
pipeline of a digital camera, highlighting several aspects of potential interest for applications
in digital image forensics. Section 2.3 analyzes passive methods proposed
for image origin identification. Section 2.4 briefly discusses passive methods for image
forgery detection. Next, Section 2.5 introduces the concept of steganography,
which is a type of image content manipulation, and presents prior-art methods for
detecting secret data embedded in digital images. Finally, Section 2.6 concludes the
chapter.
2.2 Image Processing Pipeline of a Digital Camera
This thesis only deals with DSCs and digital images acquired by them. By terminology,
a natural image means a digital image acquired by a DSC. Other sources
of digitized images such as scanners are not addressed in this thesis but a similar
methodology can be easily derived.
Image processing pipeline involves several steps from light capturing to image
storage performed in a digital camera [11]. After measuring light intensity at each
pixel, RAW image that contains exactly information recorded by the image sensor
goes through some typical post-acquisition processes, e.g. demosaicing, whitebalancing
and gamma correction, to render a full-color high-quality image, referred
to as TIFF image. Image compression can be also performed for ease of storage
and transmission. The image processing pipeline of a digital camera is shown in2.2. Image Processing Pipeline of a Digital Camera 13
Figure 2.1: Image processing pipeline of a digital camera.
Figure 2.1. It should be noted that the sequence of operations differs from manufacturer
to manufacturer but basic operations remain similar. In general, the image
processing pipeline designed in a digital camera is complex, with trade-offs in the
use of buffer memory, computing operations, image quality and flexibility [12]. This
section only discusses some common image processing operations such as demosaicing,
white balancing, gamma correction and image compression. Other processing
operations, e.g. camera noise reduction and edge enhancement, are not included in
this discussion.
A full-color digital image consists of three primary color components: red, green,
and blue. These three color components are sufficient to represent millions of colors.
Formally, the full-color image of a DSC can be represented as a three-dimensional
matrix of size Nr × Nc × 3 where Nr and Nc are respectively the number of rows
and columns. Let c ∈ {R, G, B} denote a color channel where R, G and B stand
for respectively the red, green and blue color. Typically, the output image is coded
with ν bits and each pixel value is a natural integer. The set of possible pixel values
is denoted by Z = {0, 1, . . . , B} with B = 2ν − 1. Therefore, an arbitrary image
belongs to the finite image space Z
N with N = Nr × Nc × 3. In general, the image
space Z
N is high dimensional because of a large number of pixels. To facilitate
discussions, let Z denote an image in RAW format and Ze denote an image in TIFF
or JPEG format. Each color component of the image Z is denoted by Z
c and a pixel
of the color channel c at the location (m, n) is denoted by z
c
(m, n), 1 ≤ m ≤ Nr,
1 ≤ n ≤ Nc.
2.2.1 RAW Image Formation
Typically, a digital camera includes an optical sub-system (e.g. lenses), an image
sensor and an electronic sub-system, which can be regarded as the eye, retina, and
brain in the human visual system. The optical sub-system allows to attenuate
effects of infrared rays and to provide an initial optic image. The image sensor
consists of a two-dimensional arrays of photodiodes (or pixels) fabricated on a silicon14 Chapter 2. Overview on Digital Image Forensics
Figure 2.2: Sample color filter arrays.
wafer. Two common types of an image sensor are Charge-Coupled Device (CCD)
and Complementary Metal-Oxide Semiconductor (CMOS). Each pixel enables to
convert light energy to electrical energy. The output signals of the image sensor are
analog. These signals are then converted to digital signals by an analog-to-digital
(A/D) converter inside the camera. The RAW image is obtained at this stage.
Depending on the analog-to-digital circuit of the camera, the RAW image is recorded
with 12, 14 or even 16 bits. One key advantage is that the RAW image exactly
contains information recorded by the image sensor and it has not yet undergone
post-acquisition operations. This offers more flexibility for further adjustments.
Although the image sensor is sensitive to light intensity, it does not differentiate
light wavelength. Therefore, to record a color image, a Color Filter Array (CFA)
is overlaid on the image sensor. Each pixel records a limited range of wavelength,
corresponding to either red, green or blue. Some examples of CFA patterns are
shown in Figure 2.2. Among available CFA patterns, the Bayer pattern is the most
popular. It contains twice as many green as red or blue samples because the human
eye is more sensitive to green light than both red or blue light. The higher rate of
sampling for the green component enables to better capture the luminance component
of light and, thus, provides better image quality. There are few digital cameras
that allow to acquire a full-resolution information for all three color components
(e.g. Sigma SD9 or Polaroid x530 ). This is not only due to high production cost
but also due to the requirement of a perfect alignment of three color planes together.
Let Z represent the RAW image recorded by the image sensor. Because of
the CFA sampling, the RAW image Z is a single-channel image, namely that it is
represented as a two-dimensional matrix of size Nr × Nc. Each pixel value of the
RAW image Z corresponds to only one color channel. For subsequent processing
operations, each color component is extracted from the RAW image Z. A pixel of
each color component is given by
z
c
(m, n) = (
z(m, n) if PCFA(m, n) = c
0 otherwise,
(2.1)
where PCFA is the CFA pattern.
The RAW image acquisition stage is not ideal due to the degradation introduced
by several noise sources. This stage involves two predominant random noise sources.
The first is the Poisson-distributed noise associated with the stochastic nature of
the photo-counting process (namely shot noise) and dark current generated by the
thermal energy in the absence of light. Dark current is also referred to as Fixed
Pattern Noise (FPN). While shot noise results from the quantum nature of light
and it can not be eliminated, dark current can be subtracted from the image [13].2.2. Image Processing Pipeline of a Digital Camera 15
The second random noise sources account for all remaining electronic noises involved
in the acquisition chain, e.g. read-out noise, which can be modeled by a Gaussian
distribution with zero-mean. Apart from random noises, there is also a multiplicative
noise associated with the sensor pattern. This noise accounts for differences of pixels
response to the incident light due to imperfections during the manufacturing process
and inhomogeneity of silicon wafers. Therefore, this noise is referred to as PhotoResponse
Non-Uniformity (PRNU). The PRNU, which is typically small compared
with the signal, is a deterministic component that is present in every image. FPN
and PRNU are two main components of Sensor Pattern Noise (SPN). The PRNU
is unique for each sensor, thus it can be further used for forensic analysis.
2.2.2 Post-Acquisition Processing
Although the use of the CFA allows to reduce the cost of the camera, this requires to
estimate the missing color values at each pixel location in order to render a full-color
image. It means that all the zero values in the sub-images need to be interpolated.
This estimation process is commonly referred to as CFA demosaicing or CFA interpolation
[14]. Technically, demosaicing algorithms estimate a missing pixel value by
using its neighborhood information. The performance of CFA demosaicing affects
greatly the image quality. Demosaicing algorithms can be generally classified into
two categories: non-adaptive and adaptive algorithms. Non-adaptive algorithms
apply the same interpolation technique for all pixels. The nearest neighborhood, bilinear,
bicubic, and smooth hue interpolations are typical examples in this category.
For example, the bilinear interpolation can be written as a linear filtering
Z
c
DM = Hc
DM ~ Z
c
, (2.2)
where ~ denotes the two-dimensional convolution, Z
c
DM stands for the demosaiced
image of the color channel c, and Hc
DM is the linear filter for the color channel c
HG
DM =
1
4
0 1 0
1 4 1
0 1 0
, HR
DM = HB
DM =
1
4
1 2 1
2 4 2
1 2 1
. (2.3)
Although non-adaptive algorithms can provide satisfactory results in smooth regions
of an image, they usually fail in textured regions and edges. Therefore, adaptive
algorithms, which are more computationally intensive, employ edge information or
inter-channel correlation to find an appropriate set of coefficients to minimize the
overall interpolation error. Because the CFA interpolation commonly estimates a
missing pixel value using its neighbors, it thus creates a correlation between adjacent
pixels. This spatial correlation may be amplified during subsequent processing
stages.
Furthermore, to improve the visual quality, the RAW image needs to go through
another processing step, e.g. white balancing [11]. In fact, an object may appear
different in color when it is illuminated under different light sources. This is due to
the color temperature difference of the light sources, which causes the shift of the16 Chapter 2. Overview on Digital Image Forensics
reflection spectrum of the object from the true color. In other words, when a white
object is illuminated under a light source with low color temperature, the reflection
become reddish. On the other hand, a light source with high color temperature can
cause the white object to become bluish. The human visual system can recognize
the white color of the white object under different light sources. This phenomenon
is called color constancy. However, the digital camera does not have such luxury of
millions of year of evolution as human visual system. Therefore, the white balance
adjustment is implemented in the digital camera to compensate this illumination
imbalance so that a captured white object is rendered white in the image. Basically,
white balance adjustment is performed by multiplying pixels in each color channel
by a different gain factor. For instance, one classical white balancing algorithm is
the Gray World assuming that the average value of three color channels will average
to a common gray value
z
R
DM = z
G
DM = z
B
DM, (2.4)
where z
c
DM denotes the average intensity of the demosaiced image Z
c
DM
z
c
DM =
1
Nr · Nc
X
Nr
m=1
X
Nc
n=1
z
c
DM(m, n). (2.5)
In this algorithm, the green channel is fixed because human eye is more sensitive to
this channel (i.e. g
G
WB = 1). The gain factor for other color channels is given by
g
R
WB =
z
G
DM
z
R
DM
, and g
B
WB =
z
G
DM
z
B
DM
, (2.6)
where g
c
WB denotes the gain factor of the color channel c for white balance adjustment.
Therefore, the white-balanced image Z
c
WB is simply given by
Z
c
WB = g
c
WB · Z
c
DM. (2.7)
Other white-balancing algorithms may be also designed using different gain factors.
Actually, the white balance adjustment is a difficult task due to estimation or selection
of appropriate gain factors to correct for illumination imbalance. In this task,
the prior knowledge of light sources is critical so that the camera knows to select
appropriate gain factors. Therefore, some typical light sources such as daylight, incandescent
or fluorescent are stored in the camera. The white balance can be done
automatically in the camera. Some expensive cameras employ preprogrammed or
manual white balance for adapting to illumination conditions correctly.
Generally, the pixel intensity is still linear with respect to scene intensity before
gamma correction [11, 12]. However, most displays have non-linear characteristics.
The transfer function of these devices can be fairly approximated by a simple power
function that relates the luminance L to voltage V
L = V
γ
. (2.8)2.2. Image Processing Pipeline of a Digital Camera 17
Figure 2.3: JPEG compression chain.
Typically, γ = 2.2. To compensate this effect and render the luminance into a
perceptually uniform domain, the gamma correction is done in the image processing
pipeline. Gamma correction is roughly the inverse of Equation (2.8), applying to
each input pixel value
z
c
GM(m, n) =
z
c
WB(m, n)
1
γ
. (2.9)
After going through all post-acquisition processes, a full-color high-quality image,
referred to as TIFF image, is rendered. For the sake of simplicity, let ZeTIFF denote
the final full-color TIFF image.
2.2.3 Image Compression
The TIFF format does not make ease of storage or transmission. Therefore, most
digital cameras commonly apply lossy compression algorithms to reduce the image
data size. Lossy compression algorithms allow to discard information that is not
visually significant. Therefore, lossy compression algorithms are irreversible when
the image reconstructed from the compressed image data is not as identical as the
original image. Moreover, the use of a lossy compression algorithm is a balancing act
between storage size and image quality. An image which is compressed with a high
compression factor requires little storage space, but it will probably be reconstructed
with a poor quality.
Although many lossy compression algorithms have been proposed, most manufacturers
predominately utilize JPEG compression. The JPEG compression scheme
consists of three fundamental settings: color space, subsampling technique, and
quantization table. Even though JPEG was already proposed by the standard Independent
JPEG Group [15], manufacturers typically design their own compression
scheme for optimal trade-off of image quality versus file size. Fundamental steps of
the typical JPEG compression chain are shown in Figure 2.3.
The JPEG compression scheme works in the different color space, typically
YCbCr color space, rather than the RGB color space. The transformation to the
YCbCr color space is to reduce correlations among red, green and blue components.
It allows for more efficient compression. The channel Y represents the luminance of18 Chapter 2. Overview on Digital Image Forensics
a pixel, and the channels Cb and Cr represent the chrominance. Each channel Y, Cb
and Cr is processed separately. In addition, the channels Cb and Cr are commonly
supsampled by a factor of 2 horizontally and vertically. The transformation from
the RGB color space to the YCbCr color space is linear
Y
Cb
Cr
=
0.299 0.587 0.114
−0.169 −0.331 0.5
0.5 −0.419 0.081
R
G
B
+
0
128
128
. (2.10)
To avoid introducing too many symbols, let ZeTIFF denote also the image obtained
after this transformation.
The JPEG compression algorithm consists of two key steps: Discrete Cosine
Transform (DCT), and quantization. It works separately on each 8 × 8 block of a
color component. The DCT operation converts pixel values from the spatial domain
into transform coefficients
I(u, v) = 1
4
TuTv
X
7
m=0
X
7
n=0
z˜TIFF(m, n)
× cos
(2m + 1)uπ
16
cos
(2n + 1)vπ
16
, (2.11)
where z˜TIFF(m, n) is a pixel in a 8 × 8 block, 0 ≤ m, n ≤ 7, I(u, v) denotes the
two-dimensional DCT coefficient, 0 ≤ u, v ≤ 7, and Tu is the normalized weight
Tu =
(
√
1
2
for u = 0
1 for u > 0
. (2.12)
The index of color channel Y, Cb, and Cr is omitted for simplicity as each color
channel is processed separately. The coefficient at location (0, 0), called the Direct
Current (DC) coefficient, represents the mean value of pixels in the 8 × 8 block.
The remaining 63 coefficients are called the Alternating Current (AC) coefficients.
The DCT is known as sub-optimal transform with two important properties: energy
compaction and decorrelation. In a natural image, the majority of the energy tends
to be more located in low frequencies (i.e. the upper left corner of the 8 × 8 grid)
while high frequencies contains information that is not visually significant.
Then, the DCT coefficients go through the quantization process. The quantization
is carried out by simply dividing each coefficient by the corresponding quantization
step, and then rounding to the nearest integer
D(u, v) = round
I(u, v)
∆(u, v)
, (2.13)
where D(u, v) is the quantized DCT coefficient and ∆(u, v) is the corresponding
element in the 8 × 8 quantization table ∆. The quantization table is designed
differently for each color channel. The quantization is irreversible, which results
in an impossibility of recovering the original image exactly. The final processing2.3. Passive Image Origin Identification 19
step is entropy coding that is a form of lossless process. It arranges quantized DCT
coefficients into the zig-zag sequence and then employs the Run-Length Encoding
(RLE) algorithm and Huffman coding. This step is perfectly reversible.
The JPEG decompression works in the reverse order: entropy decoding, dequantization,
and Inverse DCT (IDCT). When the image is decompressed, the entropy is
decoded, we obtain the two-dimensional quantized DCT coefficients. The dequantization
is performed by multiplying the quantized DCT coefficient D(u, v) by the
corresponding quantization step ∆(u, v)
I(u, v) = ∆(u, v) · D(u, v), (2.14)
where I(u, v) stands for the dequantized DCT coefficient. The IDCT operation is
applied to dequantized DCT coefficients to return to the spatial domain
z˜IDCT(m, n) = X
7
uh=0
X
7
uv=0
1
4
TuTvI(u, v)
× cos
(2m + 1)uπ
16
cos
(2n + 1)vπ
16
. (2.15)
After upsampling color components and transforming into the RGB color space, the
values are rounded to the nearest integers and truncated to a finite dynamic range
(typically [0, 255])
z˜JPEG(m, n) = trunc
roundh
z˜IDCT(m, n)
i, (2.16)
where z˜JPEG(m, n) is the final decompressed JPEG pixel. In general, the JPEG pixel
z˜JPEG(m, n) differs from the original TIFF pixel z˜TIFF(m, n) due to the quantization,
rounding and truncation (R/T) errors in the process. Note that in this image
processing pipeline, R/T errors are only take into account one time for the sake of
simplification.
The way that JPEG compression works separately on each 8×8 block generates
discontinuities across the boundaries of the blocks, which are also known as block
artifacts [16]. The blocking artifacts are more severe when the quantization steps
are coarser. Moreover, because of the quantization in the DCT domain, the DCT
coefficients obtained by applying the DCT operation on the decompressed JPEG
image will cluster around integer multiples of ∆(u, v), even though those DCT
coefficients are perturbed by R/T errors. These two artifacts provide a rich source
of information for forensic analysis of digital images.
2.3 Passive Image Origin Identification
Basically, when an image is captured by a camera, it is stored with the metadata
headers in a memory storage device. The metadata, e.g. Exchangeable Image File
(EXIF) and JPEG headers, contain all recording and compression history. Therefore,
a simplest way to determine the image’s source is to read out directly from the20 Chapter 2. Overview on Digital Image Forensics
metadata. However, such metadata headers are not always available in practice if
the image is resaved in a different format or recompressed. Another problem is that
the metadata headers are not reliable as they can be easily removed or modified
using low-cost editing tools. Therefore, the metadata should not be considered in
forensic analysis.
The common philosophy of passive approach for image origin identification is
to rely on inherent intrinsic fingerprints that the digital camera leaves in a given
image. The fingerprint can discriminate different camera brands, camera models,
and even camera units. Any method proposed for image origin identification must
respond to following questions:
1. Which fingerprints are utilized for origin identification?
2. How to extract these fingerprints accurately from a given image?
3. Under which frameworks is the method designed to exploit the discriminability
of fingerprints extracted from images captured by different sources1 and to
calculate the similarity of fingerprints extracted from images captured by the
same source?
Every stage from real-world scene acquisition to image storage can provide intrinsic
fingerprints for forensic analysis (see Figure 2.1). Although the image processing
pipeline is common for most cameras, each processing step is performed according
to manufacturers’ own design. Thus the information left by each processing step is
useful to trace down to the device source. A fingerprint must satisfy three following
important requirements:
• Generality: the fingerprint should be present in every image.
• Invariant: the fingerprint does not vary for different image contents.
• Robustness: the fingerprint survives non-linear operations such as lossy compression
or gamma correction.
The second question involves a challenge for any forensic method since the fingerprint
extraction may be severely contaminated by non-linear operations (e.g.
gamma correction and lossy compression).
Generally, the image origin identification problem can be formulated into two
frameworks: supervised classification [17–19] and hypothesis testing [20]. Compared
with hypothesis testing framework, supervised classification framework is utilized by
most of existing methods in the literature. The construction of a classifier typically
consists of two stages: training stage and testing stage. It is assumed that the entire
image space Z
N that includes all images from all the sources in the real world can be
1The term source means an individual camera instance, a camera model, or a camera brand.
Other sources such as cell-phone cameras, scanners, computer graphic are not addressed in this
thesis.2.3. Passive Image Origin Identification 21
divided into disjoint subsets in which images with same characteristics from the same
source are grouped together. Let {S1, S2, . . . , SNs} be Ns different sources that are
required to be classified. Typically, each source Sn, 1 ≤ n ≤ Ns, is a subset of Z
N .
In the training stage, suppose that Nim images are collected to be representative for
each source. Each image in the source Sn is denoted by Zn,i. Then a feature vector
is extracted from each image. Formally, a feature vector is a mapping f : Z
N → F
where each image Z is mapped to a Nf-dimensional vector v = f(Z). Here, F is called
feature space and Nf
is the number of selected features, which is also the dimension
of the feature space F. The number of features Nf
is very small compared with the
number of pixels N. Working in a low-dimensional feature space F that represent
the input images is much simpler than working on high-dimensional noisy image
space Z
N . The choice of an appropriate feature vector is primordial in supervised
classification framework since the accuracy of a classifier highly depends on it. Thus
we obtain a set of feature vectors {vn,i} that is representative for each source. In
this training stage feature refinement can be also performed such as dimensionality
reduction or feature selection to avoid overtraining and redundant features. The
knowledge learnt from the set of refined feature vectors helps build a classifier using
supervised machine learning algorithms. A classifier typically is a learned function
that can map an input feature vector to a corresponding source. Therefore, in the
testing stage, the same steps such as feature selection and feature refinement are
performed on the testing images. The output of the trained classifier is the result
predicted for input testing images. Among many existing powerful machine learning
algorithms, Support Vector Machines (SVM) [18, 19] seem to be the most popular
choice in passive forensics. SVM are established in a solid mathematical foundation,
namely statistical learning theory [18]. Moreover, their implementation is available
for download and is easy to use [21].
Supervised classification framework involves two main drawbacks. To achieve
high accuracy, supervised classification framework requires an expensive training
stage that involves many images with different characteristics (e.g. image content
or camera settings) from various sources for representing a real-world situation,
which might be unrealistic in practice. Another drawback of this framework is that
the trained classifier can not establish the statistical performances analytically since
it does not rely on knowledge of a priori statistical distribution of images. In the
operational context, such as for law enforcement and intelligent agencies, the design
of an efficient method might not be sufficient. Forensic analysts also require that the
probability of false alarm should be guaranteed and below a prescribed rate. The
analytic establishment of statistical performances still remains an open problem in
machine learning framework [22].
On the other hand, the problem of image origin identification problem lends
itself to a binary hypothesis testing formulation.
Definition 2.1. (Origin identification problem). Given an arbitrary image Z under
investigation, to identify the source of the image Z, forensic analysts decide between22 Chapter 2. Overview on Digital Image Forensics
two following hypotheses
(
H0 : Z is acquired by the source of interest S0
H1 : Z is acquired by a certain source S1 that differs from the source S0.
(2.17)
Suppose that the source S0 is available, so forensic analysts can have access to its
characteristics, or its fingerprints. Therefore, they can make a decision by checking
whether the image in question Z contains the fingerprints of the source. Relying on
a priori statistical distribution of the image Z under each source, forensic analysts
can establish a test statistic that can give a decision rule according to some criteria
of optimality.
Statistical hypothesis testing theory has been considerably studied and applied
in many fields. Several statistical tests as well as criteria of optimality have been proposed.
While supervised learning framework only requires to find an appropriate set
of forensic features, the most challenging part in hypothesis testing framework is to
establish a statistical distribution to accurately characterize a high-dimensional real
image. In doing so, hypothesis testing framework allows us to establish analytically
the performance of the detector and warrant a prescribed false alarm probability,
which are two crucial criteria in the operational context that supervised classification
framework can not enable. However, hypothesis testing framework is of limited
exploitation in forensic analysis. For the sake of clarity, hypothesis testing theory
will be more detailed in Chapter A.
There are many passive forensic methods proposed in the literature for image
origin identification. In this thesis, we limit the scope of our review to methods for
identification of the source of a digital camera (e.g. camera brand, camera model,
or individual camera instance). The methods to identify other imaging mechanisms
such as cell-phone cameras, scanners, and computer graphics will not be addressed.
It is important to distinguish the problem of camera instance identification and the
problem of camera model/brand identification. More specifically, fingerprints used
for camera instance identification should capture individuality, especially cameras
coming from the same brand and model. For camera model/brand identification,
it is necessary to exploit fingerprints that are shared between cameras of the same
model/brand but discriminative for different camera models/brands.
Existing methods in the literature can be broadly divided into two categories.
Methods in the first category exploit differences in image processing techniques
and component technologies among camera models and manufacturers such as lens
aberration [23], CFA patterns and interpolation [24–26] and JPEG compression
[27,28]. The main challenge in this category is that the image processing techniques
remain identical or similar, and the components produced by a few manufacturers
are shared among camera models. Methods in the second category aim to identify
unique characteristics or fingerprints of the acquisition device such as PRNU [29–36].
The ability to reliably extract this fingerprint from an image is the main challenge
in the second category since different image contents and non-linear operations may2.3. Passive Image Origin Identification 23
severely affect this extraction. Below we will present the methods according to
the position of exploited fingerprints in the image acquisition pipeline of a digital
camera.
2.3.1 Lens Aberration
Digital cameras use lenses to capture incident light. Due to the imperfection of the
design and manufacturing process, lenses cause undesired effects in output images
such as spherical aberration, chromatic aberration, or radial distorsion. Spherical
aberration occurs when all incident light rays end up focusing at different points
after passing through a spherical surface, especially light rays passing through the
periphery of the spherical lens. Chromatic aberration is a failure of lens to converge
different wavelengths at the same position on the image sensor. Radial distorsion
causes straight lines rendered as curved lines on the image sensor and it occurs when
the transverse magnification (ratio of the image distance to the object distance) is
not a constant but a function of the off-axis image distance. Among these effects,
radial distorsion may be the most severe part that lens produces in output images.
Different manufacturers design different lens systems to compensate the effect of
radial distorsion. Moreover, focal length also affects the degree of radial distorsion.
As a result, each camera brand or model may leave an unique degree of radial
distorsion on the output images. Therefore, radial distorsion of lens is exploited
in [23] to identify the source of the image.
The authors in [23] take the center of an image as the center of distorsion and
model the undistorted radius ru as a non-linear function of distorted radius rd
ru = rd + k1r
3
d + k2r
5
d
. (2.18)
Distorsion parameters (k1, k2) are estimated using the straight line method [37,38].
Then the distorsion parameters (k1, k2) are exploited as forensic features to train a
SVM classifier. Although experiments provided a promising result, experiments were
only conducted on three different camera brands. Experiments on large database
including different devices per camera model and different camera models are more
desirable. However, this lens aberration-based classifier would fail for a camera with
possibly interchangeable lenses, e.g. Digital Single Lens Reflex (DSLR) camera.
2.3.2 Sensor Imperfections
As discussed in Section 2.2, imperfections during the manufacturing process and
inhomogeneity of silicon wafers leads to slight variations in the response of each
pixel to incident light. These slight variations are referred as to PRNU, which is
unique for each sensor pattern. Thus PRNU can be exploited to trace down to
individual camera instance. The FPN was also used in [39] for camera instance
identification. However, the FPN can be easily compensated, thus it is not a robust
fingerprint and no longer used in later works.24 Chapter 2. Overview on Digital Image Forensics
Generally, PRNU is modeled as a multiplicative noise-like signal [30, 32]
Z = µ + µK + Ξ, (2.19)
where Z is the output noisy image, µ is the ideal image in the absence of noise, K
represents the PRNU, and Ξ accounts for the combination of other noise sources.
All operations in (2.19) are pixel-wise.
Like supervised classification, the PRNU-based method also consists two stages.
The training stage involves collecting Nim images that are acquired by the camera
of interest S0 and extracting the PRNU K0 characterizing this camera. This is
accomplished by applying a denoising filter on each image to suppress the image
content, then performing Maximum Likelihood (ML) estimation of K0
K0 =
PNim
i=1 Z
res
i Zi
PNim
i=1
Zi
2
, (2.20)
where Z
res
i = Zi −D
Z
is the noise residual corresponding to the image Zi
, 1 ≤ i ≤
Nim, and D stands for the denoising filter. Note that when the PRNU is extracted
from JPEG images, it may contain artifacts introduced by CFA interpolation and
JPEG compression. These artifacts are not unique to each camera instance and
shared among different camera units of the same model. To render the PRNU
unique to the camera and improve the accuracy of the method, a preprocessing
step is performed to suppress these artifacts by subtracting the averages from each
row and column, and applying the Wiener filter in the Fourier domain [30]. In the
testing stage, given an image under investigation Z, the problem of camera source
identification (2.17) is rewritten as follows
(
H0 : Z
res = µK0 + Ξe
H1 : Z
res = µK1 + Ξe,
(2.21)
where the noise term Ξe includes the noise Ξ and additional terms introduced by
the denoising filter. This formulation must be understood as follows: hypothesis
H0 means that the noise residual Z
res contains the PRNU K0 characterizing the
camera of interest S0 while hypothesis H1 means the opposite. It should be noted
that the PRNU detection problem in [30, 32] is formulated in the reverse direction.
The sub-optimal detector for the problem (2.21) is the normalized cross correlation
between the PRNU term µK and the noise residual Z
res [30]. In fact, the normalized
cross correlation is derived from the Generalized Likelihood Ratio Test (GLRT)
by modeling the noise term Ξe as white noise with known variance [40]. A more
stable statistic derived in [32] is the Peak to Correlation Energy (PCE) as it is
independent of the image size and has other advantages such as its response to
the presence of weak periodic signals. Theoretically, the decision threshold for the
problem (2.21) is given by τ =
Φ
−1
(1 − α0)
2
where α0 is the prescribed false
alarm probability, Φ(·) and Φ
−1
(·) denotes respectively the cumulative distribution
function (cdf) of the standard Gaussian random variable and its inverse. If the2.3. Passive Image Origin Identification 25
PCE is smaller than a threshold τ , the image Z is claimed taken by the camera in
question. The detection performance can be improved by selecting an appropriate
denoising filter [33], attenuating scene details in the test image [34,35], or recognizing
the PRNU term with respect to each sub-sample of the CFA pattern [36].
Beside individual camera instance identification, the fingerprint PRNU can be
also used for camera model identification [31]. This is based on an assumption
that the fingerprint obtained from TIFF or JPEG images contains traces of postacquisition
processes (e.g. CFA interpolation) that carry information about the
camera model. In this case, the above preprocessing step that removes the linear
pattern from the PRNU will not be performed. The features extracted from the
PRNU term including statistical moments, cross correlation, block covariance, and
linear pattern, are used to train a SVM classifier.
2.3.3 CFA Pattern and Interpolation
Based on the assumption that different CFA patterns and CFA interpolation algorithms
are employed by different manufacturers, even in different camera models,
thus they can be used to discriminate camera brands and camera models. Typically,
both CFA pattern and interpolation coefficients are unknown in advance. They must
be estimated together from a single image. An algorithm has been developed in [24]
to jointly estimate CFA pattern and interpolation coefficients, which has shown the
robustness to JPEG compression with low quality factors. Firstly, a search space
including 36 possible CFA patterns is established based on the observation that
most cameras use a RGB type of CFA with a fixed periodicity of 2 × 2. Since a
camera may employ different interpolation algorithms for different types of regions,
it is desirable to classify the given image into three types of regions based on gradient
information in a local neighborhood of a pixel: region contains parts of the
image with a significant horizontal gradient, region contains parts of the image with
a significant vertical gradient, and region includes the remaining smooth parts of
the image.
For every CFA pattern PCFA in the search space, the interpolation coefficients
are computed separately in each region by fitting linear models. Using the final
output image Z and the assumed CFA pattern PCFA, we can identify the set of
pixels that acquired directly from the image sensor and those obtained by interpolation.
The interpolated pixels are assumed to be a weighted average of the
pixels acquired directly. The interpolation coefficients are then obtained by solving
these equations. To overcome the difficulty of noisy pixel values and interference of
non-linear post-acquisition processes, singular value decomposition is employed to
estimate the interpolation coefficients. These coefficients are then use to re-estimate
the output image Zb, and find the interpolation error Zb − Z. The CFA pattern that
gives the lowest interpolation error and its corresponding coefficients are chosen as
final results [24].
As soon as the interpolation coefficients are estimated from the given image,
they are used as forensic features to train a SVM classifier for classification of cam-26 Chapter 2. Overview on Digital Image Forensics
era brands and models [24]. The detection performance can be further enhanced by
taking into account intra-channel and inter-channel correlations and more sophisticated
interpolation algorithms in the estimation methodology [26]. Other features
can be used together with interpolation coefficients such as the peak location and
magnitudes of the frequency spectrum of the probability map [41].
2.3.4 Image Compression
Image compression is the final step in the image processing pipeline. As discussed
in Section 2.2, manufacturers have their own compression scheme for optimal tradeoff
of image quality versus file size. Different component technologies (e.g. lenses,
sensors), different in-camera processing operations (e.g. CFA interpolation, whitebalancing),
together with different quantization matrices will jointly result in statistical
difference of quantized DCT coefficient. Capturing this statistical difference
and extracting useful features from it may enable to discriminate different camera
brands or camera models.
To this end, instead of extracting statistical features directly from quantized
DCT coefficients, features are extracted from the difference JPEG 2-D array [28].
The JPEG 2-D array consists of the magnitudes (i.e. absolute values) of quantized
DCT coefficients. Three reasons behind taking absolute values are the followings:
1. The magnitudes of DCT coefficients decrease along the zig-zag order.
2. Taking absolute values can reduce the dynamic range of the resulting array.
3. The signs of DCT coefficients mainly carry information of the outlines and
edges of the original spatial-domain image, which does not involve information
about camera models. Thus by taking absolute values, all the information
regarding camera models remains.
Then to reduce the influence of image content and enhance statistical difference
introduced in image processing pipeline, the difference JPEG 2-D array, which is
defined by taking the difference between an element and one of its neighbors in
the JPEG 2-D array, is introduced. The difference can be calculated along four
directions: horizontal, vertical, main diagonal, and minor diagonal. To model the
statistical difference of quantized DCT coefficients and take into account the correlation
between coefficients, the Markovian transition probability matrix is exploited.
Each difference JPEG 2-D array from a direction generates its own transition probability
matrix. Each probability value in the transition matrix is given by
P
h
X(uh + 1, uv) = k
X(uh, uv) = l
i
=
PNh
uh=1
PNv
uv=1 1X(uh,uv)=l,X(uh+1,uv)=k
PNh
uh=1
PNv
uv=1 1X(uh,uv)=l
,
(2.22)
where X(uh, uv) denotes an element in the difference JPEG 2-D array and 1E is an
indicator function
1E =
(
1 if E is true
0 otherwise.
(2.23)2.4. Passive Image Forgery Detection 27
These steps are performed for the Y and Cb components of the compressed JPEG
image. Totally, we can collect 324 transition probabilities for Y component and 162
transition probabilities for Cb component. The transition probabilities are then used
as forensic features for SVM classification. Experiments are then conducted on a
large database including 40000 images of 8 different camera models, providing a good
classification performance [28]. In this method it is more desirable to perform feature
refinement to reduce the number of features and the complexity of the algorithm.
2.4 Passive Image Forgery Detection
Image forgery detection is another fundamental task of forensic analysts, which aims
to detect any act of manipulation on image content. The main assumption is that
even though a forger with skills and powerful tools does not leave any perceptible
trace of manipulation, the manipulation creates itself inconsistencies in image content.
Depending on which type of inconsistencies is investigated and how passive
forensic methods operate, they can broadly be divided into five categories. A single
method can hardly detect all types of forgery, so forensic analysts should use these
methods together to reliably detect a wide variety of tampering.
1. Universal Classifiers: Any act of manipulation may lead to statistical changes
in the underlying image. Instead of capturing these changes directly in a
high-dimensional and non-stationary image, which is extremely difficult, one
approach is to detect changes in a set of features that represent an image.
Based on these features, supervised classification is employed to provide universal
classifiers to discriminate between unaltered images and manipulated
images. Some typical forensic features are higher-order wavelet statistics [42],
image quality and binary similarity measures [43, 44]. These universal classifiers
are not only able to detect some basic manipulations such as resizing,
splicing, contrast enhancement, but also reveal the existence of hidden messages
[45].
2. Camera Fingerprints-Based: A typical scenario of forgery is to cut a portion
of an image and paste it into a different image, then create the so-called
forged image. The forged region may not be taken by the same camera as
remaining regions of the image, which results in inconsistencies in camera
fingerprints between those regions. Therefore, if these inconsistencies exist in
an image, we could assume that the image is not authentic. For authentication,
existing methods have exploited many camera fingerprints such as chromatic
aberration [46], PRNU [30,32], CFA interpolation and correlation [25, 47–49],
gamma correction [50, 51], Camera Response Function (CRF) [52–54].
3. Compression and Coding Fingerprints-Based: Nowadays most commercial
cameras export images in JPEG format for ease of storage and transmission.
As discussed in Section 2.2, JPEG compression introduces two important artifacts:
clustering of DCT coefficients around integer multiples of the quan-28 Chapter 2. Overview on Digital Image Forensics
tization step, and blocking artifacts. Checking inconsistencies in these two
artifacts can trace the processing history of an image and determine its origin
and authenticity. A possible scenario is that while the original image is saved
in JPEG format, a forger could save it in a lossless format after manipulation.
Existence of these artifacts in an image in a lossless format can show that it has
been previously compressed [55–57]. Another scenario is that the forger could
save the manipulated image in JPEG format, which means that the image
has undergone JPEG compression twice. Detection of double JPEG compression
can be performed by checking periodic patterns (e.g. double peaks and
missing centroids) in the histogram of DCT coefficients due to different quantization
steps [51, 58, 59], which are not present in singly compressed images,
or using the distribution of the first digit of DCT coefficients [60, 61]. The
detection of double JPEG compression is of greater interest since it can reveal
splicing or cut-and-paste forgeries due to the fact that the the forged region
and remaining regions of the image may not have the same processing history.
Inconsistencies can be identified either in DCT domain [62–65] or in spatial
domain via blocking artifacts [66, 67]. Furthermore, the detection of double
JPEG compression can be applied for detecting hidden messages [58, 59].
4. Manipulation-Specific Fingerprints-Based: Each manipulation may leave specific
fingerprints itself within an image, which can be used as evidence of
tampering. For example, resampling causes specific periodic correlations between
neighboring pixels. These correlations can be estimated based on the
Expectation Maximization (EM) algorithm [68], and then used to detect the
resampling [68, 69]. Furthermore, resampling can be also detected by identifying
periodicities in the average of an image’s second derivative along its row
and columns [70], or periodicities in the variance of an image’s derivative [71].
Contrast enhancement creates impulsive peaks and gaps in the histogram of
the image’s pixel value. These fingerprints can be detected by measuring the
amount of high frequency energy introduced into the Fourier transform of an
image’s pixel value histogram [72]. Median filtering introduces streaking into
the signals [73]. Streaks correspond to a sequence of adjacent signal observations
all taking the same value. Therefore, median filtering can be detected
by analyzing statistical properties of the first difference of an image’s pixel
values [74–77]. Splicing disrupts higher-order Fourier statistics, which leaves
traces to detect splicing [78].
5. Physical Inconsistencies-Based: Methods in this category do not make use
of any form of fingerprints but exploit properties of lighting environment for
forgery detection. The main assumption is that all the objects within an image
are typically illuminated under the same light sources, so the same properties
of lighting environments. Therefore, difference in lighting across an image can
be used as evidence of tampering, e.g. splicing. To this end, it is necessary
to estimate the direction of the light source illuminating an object. This can
be accomplished by considering two-dimensional [79] or three-dimensional [80]2.5. Steganography and Steganalysis in Digital Images 29
Figure 2.4: Typical steganographic system.
surface normals, and illumination under a single light source [79] or even under
multiple light sources [81]. The lighting environment coefficients of all objects
in an image are then used for checking inconsistencies.
2.5 Steganography and Steganalysis in Digital Images
Steganography is the art and science of hiding communication. The concept of
steganography is used for invisible communication between only two parties, the
sender and the receiver, such that the message exchanged between them can not
be detected by an adversary. This communication can be illustrated by prisoners’
problem [82]. Two prisoners, Alice and Bob, want to develop an escape plan but
all communications between them are unfortunately monitored by a warden named
Wendy. The escape plan must be kept secret and exchanged without raising Wendy’s
suspicion. It means that the communication does not only involve the confidentiality
of the escape plan but also its undetectability. For this purpose, a practical way is
to hide the the escape plan, or the secret message in a certain ordinary object and
send it to the intended receiver. By terminology, the original object that is used
for message hiding is called cover-object and the object that contains the hidden
message is called stego-object. The hiding technique does not destroy the object
content perceptibly to not raise Wendy’s suspicion, nor modify the message content
so the receiver could totally understand the message.
The advances in information technologies make digital media (e.g. audio, image,
or video) ubiquitous. This ubiquity facilitates the choice of a harmless object in
which the sender can hide a secret message, so sending such media is inconspicuous.
Furthermore, the size of digital media is typically large compared to the size of
secret message. Thus the secret message can be easily hidden in digital media
without visually destroying digital content. Most of researches focus on digital
images, which are also the type of media addressed in this thesis.
A typical steganographic system is shown in Figure 2.4. It consists of two stages:30 Chapter 2. Overview on Digital Image Forensics
embedding stage and extraction stage. When Alice wants to send a secret message
M, she hides it into a cover-image C using a key and an embedding algorithm.
The secret message M is a binary sequence of L bits, M = (m1, m2, . . . , mL)
T with
mi ∈ {0, 1}, 1 ≤ i ≤ L. The resulting stego-image S is then transmitted to Bob via
an insecure channel. Bob can retrieve the message M since he knows the embedding
algorithm used by Alice and has access to the key used in embedding process.
Bob does not absolutely require the original cover-image C for message extraction.
From the Kerckhoffs’ principle [83], it is assumed that in digital steganography,
steganographic algorithms are public so that all parties including the warden Wendy
have access to them. The security of the steganographic system relies solely on the
key. The key could be secret key exchanged between Alice and Bob through a secure
channel, or public key.
In general, steganographic systems can be evaluated by three basic criteria: capacity,
security, and robustness. Capacity is defined as the maximum length of a
secret message. The capacity depends on the embedding algorithm and properties
of cover-images. The security of a steganographic system is evaluated by the undetectability
rather than the difficulty of reading the message content in case of
cryptographic system. However, we can see that steganographic systems also exploit
the idea of exchange of keys (secret and public) from cryptographic system to
reinforce the security. Robustness means the difficulty of removing a hidden message
from a stego-image, so the secret message survives some accidental channel
distortions or systematic interference of the warden that aims to prevent the use
of steganography. It can be noted that longer messages will lead to more changes
in the cover image, thus less security. In brief, these three criteria are mutually
dependent and are balanced when designing a steganographic system.
The purpose of steganography is to secretly communicate through a public channel.
However, this concept has been misused by anti-social elements, criminals, or
terrorists. It could lead to important consequences to homeland security or national
defence when, for example, two terrorists exchange a terrorist plan. Therefore, it
is urgent for law enforcement and intelligence agencies to build up a methodology
in order to detect the mere existence of a secret message and break the security of
steganographic systems. Embedding a secret message into a cover-image is also an
act of manipulating image content, so steganalysis is one of important tasks of forensic
analysts, or steganalysts in this case. Unlike in cryptanalysis, the steganalyst
Wendy does not require to retrieve the actual message content. As soon as she have
detected its existence in an image, she can cut off the communication channel by
putting two prisoners in separate cells. This is the failure of steganography. Besides,
the task of steganalysis must be accomplished blindly without knowledge of original
cover image.
Generally, the steganalyst Wendy can play either active or passive role. While
the active steganalyst is allowed to modify exchanged objects through the public
channel in order to prevent the use of steganography, the passive steganalyst is not.
The only goal of passive steganalyst is to detect the presence of a hidden message in
a given image, which is also the typical scenario on which most of researches mainly2.5. Steganography and Steganalysis in Digital Images 31
Figure 2.5: Operations of LSB replacement (top) and Jsteg (bottom).
focus. It can be noted that the steganalysis is like the coin-tossing game since the
decision of steganalysts is made by telling that the given image is either a coverimage
or a stego-image. Hence in any case, steganalysts can get a correct detection
probability of 50%. However, steganalysts should establish the problem of hidden
message detection in a more formal manner and design a powerful steganalysis tool
with higher correct detection probability, rather than a random guess. Apart from
detecting the presence of a hidden message, it may be desirable for steganalysts to
estimate the message length or brute-force the secret key and retrieve the message
content. The estimation of the message length is called quantitative steganalysis.
Brute-forcing the secret key and extraction of the message content are referred to
as forensic steganalysis.
As stated above, designing a steganographic system is a trade-off between three
basic criteria. Thus many steganographic algorithms have been proposed for different
purposes such as mimic natural processing [84–86], preserve a model of coverimages
[87, 88], or minimize the distorsion function [89, 90]. Among available algorithms,
Least Significant Bit (LSB) replacement might be the oldest embedding
technique in digital steganography. This algorithm is simple and easy to implement,
thus it is available in numerous low-cost steganographic softwares on the Internet
despite its relative insecurity. In addition, LSB replacement inspires a majority
of other steganographic algorithms (e.g. LSB matching [91], Jsteg [92]). Jsteg
algorithm is simply the implementation of LSB replacement in the DCT domain.
Therefore, understanding LSB replacement paradigm is a good starting point before
addressing more complex embedding paradigms. In this thesis, we only review LSB
replacement and Jsteg algorithm, and their powerful steganalysis detectors proposed
in the literature. The readers can be referred to [93–95] for other steganographic
and steganalysis methods.32 Chapter 2. Overview on Digital Image Forensics
2.5.1 LSB Replacement Paradigm and Jsteg Algorithm
Considering the cover-image C as a column vector, the LSB replacement technique
involves choosing a subset of L cover-pixels {c1, c2, . . . , cL}, and replacing the LSB
of each cover pixel by a message bit. The LSB of a cover-pixel ci
is defined as follows
LSB(ci) = ci − 2
j
ci
2
k
, (2.24)
where b·c is the floor function. The LSB of the cover-pixel ci takes values in {0, 1}.
Therefore, by embedding a message bit mi
into the cover-pixel ci
, the stego-pixel si
is given by
si = 2j
ci
2
k
+ mi
. (2.25)
We see that when LSB(ci) = mi
, the pixel value does not change after embedding,
si = ci
. By contrast, when LSB(ci) 6= mi
, the stego-pixel si can be defined as a
function of the cover-pixel ci
in the following manner
si = ci + 1 − 2 · LSB(ci) = ci + (−1)ci , ci
, (2.26)
where ci
is the pixel with flipped LSB. In other words, even values are never decremented
whereas odd values are never incremented. The absolute difference between
a cover-pixel ci and a stego-pixel si
is smaller than 1, |ci − si
| ≤ 1, thus the artifact
caused by the insertion of secret message M could be imperceptible under human
vision. The operation of LSB replacement technique is illustrated in Figure 2.5.
One problem that remains to be solved is the choice of the subset of cover-pixels or
the sequence of pixel indices used in embedding process. To increase the complexity
of the algorithm, the sender could create a pseudorandom path generated from the
secret key shared between the sender and the receiver so that the secret message
bits are spread randomly over the cover-image. Therefore, the distance between
two embedded bits is also determined pseudorandomly, which would not raise the
suspicion of the warden. We can see that the number of message bits that can be
embedded does not exceed beyond the number of pixels of the image Z: L ≤ N,
which leads us to define an embedding rate R
R =
L
N
. (2.27)
This embedding rate R is a measure of the capacity of the steganographic system
based on LSB replacement technique.
Jsteg algorithm is a variant of LSB replacement technique in spatial domain.
Jsteg algorithm embeds the secret message into the DCT domain by replacing LSBs
of quantized DCT coefficients by message bits. The difference from the LSB replacement
technique in spatial domain is that Jsteg algorithm does not embed message
bits in the coefficients that are equal to 0 and 1 since artifacts caused by such embedding
can be perceptibly and easily detected. The DC coefficient is not used as
well for the same reason. The AC coefficients that differ from 0 et 1 are usable2.5. Steganography and Steganalysis in Digital Images 33
coefficients. Consequently, the embedding rate R in Jsteg algorithm is defied as the
ratio of the length L and the number of usable coefficients in the cover-image C
R =
L
P64
k=2 nk
. (2.28)
where nk is the number of usable coefficients at the frequency k, 2 ≤ k ≤ 64.
2.5.2 Steganalysis of LSB Replacement in Spatial Domain
Like the origin identification problem (2.17), the steganalysis problem can be also
formulated as a binary hypothesis testing.
Definition 2.2. (Steganalysis problem). Given a suspect image Z, to verify whether
the image Z contains a secret message or not, the steganalyst decides between two
following hypotheses
(
H0 : Z = C, no hidden message.
H1 : Z = S, with hidden message.
(2.29)
To solve the steganalysis problem (2.29), several methods have been proposed
in the literature. Even though the secret message is imperceptible to human eye,
the act of embedding a secret message modifies the cover content and leaves itself
artifacts that can be detected. Steganalysis methods of LSB replacement can be
roughly divided into four categories: structural detectors, Weighted Stego-image
(WS) detectors, statistical detectors, and universal classifiers. Typically, structural
detectors and WS detectors are quantitative detectors that provide an estimation of
secret message length while statistical detectors and universal classifiers attempt to
separate stego-images from cover-images based on changes in statistical properties
of cover-images due to message embedding. Below we briefly discuss each category
of detectors.
2.5.2.1 Structural Detectors
Structural detectors exploit all combinatorial measures of the artificial dependence
between sample differences and the parity structure of the LSB replacement in
order to estimate the secret message length. Some representatives in this category
are the Regular-Singular (RS) analysis [96], the Sample Pair Analysis (SPA) [97–
99], and the Triple/Quadruple analysis [100, 101]. The common framework is to
model effects of LSB replacement as a function of embedding rate R, invert these
effects to approximate cover-image properties from the stego-image, and find the
best candidate Rb to match cover assumptions.
Both RS and SPA methods rely on evaluating groups of spatially adjacent pixels.
The observations made in RS analysis were formally justified in SPA. For pedagogical
reasons, we discuss the SPA method. For the representation of the SPA method, we34 Chapter 2. Overview on Digital Image Forensics
E2k+1 O2k
E2k O2k−1
R
2
(1−
R
2
)
R
2
(1−
R
2
)
R
2
(1−
R
2
)
R
2
(1−
R
2
)
R
2
4
R
2
4
(1−
R
2
)
2
(1−
R
2
)
2
(1−
R
2
)
2
(1−
R
2
)
2
Figure 2.6: Diagram of transition probabilities between trace subsets under LSB
replacement.
use the extensible alternative notations in [95, 101]. Given an image Z, we define a
trace set Ck that collect all pairs of adjacent pixels (z2i
, z2i+1) as follows
Ck =
n
(2i, 2i + 1) ∈ I2
j
z2i
2
k
=
j
z2i+1
2
k
+ k
o
, (2.30)
where I is the set of pixel indices. Each trace set Ck is then partitioned into four
trace subsets, Ck = E2k ∪ E2k+1 ∪ O2k ∪ O2k−1, where Ek and Ck are defined by
Ek =
n
(2i, 2i + 1) ∈ I2
z2i = z2i+1 + k, z2i+1 is eveno
Ok =
n
(2i, 2i + 1) ∈ I2
z2i = z2i+1 + k, z2i+1 is oddo
.
(2.31)
We can observe that the LSB replacement technique never changes the trace set
Ck of a sample pair but can move sample pairs between trace subsets. Therefore,
we establish transition probabilities as functions of the embedding rate R, which is
shown in Figure 2.6. Thus we can derive the relation between trace subsets of a
stego-image and those of a cover-image
|Es
2k+1|
|Es
2k
|
|Os
2k
|
|Os
2k−1
|
=
1 −
R
2
2 R
2
1 −
R
2
R
2
1 −
R
2
R2
4
R
2
1 −
R
2
1
−
R
2
2 R2
4
R
2
1 −
R
2
R
2
1 −
R
2
R2
4
1 −
R
2
2 R
2
1 −
R
2
R2
4
R
2
1 −
R
2
R
2
1 −
R
2
1
−
R
2
2
|Ec
2k+1|
|Ec
2k
|
|Oc
2k
|
|Oc
2k−1
|
,
(2.32)
where E
c
k
and Oc
k
are trace subsets of the cover-image, and E
s
k
and Os
k
are trace
subsets of the stego-image. Here |S| denotes the cardinality of the set S. After
inverting the transition matrix and assuming that |Ec
2k+1| = |Oc
2k+1|, we obtain a
quadratic equation
0 = R
2
|Ck| − |Ck+1|
+ 4
|Es
2k+1| − |Os
2k+1|
+ 2R
|Es
2k+2| + |Os
2k+2| − 2|Es
2k+1| + 2|Os
2k+1| − |Es
2k
| − |Os
2k
|
. (2.33)2.5. Steganography and Steganalysis in Digital Images 35
The solution of Equation (2.33) is an estimator of the embedding rate R. The SPA
method was further improved by combining with Least Squares (LS) method [98]
and Maximum Likelihood [99], or generalizing from analysis of pairs to analysis of
k-tuples [100, 101].
2.5.2.2 WS Detectors
WS detectors were originally proposed by J. Fridrich in [102] and then improved
in [103, 104]. The key idea of WS is that the embedding rate can be estimated via
the weight that minimizes the distance between the weighted stego image and the
cover image [95]. The weighted stego-image with scalar parameter λ of the image
Z is defined by
∀i ∈ I, z
(λ)
i = (1 − λ)zi + λzi
, with zi = zi + (−1)zi
. (2.34)
The estimator Rb can be provided by minimizing the Euclidian distance between the
weighed stego-image and the cover image
Rb = 2 arg min
λ
X
N
i=1
wi
z
(λ)
i − ci
2
, (2.35)
where the normalized weight vector w with PN
i=1 wi = 1 is taken into account in
the minimization problem (2.35) to reflect the heterogeneity in a natural image. By
solving the root of the first derivative in (2.35), a simplified estimator is given as
Rb = 2X
N
i=1
wi(zi − zi)(zi − ci). (2.36)
Since the cover-pixels ci are unknown in advance, a local estimator for each pixel
from its spatial neighborhood can be employed, or more generally, a linear filter D,
to provide an estimate of cover-image: Cb = D(Z). The estimator Rb in (2.36) follows
immediately. From above observations, the choices of an appropriate linear filter
D and weight vector w are crucial for improvement of WS detectors’ performance
[95, 103, 104].
Both structural detectors and WS detectors are established into quantitative
steganalysis framework, which means that instead of indicating a suspect image Z
is either a cover-image or stego-image, the output of those detectors is a real-value
estimate of the secret message length. In other words, even no secret message is
embedded in the image, i.e. R = 0, we could still obtain a negative or positive value.
Nevertheless, quantitative detectors offer an additional advantage over statistical
detectors, namely that the detection performance can be measured by evaluating
the deviation of the estimator Rb from the true embedding rate R. Some criteria can
be used as measures of performance such as
• Mean Absolute Error (MAE):
1
Nim
X
Nim
n=1
|Rbn − R|, (2.37)36 Chapter 2. Overview on Digital Image Forensics
where Nim is number of images.
• Median Absolute Error (mAE):
mediann|Rbn − R|. (2.38)
2.5.2.3 Statistical Detectors
In contrast to structural detectors and WS detectors, statistical detectors rely on
changes in statistical properties due to message embedding to detect the presence
of the secret message. The output of statistical detectors is a binary decision. Some
representatives are χ
2 detector [105] and Bayesian approach-based detector [106].
Another interesting approach is the one proposed in [107] that is based on the
statistical hypothesis testing theory. To this end, two preliminary assumptions are
given in the following proposition:
Proposition 2.1. In the LSB replacement embedding technique, we assume that
1. The secret message bits are uniformly distributed over the cover-image, namely
that the probability of embedding a message bit into every cover-pixel is identique.
Moreover, message bits and cover pixels are statistically uncorrelated
[107].
2. Secret message bits are independent and identically distributed (i.i.d), and each
message bit mi is drawn from the Binomial distribution B(1,
1
2
)
P[mi = 0] = P[mi = 1] = 1
2
, (2.39)
where P[E] denotes the probability that an event E occurs.
Therefore, from the mechanism of LSB replacement, we can see that the probability
that the pixel does not change after embedding is 1 −
R
2
while the probability that its
LSB is flipped is R
2
P[si = ci
] = 1 −
R
2
and P[si = ci
] = R
2
. (2.40)
Let P0 be the probability distribution of cover-images. Due to message embedding
at rate R whose properties are given in Proposition 2.1, the cover image moves
from the probability distribution P0 to a different probability distribution, denoted
PR. Thus the steganalysis problem (2.29) can be rewritten as follows
(
H0 : Z ∼ P0
H1 : Z ∼ PR.
(2.41)
Based on the assumption that all pixels are independent and identically distributed,
the authors in [107] have developed two schemes depending on the knowledge of
the probability distribution P0. When the probability distribution P0 is not known,2.5. Steganography and Steganalysis in Digital Images 37
the authors study the asymptotically optimal detector (as the number of pixels
N → ∞) according to Hoeffding’s test [108]. When the probability distribution
P0 is known in advance, an optimal detector is given in the sense of NeymanPearson
[20, Theorem 3.2.1]. Although the statistical detector proposed in [107]
is interesting from theoretical point of view, its performance in practice is quite
moderate due to the fact that the cover model used in [107] is not sufficiently
accurate to describe a natural image. The assumption of independence between
pixels does not hold since the image structure and the non-stationarity of noises
during image acquisition process are not taken into account.
Some later works [109–114] rely on a simplistic local polynomial model in which
pixel’s expectations are different in order to design a statistical detector, providing
high detection performance compared with structural and WS ones. Far from assuming
that all the pixels are i.i.d as in [107], those works propose to model each
cover-pixel by the Gaussian distribution, ci ∼ N (µi
, σ2
i
), in order to design the
Likelihood Ratio Test (LRT) in which the Likelihood Ratio (LR) Λ can be given by
Λ(Z) ∝
X
i
1
σ
2
i
(zi − zi)(zi − µi). (2.42)
The LRT is the most powerful test in the sense of Neyman-Pearson approach [20,
Theorem 3.2.1] that can meet simultaneously two criteria of optimality: warranting a
prescribed false alarm probability and maximizing the correct detection probability.
Moreover, the specificity in this approach is to show that the WS detector [102–104]
is indeed a variant of the LRT, which justifies the good detection performance of
such ad hoc detector. Besides, hypothesis testing theory has been also extended to
other complex embedding algorithm, e.g. LSB matching [115, 116].
2.5.2.4 Universal Classifiers
Three previous families of detectors are targeted to a specific steganographic algorithm,
namely LSB replacement. In other words, these three families work on an
assumption that steganalysts know in advance the embedding algorithm used by the
steganographer. Such scenario may not be realistic in the practical context. Universal
classifiers are employed by steganalysts to work in a blind manner in order to
discriminate stego-images and cover-images. Even though universal classifiers have
lower performance than specific embedding-targeted detectors, they are still important
because of their flexibility and ability to be adjusted to completely unknown
steganographic methods.
Typically, universal classifiers can be divided into two types: supervised and
unsupervised. Supervised classification [45, 76, 117–120] has been already discussed
in Section 2.3. While supervised classification requires to know in advance the
label of each image (i.e. cover-image or stego-image) and then build a classifier
based on labeled images, unsupervised classification works in a scenario of unlabeled
images and classifies them automatically without user interference. The accuracy of
supervised classifiers is limited if the training data is not perfectly representative of38 Chapter 2. Overview on Digital Image Forensics
cover source, which may result in mismatch problem [121]. Unsupervised classifiers
try to overcome this problem of model mismatch by postponing building a cover
model until the classification stage. However, to the best of our knowledge, there
has not been yet a reliable method dealing with this scenario in steganalysis.
In universal steganalysis, the design of features is of crucial importance. Features
used for classification should be sensitive to changes caused by embedding, yet
insensitive to variations between covers including also some non-steganographic processing
techniques. In general, the choice of suitable features and machine learning
tools remains open problems [121].
2.5.3 Steganalysis of Jsteg Algorithm
Like steganalysis of LSB replacement in spatial domain, existing methods for steganalysis
of Jsteg algorithm can be also divided into four categories. Structural
detectors detect the presence of secret message by employing the symmetry of the
histogram of DCT coefficients in natural images, which is disturbed by the operation
of Jsteg embedding. Some representative structural detectors are Zhang
and Ping (ZP) detector [122], DCT coefficient-based detector [123], and category
attack [124, 125]. Furthermore, the power of structural detectors can be combined
with theoretically well-founded ML principle [99] or the concept of Zero Message Hypothesis
(ZMH) [96]. These two approaches have been formally analyzed in [126].
Similar to structural detectors for steganalysis of LSB replacement technique, the
ZHM framework starts by choosing a feature vector x of the cover-image (e.g. trace
subsets in case of SPA method), establishes the change in the feature vector x due to
embedding algorithm Emb, then inverts embedding effects to provide a hypothetical
feature vector ˆx
ˆx = Emb−1
(x
r
, r), (2.43)
where x
r
is the stego vector and r is the change rate defined as the ratio between
the number of modified DCT coefficients and the maximum number of usable coefficients,
thus r =
R
2
. Using cover assumptions and zero message properties (e.g.
natural symmetry of the histogram of DCT coefficients), an appropriate penalty
function zmh(x) ≥ 0 is defined so that it returns zero on cover features and nonzero
otherwise. Therefore, the change rate estimator rˆ is defined as the solution of
a minimization problem
rˆ = arg min
r≥0
zmh(ˆx) = arg min
r≥0
zmh(Emb−1
(x
r
, r)). (2.44)
The minimization in (2.44) can be performed either analytically or numerically by
implementing a one-dimensional gradient-descent search over r. The main interest
in [126] is that all features proposed in [104,122,124,125] have been revisited within
ZHM framework. The detector proposed in [123] has been also improved in [126]
within ML framework using a more accurate model of DCT coefficients, namely
Generalized Cauchy distribution. It can be noted that although ZMH is only a2.6. Conclusion 39
heuristic framework and less statistically rigorous than ML framework, it has some
important advantages in terms of low computational complexity and flexibility.
Although Jsteg algorithm replaces LSBs by secret message bits in DCT domain,
the mathematical foundation of WS detectors can be also applied for steganalysis
of Jsteg [127, 128]. Given a vector of AC coefficients D = {D1, D2, . . . , DN }, the
WS-like detector is given by
Rb ∝
X
i
wi(Di − Di)Di
. (2.45)
The difference between the WS detector in (2.36) and the one in (2.45) is that
the local predictor for cover AC coefficients is omitted since the expected value of
AC coefficients is zero in natural images. The weigh wi for each coefficient Di
is
estimated by taking the coefficients at the same location as Di but in four adjacent
blocks. More details were provided in [128].
The hypothesis testing theory was also applied to the steganalysis of Jsteg algorithm.
By relying the Laplacian model of DCT coefficients, a statistical test was
designed in [129]. However, a considerable loss of power was revealed due to the fact
that the Laplacian model is not accurate enough to characterize DCT coefficients.
2.6 Conclusion
This chapter discusses the emerging field of digital image forensics consisting of two
main problems: image origin identification and image forgery detection. To address
these problems, active forensic approach has been proposed by generating extrinsically
fingerprints and adding them into the digital image in the image formation
process, thus creates a trustworthy digital camera. However, active approach is of
limited application due to many strict contraints in its protocols. Therefore, passive
forensic approach has been considerably evolved to help solve these problems in their
entirety. This approach relies on intrinsic traces left by the digital cameras in the
image processing pipeline and by the manipulations themselves to gather forensic
evidence of image origin or forgery. Some intrinsic fingerprints for identification of
image source such as lens aberration, PRNU, CFA pattern and interpolation, and
JPEG compression are reviewed. The task of steganalysis that aims to detect the
mere presence of a secret message in a digital image is also discussed in this chapter.
The state of the art has shown that most of existing methods have been designed
within classification framework. Hypothesis testing framework is of limited
exploitation although this framework offers many advantages, namely that the statistical
performance of detectors can be analytically established and a prescribed
false alarm probability can be guaranteed. Besides, existing methods are designed
using simplistic image models, which results in overall poor detection performance.
This thesis focuses on applying the hypothesis testing theory in digital image forensics
based on an accurate image model, which is established by modeling the main
steps in the image processing pipeline. These aspects will be discussed in the rest
of the thesis.Chapter 3
Overview on Statistical Modeling
of Natural Images
Contents
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Spatial-Domain Image Model . . . . . . . . . . . . . . . . . . 41
3.2.1 Poisson-Gaussian and Heteroscedastic Noise Model . . . . . . 42
3.2.2 Non-Linear Signal-Dependent Noise Model . . . . . . . . . . 44
3.3 DCT Coefficient Model . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 First-Order Statistics of DCT Coefficients . . . . . . . . . . . 45
3.3.2 Higher-Order Statistics of DCT Coefficients . . . . . . . . . . 46
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1 Introduction
The application of hypothesis testing theory in digital image forensics requires an accurate
statistical image model to achieve high detection performance. For instance,
the PRNU-based image origin identification [30,32] takes into account various noise
sources during image acquisition inside a digital camera, which provides an image
model allowing to accurately extract the fingerprint for source identification. An
inaccurate image model will result in a poor detection performance, e.g. in case
of statistical detectors [107, 129]. Therefore in this chapter, the state of the art on
statistical modeling of natural images is reviewed. The statistical image modeling
can be performed either in spatial domain or DCT domain.
The chapter is organized as follows. Section 3.2 analyzes noise statistics in
spatial domain and presents some dominant image models widely used in image
processing. Section 3.3 discusses empirical statistical models of DCT coefficients.
Finally, Section 3.4 concludes the chapter.
3.2 Spatial-Domain Image Model
In this section, we adopt the representation of an arbitrary image Z as a column
vector of length N = Nr × Nc. The representation as a two-dimensional matrix is of42 Chapter 3. Overview on Statistical Modeling of Natural Images
no interest in the study of statistical noise properties. The index of color channel is
omitted for simplicity. Due to the stochastic nature of noise, a pixel is regarded as
a random variable. Generally, the random variable zi
, i ∈ I, can be decomposed as
zi = µzi + ηzi
, (3.1)
where I = {1, . . . , N} denotes the set of pixel indices, µzi denotes the expectation
of the pixel zi
in the absence of noise, and ηzi
accounts for all noise sources that
interfere with the original signal. By convention, µX and σ
2
X denote respectively
the expectation and variance of a random variable X. Here, the expectation µzi
is
considered deterministic and will not be modeled. However, the expectations differ
from each other due to heterogeneity in a natural image. From (3.1), it is easily
seen that the variance of noise ηzi
is equal to the variance of pixel zi
, i.e. σ
2
zi = σ
2
ηzi
.
Some models have been proposed in the literature for the noise ηzi
in an uncompressed
image. They can be classified into two groups: signal-independent
and signal-dependent noise models. While signal-independent noise models assume
the stationarity of noise in the whole image, regardless original pixel intensity,
signal-dependent noise models take into account the proportional dependence of
noise variance on the original pixel intensity. A typical example for the group of
signal-independent noise is the Additive White Gaussian Noise (AWGN). Besides,
signal-dependent noise includes Poisson noise or film-grain noise [130], PoissonGaussian
noise [131, 132], heteroscedastic noise model [133, 134], and non-linear
noise model [135]. Although the AWGN model is widely adopted in image processing
because of its simplicity, it ignores the contribution of Poisson noise to the
image acquisition chain, which is the case of an image acquired by a digital camera.
Noise sources in a natural image are inherently signal-dependent. Therefore,
a signal-dependent noise model is more expected to be employed in further applications.
Since our works mainly focus on signal-dependent noise, only the group of
signal-dependent noise models are discussed in this section.
3.2.1 Poisson-Gaussian and Heteroscedastic Noise Model
The study of noise statistics requires to take into account the impact of Poisson
noise related to the stochastic nature of photon-counting process and dark current
[131–134, 136]. Let ξi denote the number of collected electrons with respect to the
pixel zi
. The number of collected electrons ξi follows the Poisson distribution with
mean λi and variance λi
ξi ∼ P(λi). (3.2)
This Poisson noise results in the dependence of noise variance on original pixel
intensity. The number of collected electrons is further degraded by the AWGN
read-out noise ηr with variance ω
2
. Therefore, the RAW image pixel recorded by
the image sensor can be defined as [136]
zi = a ·
ξi + ηr
, (3.3)3.2. Spatial-Domain Image Model 43
where a is the analog gain controlled by the ISO sensitivity. This leads to the
statistical distribution of the RAW pixel zi
zi ∼ a ·
h
P(λi) + N (0, ω2
)
i
. (3.4)
This model is referred to as Poisson-Gaussian noise model [131,132]. One interesting
property of this model is the linear relation of pixel’s expectation and variance.
Taking mathematical expectation and variance from (3.4), we obtain
µzi = E[zi
] = a · λi
, (3.5)
σ
2
zi = Var[zi
] = a
2
· (λi + ω
2
), (3.6)
where E[X] and Var[X] denote respectively the mathematical expectation and variance
with respect to a random variable X. Consequently, the heteroscedastic relation
is derived as
σ
2
zi = a · µzi + b, (3.7)
where b = a
2ω
2
.
In some image sensors, the collected electrons ξi may be added by a base pedestal
parameter p0 to constitute an offset-from-zero of the output pixel [133]
zi ∼ a ·
h
p0 + P(λi − p0) + N (0, ω2
)
i
. (3.8)
Hence, the parameter b is now given by b = a
2ω
2 − a
2p0. Therefore, the parameter
b can be negative when p0 > ω2
.
To facilitate the application of this signal-dependent noise model, some works
[133, 134] have attempted to approximate the Poisson distribution by the Gaussian
distribution in virtue of a large number of collected electrons
P(λi) ≈ N (λi
, λi). (3.9)
In fact, for λi ≥ 50, the Gaussian approximation is already very accurate [133]
while full-well capacity is largely above 100000 electrons. Finally, the statistical
distribution of the RAW pixel zi can be approximated as
zi ∼ N
µzi
, a · µzi + b
. (3.10)
This model is referred to as heteroscedastic noise model in [134]. The term "heteroscedasticity"
means that each pixel exposes a different variability with the other.
Both Poisson-Gaussian and heteroscedastic noise models are more accurate to
characterize a RAW image than the conventional AWGN, but they do not take
into account yet non-linear post-acquisition operations. Therefore, they are not
appropriate for modeling a TIFF or JPEG image. Besides, it should be noted
that the Poisson-Gaussian and heteroscedastic noise model assume that the effect
of PRNU is negligible, namely that all the pixels respond to the incident light
uniformly. The very small variation in pixel’s response does not strongly affect its
statistical distribution [136].44 Chapter 3. Overview on Statistical Modeling of Natural Images
3.2.2 Non-Linear Signal-Dependent Noise Model
To establish a statistical model of a natural image in TIFF or JPEG format, it is
necessary to take into account effects of post-acquisition operations in the image
processing pipeline. However, as discussed in Section 2.2, the whole image processing
pipeline is not as simple. Some processing steps that are implemented in
a digital camera are difficult to model parametrically. One approach is to consider
the digital camera as a black box in which we attempt to establish a relation
between input irradiance and output intensity. This relation is called Camera Response
Function (CRF), which is described by a sophisticated non-linear function
fCRF(·) [137]. Gamma correction might be the simplest model for the CRF with
only one parameter. Other parametric models have been proposed for CRF such as
polynomial model [137] or generalized gamma curve model [138].
Therefore, the pixel zi can be formally defined as [135, 139]
zi = fCRF
Ei + ηEi
, (3.11)
where Ei denotes the image irradiance and ηEi
accounts for all signal-independent
and signal-dependent noise sources. We can note that although some methodologies
have been proposed for estimation of CRF [50, 137, 140], it is also difficult to study
noise statistics with those sophisticated models.
To facilitate the study of noise statistics, the authors in [135] exploit the first
order of Taylor’s series expansion
zi = fCRF
Ei + ηEi
≈ fCRF
Ei
+ f
0
CRF
Ei
ηEi
, (3.12)
where f
0
CRF denotes the first derivative of the CRF fCRF. Therefore, a relation
between noises before and after transformation by the CRF is obtained
ηzi = f
0
CRF
Ei
ηEi
. (3.13)
It can be noted that even when noise before transformation is independent of the
signal, the non-linear transformation fCRF generates a dependence between pixel’s
expectation and variance.
Based on experimental observations, the authors in [135] obtain a non-linear
parametric model
zi = µzi + µ
γ˜
zi
· ηu, (3.14)
where ηu is zero-mean stationary Gaussian noise, ηu ∼ N (0, σ2
ηu
), and γ˜ is an
exponential parameter to account for the non-linearity of the camera response. Here,
taking variance on the both sides of (3.14), we obtain
σ
2
zi = µ
2˜γ
zi
· Var[ηu] = µ
2˜γ
zi
· σ
2
ηu
. (3.15)
In this model, the pixel zi still follows the Gaussian distribution and the noise
variance σ
2
ηzi
is non-linearly dependent on the original pixel intensity µzi
zi ∼ N
µzi
, µ2˜γ
zi
· σ
2
ηu
. (3.16)
This model allows to represent several kinds of noise such as film-grain, Poisson
noise by changing the parameters γ˜ and σ
2
ηu
(e.g γ˜ = 0.5).3.3. DCT Coefficient Model 45
3.3 DCT Coefficient Model
3.3.1 First-Order Statistics of DCT Coefficients
Apart from modeling an image in the spatial domain, many researches attempt to
model it in the DCT domain since the DCT is a fundamental operation in JPEG
compression. The model of DCT coefficients has been considerably studied in the
literature. However, a majority of DCT coefficient models has just been proposed
without giving any mathematical foundation and analysis. Many researches focus
on comparing the empirical data with a variety of popular statistical models by
conducting the goodness-of-fit (GOF) test, e.g. the Kolmogorov-Smirnov (KS) or χ
2
test. Firstly, the Gaussian model for the DCT coefficients was conjectured in [141].
The Laplacian model was verified in [142] by performing the KS test. This Laplacian
model remains a dominant choice in image processing because of its simplicity and
relative accuracy. Other possible models such as Gaussian mixture [143] and Cauchy
[144] were also proposed. In order to model the DCT coefficients more accurately, the
previous models were extended to the generalized versions including the Generalized
Gaussian (GG) [145] and the Generalized Gamma (GΓ) [146] models. It has been
recently reported in [146] that the GΓ model outperforms the Laplacian and GG
model. Far from giving a mathematical foundation of DCT coefficient model, these
empirical models were only verified using GOF test on a few standard images. Thus,
they can not guarantee the accuracy of the chosen model to a wide range of images,
which leads to a lack of robustness.
The first mathematical analysis for DCT coefficients is given in [147]. It relies
on a doubly stochastic model combining DCT coefficient statistics in a block
whose variance is constant with the variability of block variance in a natural image.
However, this analysis is incomplete due to the lack of mathematical justification
for the block variance model. Nevertheless, it has shown an interest for further
improvements. Therefore, here we provide a discussion about this mathematical
foundation.
Let I denote AC coefficient and σ
2
blk denote block variance. The DC coefficient
is not addressed in this work [147]. The index of frequency is omitted for the sake
of clarity. Using the conditional probability, the doubly stochastic model is given
by
fI (x) = Z ∞
0
fI|σ
2
blk
(x|t)fσ
2
blk
(t)dt x ∈ R, (3.17)
where fX(x) denotes the probability density function (pdf) of a random variable
X. This doubly stochastic model can be considered as infinite mixture of Gaussian
distributions [148, 149]. From the establishment of DCT coefficients in (2.11), it is
noted that each DCT coefficient is a weighted sum of random variables. If the block
variance σ
2
blk is constant, the AC coefficient I can be approximated as a zero-mean
Gaussian random variable based on the Central Limit Theorem (CLT)
fI|σ
2
blk
(x|t) = 1
√
2πt
exp
−
x
2
2t
. (3.18)46 Chapter 3. Overview on Statistical Modeling of Natural Images
Even though the pixels are spatially correlated in a 8 × 8 block due to demosaicing
algorithms implemented in a digital camera, the CLT can still be used for Gaussian
approximation of a sum of correlated random variables [150]. It remains to find the
pdf of σ
2
blk to derive the final pdf of the AC coefficient I. To this end, it was reported
in [147] that from experimental observations, the block variance σ
2
blk can be modeled
by exponential or half-Gaussian distribution. These two distributions can lead to
the Laplacian distribution for the DCT coefficient I [147]. However, as stated above,
due to the fact that the pdf of block variance σ
2
blk is not mathematically justified,
this mathematical framework is incomplete.
3.3.2 Higher-Order Statistics of DCT Coefficients
The above discussion only considers the first-order statistics (i.e. histogram) of
DCT coefficients. The DCT coefficients at the same frequency are collected and
treated separately. An implicite assumption adopted in this procedure is that the
DCT coefficients at the same frequency are i.i.d realizations of a random variable.
However, this is not always true in a natural image because DCT coefficients exhibit
dependencies (or correlation) between them. There are two fundamental kinds of
correlation between DCT coefficients [151], which have been successfully exploited
in some applications [126, 151, 152]
1. intra-block correlation: A well-known feature of DCT coefficients in a natural
image is that the magnitudes of AC coefficients decrease as the frequency
increases along the zig-zag order. This correlation reflects the dependence
between DCT coefficients within a same 8×8 block. Typically, this correlation
is weak since coefficients at different frequencies correspond to different basis
functions.
2. inter-block correlation: Although the DCT base can provide a good decorrelation,
resulting coefficients are still correlated slightly with their neighbors at
the same frequency. We refer this kind of correlation as inter-block correlation.
In general, the correlation between DCT coefficients could be captured by adjacency
matrix [126].
3.4 Conclusion
This chapter reviews some statistical image models in spatial domain and DCT domain.
In spatial domain, two groups of signal-independent and signal-dependent
noise models are discussed. From above statistical analysis, we can draw an important
insight: noise in natural images is inherently signal-dependent. In DCT
domain, some empirical models of DCT coefficient are presented. However, most
of DCT coefficient models are given without mathematical justification. It is still
necessary to establish an accurate image model that can be exploited in further
applications.Part II
Statistical Modeling and
Estimation for Natural Images
from RAW Format to JPEG
FormatChapter 4
Statistical Image Modeling and
Estimation of Model Parameters
Contents
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Statistical Modeling of RAW Images . . . . . . . . . . . . . . 50
4.2.1 Heteroscedastic Noise Model . . . . . . . . . . . . . . . . . . 50
4.2.2 Estimation of Parameters (a, b) in the Heteroscedastic Noise
Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.2.1 WLS Estimation . . . . . . . . . . . . . . . . . . . . 53
4.2.2.2 Statistical Properties of WLS Estimates . . . . . . . 54
4.3 Statistical Modeling of TIFF Images . . . . . . . . . . . . . . 57
4.3.1 Generalized Noise Model . . . . . . . . . . . . . . . . . . . . . 57
4.3.2 Estimation of Parameters (˜a, ˜b) in the Generalized Noise Model 59
4.3.2.1 Edge Detection and Image Segmentation . . . . . . 59
4.3.2.2 Maximum Likelihood Estimation . . . . . . . . . . . 60
4.3.3 Application to Image Denoising . . . . . . . . . . . . . . . . . 61
4.3.4 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . 62
4.4 Statistical Modeling in DCT Domain . . . . . . . . . . . . . 65
4.4.1 Statistical Model of Quantized DCT Coefficients . . . . . . . 65
4.4.1.1 Statistical Model of Block Variance and Unquantized
DCT Coefficients . . . . . . . . . . . . . . . . . . . . 65
4.4.1.2 Impact of Quantization . . . . . . . . . . . . . . . . 68
4.4.2 Estimation of Parameters (α, β) from Unquantized DCT Coefficients
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4.3 Estimation of Parameters (α, β) from Quantized DCT Coeffi-
cients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.4.4 Numerical Experiments . . . . . . . . . . . . . . . . . . . . . 71
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7350
Chapter 4. Statistical Image Modeling and Estimation of Model
Parameters
4.1 Introduction
Chapter 3 has presented an overview on statistical modeling of natural images in
spatial domain and DCT domain. Most of existing models in the literature were
provided empirically. The goal of this chapter is to establish a mathematical framework
of studying statistical properties of natural images along image processing
pipeline of a digital camera. The study is performed in spatial domain and DCT
domain. In the spatial domain, the heteroscedastic noise model is firstly recalled,
and a method for estimating the parameters of the heteroscedastic noise model following
the Weighted Least Square (WLS) approach is proposed in Section 4.2. The
analytic establishment of WLS estimates allows us to study their statistical properties,
which is of importance for designing statistical tests. The WLS estimation of
parameters (a, b) has been presented in [134].
Next, Section 4.3 presents the study of noise statistics in a TIFF image by
starting from the heteroscedastic noise model and take into account the effect of
gamma correction, resulting in the generalized signal-dependent noise model. It is
shown that the generalized noise model is also relevent to characterize JPEG images
with moderate-to-high quality factors (Q ≥ 70). This section also proposes a method
that can estimate the parameters of the generalized noise model accurately from a
single image. Numerical results on a large image database show the relevance of the
proposed method. The generalized noise model could be useful in many applications.
A direct application for image denoising is proposed in this section. The foundation
of generalized noise model and estimation of model parameters have been presented
in [153].
Section 4.4 describes the mathematical framework of modeling the statistical
distribution of DCT coefficients. To simplify the study, the approach is based on
the main assumption that the pixels are identically distributed (not necessarily independent)
within a 8 × 8 block. Consequently, the statistical distribution of block
variance can be approximated, thus the model of unquantized DCT coefficients is
provided. Moreover, it is proposed to take into account the quantization operation
to provide a final model of quantized DCT coefficients. The parameters of DCT
coefficient model can be estimated following the ML approach. Numerical results
show that the proposed model outperforms other existing models including Laplacian,
GG, and GΓ model. Section 4.5 concludes the chapter. The foundation of
DCT coefficient model has been presented in [154].
4.2 Statistical Modeling of RAW Images
4.2.1 Heteroscedastic Noise Model
The RAW image acquisition has been discussed in Section 2.2.1. Let Z = (zi)i∈I
denote a RAW image acquired by the image sensor. Typically, the model of RAW
pixel consists of a Poissonian part that addresses the photon shot noise and dark
current and a Gaussian part for the remaining stationary disturbances, e.g. read-4.2. Statistical Modeling of RAW Images 51
estimated expectation: µˆk
estimated variance: ˆσ
2
k
0 0.05 0.1 0.15 0.2 0.25 0
0.4
0.8
1.2
1.6
2
×10−5
Nikon D70: Estimated data
Nikon D70: Fitted data
Nikon D200: Estimated data
Nikon D200: Fitted data
Figure 4.1: Scatter-plot of pixels’ expectation and variance from a natural RAW
image with ISO 200 captured by Nikon D70 and Nikon D200 cameras. The image
is segmented into homogeneous segments. In each segment, the expectation and
variance are calculated and the parameters (a, b) are estimated as proposed in Section
4.2.2. The dash line is drawn using the estimated parameters (a, b). Only the
red channel is used in this experiment.
out noise. For the sake of simplification, the Gaussian approximation of the Poisson
distribution can be exploited because of a large number of collected electrons, which
leads to the heteroscedastic noise model [133, 134]
zi ∼ N
µi
, aµi + b
, (4.1)
where µi denotes the expectation of the pixel zi
. The heteroscedastic noise model,
which gives the noise variance as a linear function of pixel’s expectation, characterizes
a RAW image more accurately than the conventional AWGN model. The
heteroscedastic noise model (4.1) is illustrated in Figure 4.1. It is assumed that the
noise corrupting each RAW pixel is statistically independent of those of neighbor
pixels [133, 136]. In this section it is assumed that the phenomenon of clipping is
absent from a natural RAW image for the sake of simplification, i.e. the probability
that one observation zi exceeds over the boundary 0 or B = 2ν−1 is negligible. More
details about the phenomenon of clipping are given in [133, 155] and in Chapter 8.
In practice, the PRNU weakly affects the parameter a in the heteroscedastic
noise model (4.1). Nevertheless, in the problem of camera model identification, the
PRNU is assumed to be negligible, i.e. the parameter a remains constant for every
pixel.52
Chapter 4. Statistical Image Modeling and Estimation of Model
Parameters
4.2.2 Estimation of Parameters (a, b) in the Heteroscedastic Noise
Model
Estimation of noise model parameters can be performed from a single image or
multiple images. From a practical point of view, we mainly focus on noise model
parameter estimation from a single image. Several methods have been proposed
in the literature for estimation of signal-dependent noise model parameters, see
[133–135, 139, 156]. They rely on similar basic steps but differ in details. The
common methodology starts from obtaining local estimates of noise variance and
image content, then performing the curve fitting to the scatter-plot based on the
prior knowledge of noise model. The existing methods involve two main difficulties:
influence of image content and spatial correlation of noise in a natural image. In
fact, homogeneous regions where local expectations and variances are estimated
are obtained by performing edge detection and image segmentation. However, the
accuracy of those local estimates may be contaminated due to the presence of outliers
(textures, details and edges) in the homogeneous regions. Moreover, because of
the spatial correlation between pixels, the local estimates of noise variance can be
overestimated. Overall, the two difficulties may result in inaccurate estimation of
noise parameters.
For the design of subsequent tests, the parameters (a, b) should be estimated
following the ML approach and statistical properties of ML estimates should be
analytically established. One interesting method is proposed in [133] for ML estimation
of parameters (a, b). However, that method can not provide an analytic
expression of ML estimates due to the difficulty of resolving the complicated system
of partial derivatives. Therefore, ML estimates are only numerically solved by
using the Nelder-Mead optimization method [157]. Although ML estimates given
by that method are relatively accurate, they involve three main drawbacks. First,
the convergence of the maximization process and the sensitivity of the solution to
initial conditions have not been analyzed yet. Second, the Bayesian approach used
in [133] with a fixed uniform distribution might be doubtful in practice. Finally, it
seems impossible to establish statistical properties of the estimates.
This section proposes a method for estimation of parameters (a, b) from a single
image. The proposed method relies on the same technique of image segmentation
used in [133] in order to obtain local estimates in homogeneous regions. Subsequently,
the proposed method is based on the WLS approach to take into account
heteroscedasticity and statistical properties of local estimates. One important advantage
is that WLS estimates can be analytically provided, which allows us to
study statistical properties of WLS estimates. Moreover, the WLS estimates are
asymptotically equivalent to the ML estimates in large samples when the weights
are consistently estimated, as explained in [158, 159].4.2. Statistical Modeling of RAW Images 53
4.2.2.1 WLS Estimation
The RAW image Z is first transformed into the wavelet domain and then segmented
into K non-overlapping homogeneous segments, denoted Sk, of size nk,
k ∈ {1, . . . , K}. The readers are referred to [133] for more details of segmentation
technique. In each segment Sk, pixels are assumed to be i.i.d, thus they
have the same expectation and variance. Let z
wapp
k = (z
wapp
k,i )i∈{1,...,nk} and
z
wdet
k = (z
wdet
k,i )i∈{1,...,nk} be respectively the vector of wavelet approximation coefficients
and wavelet detail coefficients representing the segment Sk. Because the
transformation is linear, the coefficients z
wapp
k,i and z
wdet
k,i also follow the Gaussian
distribution
z
wapp
k,i ∼ N
µk, kϕk
2
2 σ
2
k
, (4.2)
z
wdet
k,i ∼ N
0, σ2
k
, (4.3)
where µk denotes expectation of all pixels in the segment Sk, σ
2
k = aµk + b, and ϕ
is the 2-D normalized wavelet scaling function. Hence, the ML estimates of local
expectation µk and local variance σ
2
k
are given by
µˆk =
1
nk
Xnk
i=1
z
wapp
k,i , (4.4)
σˆ
2
k =
1
nk − 1
Xnk
i=1
z
wdet
k,i − z
wdet
k
2
, with z
wdet
k =
1
nk
Xnk
i=1
z
wdet
k,i . (4.5)
The estimate µˆk is unbiased and follows the Gaussian distribution
µˆk ∼ N
µk,
kϕk
2
2
nk
σ
2
k
, (4.6)
while the estimate σˆ
2
k
follows a scaled chi-square distribution with nk − 1 degrees
of freedom. This distribution can also be accurately approximated as the Gaussian
distribution for large nk [160]:
σˆ
2
k ∼ N
σ
2
k
,
2
nk − 1
σ
4
k
, (4.7)
Figure 4.1 illustrates a scatter-plot of all the pairs {(ˆµk, σˆ
2
k
)} extracted from real
natural RAW images of Nikon D70 and Nikon D200 cameras.
The parameters (a, b) are estimated by considering all the pairs {(ˆµk, σˆ
2
k
)}
K
k=1
where the local variance σˆ
2
k
is treated as a heteroscedastic model of the local expectation
µˆk. This model is formulated as follows
σˆ
2
k = aµˆk + b + skk, (4.8)
where k are independent and identically distributed as standard Gaussian variable
and sk is a function of local mean µk. A direct calculation from (4.8) shows that
s
2
k = Var
σˆ
2
k
− Var
aµˆk + b
=
2
nk − 1
σ
4
k − a
2
kϕk
2
2
nk
σ
2
k =
2
nk − 1
(aµk + b)
2 − a
2
kϕk
2
2
nk
(aµk + b). (4.9)
Inférence d’invariants pour le model checking de
systèmes paramétrés
Alain Mebsout
To cite this version:
Alain Mebsout. Inf´erence d’invariants pour le model checking de syst`emes param´etr´es. Other.
Universit´e Paris Sud - Paris XI, 2014. French. .
HAL Id: tel-01073980
https://tel.archives-ouvertes.fr/tel-01073980
Submitted on 11 Oct 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Université Paris-Sud
École Doctorale d’Informatiqe
Laboratoire de Recherche en Informatiqe
Discipline : Informatiqe
Thèse de doctorat
soutenue le 29 septembre 2014
par
Alain Mebsout
Inférence d’Invariants pour le Model
Checking de Systèmes Paramétrés
Directeur de thèse : M. Sylvain Conchon Professeur (Université Paris-Sud)
Co-encadrante : Mme Fatiha Zaïdi Maître de conférences (Université Paris-Sud)
Composition du jury :
Président du jury : M. Philippe Dague Professeur (Université Paris-Sud)
Rapporteurs : M. Ahmed Bouajjani Professeur (Université Paris Diderot)
M. Silvio Ranise Chercheur (Fondazione Bruno Kessler)
Examinateurs : M. Rémi Delmas Ingénieur de recherche (ONERA)
M. Alan Schmitt Chargé de recherche (Inria Rennes)À Magali.Résumé
Cette thèse aborde le problème de la vérication automatique de systèmes paramétrés
complexes. Cette approche est importante car elle permet de garantir certaines propriétés
sans connaître a priori le nombre de composants du système. On s’intéresse en particulier
à la sûreté de ces systèmes et on traite le côté paramétré du problème avec des méthodes
symboliques. Ces travaux s’inscrivent dans le cadre théorique du model checking modulo
théories et ont donné lieu à un nouveau model checker : Cubicle.
Une des contributions principale de cette thèse est une nouvelle technique pour inférer
des invariants de manière automatique. Le processus de génération d’invariants est intégré
à l’algorithme de model checking et permet de vérier en pratique des systèmes hors de
portée des approches symboliques traditionnelles. Une des applications principales de cet
algorithme est l’analyse de sûreté paramétrée de protocoles de cohérence de cache de taille
industrielle.
Enn, pour répondre au problème de la conance placée dans le model checker, on
présente deux techniques de certication de notre outil Cubicle utilisant la plate-forme
Why3. La première consiste à générer des certicats dont la validité est évaluée de manière
indépendante tandis que la seconde est une approche par vérication déductive du cœur
de Cubicle.
Abstract
This thesis tackles the problem of automatically verifying complex parameterized systems.
This approach is important because it can guarantee that some properties hold
without knowing a priori the number of components in the system. We focus in particular
on the safety of such systems and we handle the parameterized aspect with symbolic
methods. This work is set in the theoretical framework of the model checking modulo
theories and resulted in a new model checker: Cubicle.
One of the main contribution of this thesis is a novel technique for automatically inferring
invariants. The process of invariant generation is integrated with the model checking
algorithm and allows the verication in practice of systems which are out of reach for
traditional symbolic approaches. One successful application of this algorithm is the safety
analysis of industrial size parameterized cache coherence protocols.
Finally, to address the problem of trusting the answer given by the model checker, we
present two techniques for certifying our tool Cubicle based on the framework Why3. The
rst consists in producing certicates whose validity can be assessed independently while
the second is an approach by deductive verication of the heart of Cubicle.
vRemerciements
Mes remerciements vont en tout premier lieu à mes encadrants de thèse, qui m’ont accompagné
tout au long de ces années. Ils ont su orienter mes recherches tout en m’accordant
une liberté et une autonomie très appréciables. Les discussions aussi bien professionnelles
que personnelles ont été très enrichissantes et leur bonne humeur a contribué à faire de ces
trois (et cinq) années un plaisir. Merci à Fatiha pour sa disponibilité et son soutien. Je tiens
particulièrement à remercier Sylvain d’avoir cru en moi et pour son optimisme constant. Il
m’apparaît aujourd’hui que cette dernière qualité est essentielle à tout bon chercheur et
j’espère en avoir tiré les enseignements.
Merci également à mes rapporteurs, Ahmed Bouajjani et Silvio Ranise, d’avoir accepté
de relire une version préliminaire de ce document et pour leurs corrections et remarques
pertinentes. Je remercie aussi les autres examinateurs, Philippe Dague, Rémi Delmas et
Alan Schmitt, d’avoir accepté de faire partie de mon jury.
Le bon déroulement de cette thèse doit aussi beaucoup aux membres de l’équipe VALS
(anciennement Proval puis Toccata). Ils ont su maintenir une ambiance chaleureuse et
amicale tout au long des divers changements de noms, déménagements et remaniements
politiques. Les galettes des rois, les gâteaux, les paris footballistiques, et les discussions
du coin café resteront sans aucun doute gravés dans ma mémoire. Pour tout cela je les en
remercie.
Je tiens à remercier tout particulièrement Mohamed pour avoir partagé un bureau avec
moi pendant près de cinq années. J’espère avoir été un aussi bon co-bureau qu’il l’a été, en
tout cas les collaborations et les discussions autour d’Alt-Ergo furent très fructueuses. Merci
également à Régine pour son aide dans la vie de doctorant d’un laboratoire de recherche et
pour sa capacité à transformer la plus intimidante des procédures administratives en une
simple tâche.
Merci à Jean-Christophe, Guillaume, François, Andrei, Évelyne et Romain pour leurs
nombreux conseils et aides techniques. Merci aussi à Sava Krstic et Amit Goel d’Intel pour `
leur coopération scientique autour de Cubicle.
Enn un grand merci à toute ma famille pour leur soutien moral tout au long de ma
thèse. Je souhaite remercier en particulier mes parents qui ont cru en moi et m’ont soutenu
dans mes choix. Merci également à mes sœurs pour leurs nombreux encouragements. Pour
nir je tiens à remercier ma moitié, Magali, pour son soutien sans faille et pour son aide.
Rien de ceci n’aurait été possible dans elle.
viiTable des matières
Table des matières 1
Table des figures 5
Liste des Algorithmes 7
1 Introduction 9
1.1 Model checking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.1 Systèmes nis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Systèmes innis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Model checking de systèmes paramétrés . . . . . . . . . . . . . . . . . . . 14
1.2.1 Méthodes incomplètes . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Fragments décidables . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Plan de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Le model checker Cubicle 19
2.1 Langage d’entrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.1 Algorithme d’exclusion mutuelle . . . . . . . . . . . . . . . . . . . 23
2.2.2 Généralisation de l’algorithme de Dekker . . . . . . . . . . . . . . 25
2.2.3 Boulangerie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.4 Cohérence de Cache . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Non-atomicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Logique multi-sortée et systèmes à tableaux . . . . . . . . . . . . . . . . . 36
2.4.1 Syntaxe des formules logiques . . . . . . . . . . . . . . . . . . . . . 37
2.4.2 Sémantique de la logique . . . . . . . . . . . . . . . . . . . . . . . . 39
2.4.3 Systèmes de transition à tableaux . . . . . . . . . . . . . . . . . . . 41
2.5 Sémantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5.1 Sémantique opérationnelle . . . . . . . . . . . . . . . . . . . . . . . 44
2.5.2 Atteignabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.3 Un interpréteur de systèmes à tableaux . . . . . . . . . . . . . . . . 47
1TABLE DES MATIÈRES
3 Cadre théorique : model checking modulo théories 49
3.1 Analyse de sûreté des systèmes à tableaux . . . . . . . . . . . . . . . . . . 50
3.1.1 Atteignabilité par chaînage arrière . . . . . . . . . . . . . . . . . . 50
3.1.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.3 Eectivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Terminaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1 Indécidabilité de l’atteignabilité . . . . . . . . . . . . . . . . . . . . 57
3.2.2 Conditions pour la terminaison . . . . . . . . . . . . . . . . . . . . 59
3.2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3 Gardes universelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3.1 Travaux connexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3.2 Calcul de pré-image approximé . . . . . . . . . . . . . . . . . . . . 69
3.3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3.4 Relation avec le modèle de panne franche et la relativisation des
quanticateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4.1 Exemples sans existence d’un bel ordre . . . . . . . . . . . . . . . . 74
3.4.2 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4 Optimisations et implémentation 79
4.1 Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2 Optimisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.1 Appels au solveur SMT . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.2 Tests ensemblistes . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.3 Instantiation ecace . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3 Suppressions a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4 Sous-typage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.5 Exploration parallèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.6 Résultats et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5 Inférence d’invariants 105
5.1 Atteignabilité approximée avec retour en arrière . . . . . . . . . . . . . . . 107
5.1.1 Illustration sur un exemple . . . . . . . . . . . . . . . . . . . . . . 107
5.1.2 Algorithme abstrait . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.1.3 Algorithme complet pour les systèmes à tableaux . . . . . . . . . . 113
5.2 Heuristiques et détails d’implémentation . . . . . . . . . . . . . . . . . . . 117
5.2.1 Oracle : exploration avant bornée . . . . . . . . . . . . . . . . . . . 117
5.2.2 Extraction des candidats invariants . . . . . . . . . . . . . . . . . . 119
5.2.3 Retour en arrière . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
2TABLE DES MATIÈRES
5.2.4 Invariants numériques . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.2.5 Implémentation dans Cubicle . . . . . . . . . . . . . . . . . . . . . 124
5.3 Évaluation expérimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.4 Étude de cas : Le protocole FLASH . . . . . . . . . . . . . . . . . . . . . . . 130
5.4.1 Description du protocole FLASH . . . . . . . . . . . . . . . . . . . 131
5.4.2 Vérication du FLASH : État de l’art . . . . . . . . . . . . . . . . . 133
5.4.3 Modélisation dans Cubicle . . . . . . . . . . . . . . . . . . . . . . . 135
5.4.4 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
5.5 Travaux connexes sur les invariants . . . . . . . . . . . . . . . . . . . . . . 139
5.5.1 Génération d’invariants . . . . . . . . . . . . . . . . . . . . . . . . 139
5.5.2 Cutos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.5.3 Abstraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6 Certification 145
6.1 Techniques de certication d’outils de vérication . . . . . . . . . . . . . . 145
6.2 La plateforme de vérication déductive Why3 . . . . . . . . . . . . . . . . 147
6.3 Production de certicats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.3.1 Invariants inductifs pour l’atteignabilité arrière . . . . . . . . . . . 147
6.3.2 Invariants inductifs et BRAB . . . . . . . . . . . . . . . . . . . . . . 152
6.4 Preuve dans Why3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
6.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
7 Conclusion et perspectives 161
7.1 Résumé des contributions et conclusion . . . . . . . . . . . . . . . . . . . . 161
7.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
A Syntaxe et typage des programmes Cubicle 165
A.1 Syntaxe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
A.2 Typage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Bibliographie 173
Index 187
3Table des figures
2.1 Algorithme d’exclusion mutuelle . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Code Cubicle du mutex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3 Graphe de Dekker pour le processus i . . . . . . . . . . . . . . . . . . . . . 26
2.4 Code Cubicle de l’algorithme de Dekker . . . . . . . . . . . . . . . . . . . . 27
2.5 Code Cubicle de l’algorithme de la boulangerie de Lamport . . . . . . . . . 29
2.6 Diagramme d’état du protocole German-esque . . . . . . . . . . . . . . . . 31
2.7 Code Cubicle du protocole de cohérence de cache German-esque . . . . . . 32
2.8 Évaluation non atomique des conditions globales par un processus i . . . . 34
2.9 Encodage de l’évaluation non atomique de la condition globale ∀j , i. c(j) 35
2.10 Grammaire de la logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1 Machine de Minsky à deux compteurs . . . . . . . . . . . . . . . . . . . . 58
3.2 Traduction d’un programme et d’une machine de Minsky dans un système
à tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3 Dénition des congurations M et N . . . . . . . . . . . . . . . . . . . . . 61
3.4 Plongement de M vers N . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5 Séquence nie d’idéaux inclus calculée par l’algorithme 4 . . . . . . . . . . 64
3.6 Trace fallacieuse pour un système avec gardes universelles . . . . . . . . . 71
3.7 Transformation avec modèle de panne franche . . . . . . . . . . . . . . . . 72
3.8 Trace fallacieuse pour la transformation avec modèle de panne franche . . 73
3.9 Relations entre les diérentes approches pour les gardes universelles . . . 74
3.10 Séquence innie de congurations non comparables pour l’encodage des
machines de Minksy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.11 Séquence innie de congurations non comparables pour une relation
binaire quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.12 Diérences de restrictions entre la théorie du model checking modulo
théories et Cubicle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.1 Architecture de Cubicle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Benchmarks et statistiques pour une implémentation naïve . . . . . . . . . 83
4.3 Arbre préxe représentant V . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4 Benchmarks pour tests ensemblistes . . . . . . . . . . . . . . . . . . . . . . 87
5TABLE DES FIGURES
4.5 Benchmarks pour l’instantiation ecace . . . . . . . . . . . . . . . . . . . 91
4.6 Graphes d’atteignabilité arrière pour diérentes stratégies d’exploration
sur l’exemple Dijkstra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.7 Suppression a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.8 Préservation de l’invariant après suppression d’un nœud . . . . . . . . . . 95
4.9 Benchmarks pour la suppression a posteriori . . . . . . . . . . . . . . . . . 95
4.10 Système Cubicle annoté avec les contraintes de sous-typage . . . . . . . . 97
4.11 Benchmarks pour l’analyse de sous-typage . . . . . . . . . . . . . . . . . . 98
4.12 Une mauvaise synchronisation des tests de subsomption eectués en parallèle 100
4.13 Utilisation CPU pour les versions séquentielle et parallèle de Cubicle . . . 101
4.14 Benchmarks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1 Système de transition à tabeaux du protocole German-esque . . . . . . . . 108
5.2 Exécution partielle de BRAB sur le protocole German-esque . . . . . . . . 110
5.3 Transition sur un état avec variable non-initialisée . . . . . . . . . . . . . . 119
5.4 Apprentissage à partir d’une exploration supplémentaire avant redémarrage 122
5.5 Architecture de Cubicle avec BRAB . . . . . . . . . . . . . . . . . . . . . . 125
5.6 Résultats de BRAB sur un ensemble de benchmarks . . . . . . . . . . . . . 128
5.7 Architecture FLASH d’une machine et d’un nœud . . . . . . . . . . . . . . 130
5.8 Structure d’un message dans le protocole FLASH . . . . . . . . . . . . . . . 132
5.9 Description des transitions du protocole FLASH . . . . . . . . . . . . . . . 134
5.10 Résultats pour la vérication du protocole FLASH avec Cubicle . . . . . . 138
5.11 Protocoles de cohérence de cache hiérarchiques . . . . . . . . . . . . . . . 143
6.1 Invariants inductifs calculés par des analyses d’atteignabilité avant et arrière 148
6.2 Vérication du certicat Why3 de German-esque par diérents prouveurs
automatiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.3 Invariant inductif calculé par BRAB . . . . . . . . . . . . . . . . . . . . . . 154
6.4 Vérication par diérents prouveurs automatiques du certicat (Why3) de
German-esque généré par BRAB . . . . . . . . . . . . . . . . . . . . . . . . 154
6.5 Vérication de certicats sur un ensemble de benchmarks . . . . . . . . . 155
6.6 Informations sur le développent Why3 . . . . . . . . . . . . . . . . . . . . 158
6.7 Aperçu d’une technique d’extraction . . . . . . . . . . . . . . . . . . . . . 159
A.1 Grammaire des chiers Cubicle . . . . . . . . . . . . . . . . . . . . . . . . 167
A.2 Règles de typage des termes . . . . . . . . . . . . . . . . . . . . . . . . . . 169
A.3 Règles de typage des formules . . . . . . . . . . . . . . . . . . . . . . . . . 170
A.4 Règles de typage des actions des transitions . . . . . . . . . . . . . . . . . 170
A.5 Vérication de la bonne formation des types . . . . . . . . . . . . . . . . . 171
A.6 Règles de typage des déclarations . . . . . . . . . . . . . . . . . . . . . . . 171
6Liste des Algorithmes
1 Code de Dekker pour le processus i . . . . . . . . . . . . . . . . . . . . . . . 26
2 Pseudo-code de la boulangerie de Lamport pour le processus i . . . . . . . . 29
3 Interpréteur d’un système à tableaux . . . . . . . . . . . . . . . . . . . . . . 47
4 Analyse d’atteignabilité par chaînage arrière . . . . . . . . . . . . . . . . . . 53
5 Test de satisabilité naïf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6 Analyse d’atteignabilité abstraite avec approximations et retour en arrière
(BRAB) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7 Analyse d’atteignabilité avec approximations et retour en arrière (BRAB) . . 115
8 Oracle : Exploration avant limitée en profondeur . . . . . . . . . . . . . . . 116
71
Introduction
Sommaire
1.1 Model checking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.1 Systèmes nis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Systèmes innis . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Model checking de systèmes paramétrés . . . . . . . . . . . . . . . 14
1.2.1 Méthodes incomplètes . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Fragments décidables . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Plan de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Les systèmes informatiques sont aujourd’hui omniprésents, aussi bien dans les objets
anodins de la vie courante que dans les systèmes critiques comme les contrôleurs automatiques
utilisés par l’industrie aéronautique. Tous ces systèmes sont généralement très
complexes, il est donc particulièrement dicile d’en construire qui ne comportent pas
d’erreurs. On peut notamment constater le succès récent des architectures multi-cœurs,
multi-processeurs et distribuées pour les serveurs haut de gamme mais aussi pour les
terminaux mobiles personnels. Un des composants les plus complexes de telles machines
est leur protocole de cohérence de cache. En vaut pour preuve le célèbre dicton :
« Il y a seulement deux choses compliquées en informatique : l’invalidation des
caches et nommer les choses. »
— Phil Karlton
En eet pour fonctionner de manière optimale chaque composant qui partage la mémoire
(processeur, cœur, etc.) possède son propre cache (une zone mémoire temporaire) lui
permettant de conserver les données auxquelles il a récemment accédé. Le protocole en
question assure que tous les caches du système se trouvent dans un état cohérent, ce qui en
9Chapitre 1 Introduction
fait un élément vital. Les méthodes les plus courantes pour garantir la qualité des systèmes
informatiques sont le test et la simulation. Cependant, ces techniques sont très peu adaptées
aux programmes concurrents comme les protocoles de cohérence de cache.
Pour garantir une ecacité optimale, ces protocoles sont souvent implantés au niveau
matériel et fonctionnent par échanges de messages, de manière entièrement asynchrone.
Le moment auquel un message arrivera ou un processeur accédera à la mémoire centrale
est donc totalement imprévisible [36]. Pour concevoir de tels systèmes on doit alors
considérer de nombreuses « courses critiques » (ou race conditions en anglais), c’est-à-dire
des comportements qui dépendent de l’ordre d’exécution ou d’arrivée des messages. Ces
scénarios sont par ailleurs très compliqués, faisant intervenir plusieurs dizaines d’échanges
de messages. Ainsi, la rareté de leurs apparitions fait qu’il est très dicile de reproduire
ces comportements par des méthodes de test et de simulation.
Une réponse à ce problème est l’utilisation de méthodes formelles pouvant garantir
certaines propriétés d’un système par des arguments mathématiques. De nombreuses
techniques revendiquent leur appartenance à cette catégorie, comme le model checking,
qui s’attache à considérer tous les comportements possibles d’un système an d’en vérier
diérentes propriétés.
1.1 Model checking
La technique du model checking a été inventée pour résoudre le problème dicile de la
vérication de programmes concurrents. Avant 1982, les recherches sur ce sujet intégraient
systématiquement l’emploi de la preuve manuelle [131]. Pnueli [137], Owicki et Lamport
[132] proposèrent, vers la n des années 70, l’usage de la logique temporelle pour spécier
des propriétés parmi lesquelles :
— la sûreté : un mauvais comportement ne se produit jamais, ou
— la vivacité : un comportement attendu nira par arriver.
Le terme model dans l’expression « model checking » peut faire référence à deux choses.
Le premier sens du terme renvoie à l’idée qu’on va représenter un programme par un
modèle abstrait. Appelons ce modèle M. Le deuxième sens du terme fait référence au fait
qu’on va ensuite essayer de vérier des propriétés de M, autrement dit que M est un modèle
de ces propriétés. Le model checking implique donc de dénir « simplement » ce qu’est (1)
un modèle, et (2) une propriété d’un modèle.
1. Un modèle doit répondre aux trois questions suivantes :
a) À tout instant, qu’est-ce qui caractérise l’état d’un programme ?
b) Quel est l’état initial du système ?
c) Comment passe-t-on d’un état à un autre ?
101.1 Model checking
2. Les propriétés qu’on cherche à vérier sont diverses : Est-ce qu’un mauvais état peut
être atteint (à partir de l’état inital) ? Est-ce qu’un certain état sera atteint quoiqu’il
advienne ? Plus généralement, on souhaite vérier des propriétés qui dépendent de
la manière dont le programme (ou le modèle) évolue. On exprime alors ces formules
dans des logiques temporelles.
1.1.1 Systèmes finis
Les travaux fondateurs de Clarke et Emerson [38] et de Queille et Sifakis [140] intègrent
cette notion de logique temporelle à l’exploration de l’ensemble des états du système
(espace d’état). Dans leur article de 1981 [38], Clarke et Emerson montrent comment
synthétiser des programmes à partir de spécications dans une logique temporelle (appelée
CTL, pour Computational Tree Logic). Mais c’est surtout la seconde partie de l’article qui
a retenu l’attention de la communauté. Dans celle-ci, ils construisent une procédure de
décision fondée sur des calculs de points-xes pour vérier des propriétés temporelles de
programmes nis.
L’avantage principal du model checking par rapport aux autres techniques de preuve
est double. C’est d’abord un processus automatique et rapide, de sorte qu’il est souvent
considéré comme une technique « presse-bouton ». C’est aussi une méthode qui fonctionne
déjà avec des spécications partielles. De cette façon, l’eort de vérication peut être commencé
tôt dans le processus de conception d’un système complexe. Un de ses désavantages,
qui est aussi inhérent à toutes les autres techniques de vérication, est que la rédaction des
spécications est une tâche dicile qui requiert de l’expertise. Mais l’inconvénient majeur
du model checking est apparu dans les années 80, et est connu sous le nom du phénomène
d’explosion combinatoire de l’espace d’états. Seuls les systèmes avec un nombre petit d’états
(de l’ordre du million) pouvaient être analysés à cette époque, alors que les systèmes réels
en possèdent beaucoup plus. Par conséquent, un important corpus de recherche sur le
model checking aborde le problème du passage à l’échelle.
Une avancée notoire pour le model checking a été l’introduction de techniques symboliques
pour résoudre ce problème d’explosion. Alors que la plupart des approches avant
1990 utilisaient des représentations explicites, où chaque état individuel est stocké en
mémoire, Burch et al. ont montré qu’il était possible de représenter de manière symbolique
et compacte des ensembles d’états [29]. McMillan reporte dans sa thèse [116] une représentation
de la relation des états de transition avec BDD [27] (diagrammes de décision binaire)
puis donne un nombre d’algorithmes basés sur des graphes dans le langage du µ-calcul.
L’utilisation de structures de données compactes pour représenter de larges ensembles
d’états permet de saisir certaines des régularités qui apparaissent naturellement dans les
circuits ou autres systèmes. La complexité en espace du model checking symbolique a
été grandement diminuée et, pour la première fois, des systèmes avec 1020 états ont été
vériés. Cette limite a encore été repoussée avec divers ranements du model checking
11Chapitre 1 Introduction
symbolique.
Le point faible des techniques symboliques utilisant des BDD est que la quantité d’espace
mémoire requise pour stocker ces structures peut augmenter de façon exponentielle. Biere
et al. décrivent une technique appelée le model checking borné (ou BMC pour Bounded Model
Checking) qui sacrie la correction au prot d’une recherche d’anomalies ecace [19].
L’idée du BMC est de chercher les contre-exemples parmi les exécutions du programme
dont la taille est limitée à un certain nombre d’étapes k. Ce problème peut être encodé
ecacement en une formule propositionnelle dont la statisabilité mène directement à
un contre-exemple. Si aucune erreur n’est trouvée pour des traces de longueur inférieure
à k, alors la valeur de la borne k est augmentée jusqu’à ce qu’une erreur soit trouvée,
ou que le problème devienne trop dicile à résoudre 1
. La force de cette technique vient
principalement de la mise à prot des progrès fait par les solveurs SAT (pour la satisabilité
booléenne) modernes. Elle a rencontré un succès majeur dans la vérication d’implémentations
de circuits matériels et fait aujourd’hui partie de l’attirail standard des concepteurs
de tels circuits. Comme l’encodage vers des contraintes propositionnelles capture la sé-
mantique des circuits de manière précise, ces model checkers ont permis de découvrir
des erreurs subtiles d’implémentation, dues par exemple à la présence de débordements
arithmétiques.
Une extension de cette technique pour la preuve de propriétés, plutôt que la seule
recherche de bogues, consiste à ajouter une étape d’induction. Cette extension de BMC
s’appelle la k-induction et dière d’un schéma d’induction classique par le point suivant :
lorsqu’on demande à vérier que la propriété d’induction est préservée, on suppose qu’elle
est vraie dans les k étapes précédentes plutôt que seulement dans l’étape précédente [52,
151].
Une autre vision du model checking est centrée sur la théorie des automates. Dans
ces approches, spécications et implémentations sont toutes deux construites avec des
automates. Vardi et Wolper notent une correspondance entre la logique temporelle et les
automates de Büchi [164] : chaque formule de logique temporelle peut être considérée
comme un automate à états ni (sur des mots innis) qui accepte précisément les séquences
satisfaites par la formule. Grâce à cette connexion, ils réduisent le problème du model
checking à un test de vacuité de l’automate AM ∩A¬φ (où AM est l’automate du programme
M et A¬φ est l’automate acceptant les séquences qui violent la propriété φ) [161].
1.1.2 Systèmes infinis
Le problème d’explosion combinatoire est encore plus frappant pour des systèmes
avec un nombre inni d’états. C’est le cas par exemple lorsque les types des variables du
1. Dans certains cas un majorant sur la borne k est connu (le seuil de complétion) qui permet d’armer
que le système vérie la propriété donnée.
121.1 Model checking
programme sont innis (e.g. entiers mathématiques) ou les structures de données sont
innies (e.g. buers, les d’attente, mémoires non bornés). Pour traiter de tels systèmes,
deux possibilités s’orent alors : manipuler des représentations d’ensembles d’états innis
directement, ou construire une abstraction nie du système.
Dans la première approche, des représentations symboliques adaptées reposent par
exemple sur l’utilisation des formules logiques du premier ordre. Pour cela, les techniques
utilisant précédemment les solveurs SAT (traitant exclusivement de domaines nis encodés
par de la logique propositionnelle) ont été peu à peu migrées vers les solveurs SMT
(Satisabilité Modulo Théories). Ces derniers possèdent un moteur propositionnel (un
solveur SAT) couplé à des méthodes de combinaison de théories. La puissance de ces
solveurs vient du grand nombre de théories qu’ils supportent en interne, comme la théorie
de l’arithmétique linéaire (sur entiers mathématiques), la théorie de l’égalité et des fonctions
non interprétées, la théorie des tableaux, la théorie des vecteurs de bits, la théorie des types
énumérés, etc. Certains solveurs SMT supportent même les quanticateurs. Par exemple,
une application récente de la technique de k-induction aux programmes Lustre (un langage
synchrone utilisé notamment dans l’aéronautique) utilisant des solveurs SMT est disponible
dans le model checker Kind [85, 86].
La seconde approche pour les systèmes innis – qui peut parfois être utilisée en complément
de la technique précédente – consiste à sacrier la précision de l’analyse en
simpliant le problème an de se ramener à l’analyse d’un système ni. La plupart de ces
idées émergent d’une certaine manière du cadre de l’interprétation abstraite dans lequel un
programme est interprété sur un domaine abstrait [46,47]. Une forme d’abstraction particulière
est celle de l’abstraction par prédicats. Dans cette approche, la fonction d’abstraction
associe chaque état du système à un ensemble prédéni de prédicats. L’utilisateur fournit
des prédicats booléens en nombre ni pour décrire les propriétés possibles d’un système
d’états innis. Ensuite une analyse d’accessibilité est eectuée sur le modèle d’états nis
pour fournir l’invariant le plus fort possible exprimable à l’aide de ces prédicats [81].
Généralement, les abstractions accélèrent la procédure de model checking lorsqu’elles
sont les plus générales possibles. Parfois trop grossières, ces abstractions peuvent empêcher
l’analyse d’un système pourtant sûr en exposant des contre-exemples qui n’en sont pas dans
le système réel. Il devient alors intéressant de raner le domaine abstrait utilisé précédemment
de manière automatique an d’éliminer ces mauvais contre-exemples. Cette idée a
donné naissance à la stratégie itérative appelée CEGAR (pour Counter-Example Guided Abstraction
Renement, i.e. ranement d’abstraction guidé par contre-exemples) [13, 35, 147].
Elle est utilisée par de nombreux outils et plusieurs améliorations ont été proposées au
l des années. On peut mentionner par exemple les travaux de Jahla et al. [89, 94] sur
l’abstraction paresseuse implémentés dans le model checker Blast [18] ainsi que ceux de
McMillan [119] qui combine cette technique avec un ranement par interpolation de
Craig [48] permettant ainsi de capturer les relations entre variables utiles à la preuve de la
propriété souhaitée.
13Chapitre 1 Introduction
Un système peut aussi être inni, non pas parce que ses variables sont dans des domaines
innis, mais parce qu’il est formé d’un nombre non borné de composants. Par exemple, un
protocole de communication peut être conçu pour fonctionner quelque soit le nombre de
machines qui y participent. Ces systèmes sont dits paramétrés, et c’est le problème de leur
vérication qui nous intéresse plus particulièrement dans cette thèse.
1.2 Model checking de systèmes paramétrés
Un grand nombre de systèmes réels concurrents comme le matériel informatique ou
les circuits électroniques ont en fait un nombre ni d’états possibles (déterminés par la
taille des registres, le nombre de bascules, etc.). Toutefois, ces circuits et protocoles (e.g.
les protocoles de bus ou les protocoles de cohérence de cache) sont souvent conçus de
façon paramétrée, dénissant ainsi une innité de systèmes. Un pour chaque nombre de
composants.
Souvent le nombre de composants de tels systèmes n’est pas connu à l’avance car ils
sont conçus pour fonctionner quelque soit le nombre de machines du réseau, quelque soit
le nombre de processus ou encore quelque soit la taille des buers (mémoires tampons).
En vérier les propriétés d’une manière paramétrée est donc indispensable pour s’assurer
de leur qualité. Dans d’autres cas ce nombre de composants est connu mais il est tellement
grand (plusieurs milliers) que les techniques traditionnelles sont tout bonnement incapables
de raisonner avec de telles quantités. Il est alors préférable dans ces circonstances de vérier
une version paramétrée du problème.
Apt et Kozen montrent en 1986 que, de manière générale, savoir si un programme P
paramétré par n, P (n) satisfait une propriété φ(n), est un problème indécidable [10]. Pour
mettre en lumière ce fait, ils ont simplement créé un programme qui simule n étapes d’une
machine de Turing et change la valeur d’une variable booléenne à la n de l’exécution si
la machine simulée ne s’est pas encore arrêtée 2
. Ce travail expose clairement les limites
intrinsèques des systèmes paramétrés. Même si le résultat est négatif, la vérication automatique
reste possible dans certains cas. Face à un problème indécidable, il est coutume
de restreindre son champ d’application en imposant certaines conditions jusqu’à tomber
dans un fragment décidable. Une alternative consiste à traiter le problème dans sa globalité,
mais avec des méthodes non complètes.
1.2.1 Méthodes incomplètes
Le premier groupe à aborder le problème de la vérication paramétrée fut Clarke et
Grumberg [39] avec une méthode fondée sur un résultat de correspondance entre des
2. Ce programme est bien paramétré par n. Bien qu’il ne fasse pas intervenir de concurrence, le résultat
qui suit peut être aussi bien obtenu en mettant n processus identiques P (n) en parallèle.
141.2 Model checking de systèmes paramétrés
systèmes de diérentes tailles. Notamment, ils ont pu vérier avec cette technique un
algorithme d’exclusion mutuelle en mettant en évidence une bisimulation entre ce système
de taille n et un système de taille 2.
Toujours dans l’esprit de se ramener à une abstraction nie, de nombreuses techniques
suivant ce modèle ont été développées pour traiter les systèmes paramétrés. Par exemple
Kurshan et McMillan utilisent un unique processus Q qui agrège les comportements de n
processus P concurrents [105]. En montrant que Q est invariant par composition parallèle
asynchrone avec P, on déduit que Q représente bien une abstraction du système paramétré.
Bien souvent l’enjeu des techniques utilisées pour vérier des systèmes paramétrés est
de trouver une représentation à même de caractériser des familles innies d’états. Par
exemple si la topologie du système (i.e. l’organisation des processus) n’a pas d’importance,
il est parfois susant de « compter » le nombre de processus se trouvant dans un état
particulier. C’est la méthode employée par Emerson et al. dans l’approche dite d’abstraction
par compteurs [64]. Si l’ordre des processus importe (e.g. un processus est situé « à gauche »
d’un autre) une représentation adaptée consiste à associer à chaque état un mot d’un
langage régulier. Les ensembles d’états sont alors représentés par les expressions régulières
de ce langage et certaines relations de transition peuvent être exprimées par des transducteurs
nis [1, 99]. Une généralisation de cette idée a donné naissance au cadre du model
checking régulier [24] qui propose des techniques d’accélération pour calculer les clôtures
transitives [96, 128]. Des extensions de ces approches ont aussi été adaptées à l’analyse de
systèmes de topologies plus complexes [22].
Plutôt que de chercher à construire une abstraction nie du système paramétré dans son
intégralité, l’approche dite de cuto (coupure) cherche à découvrir une borne supérieure
dépendant à la fois du système et de la propriété à vérier. Cette borne k, appelée la valeur
de cuto, est telle que si la propriété est vraie pour les système plus petits que k alors
elle est aussi vraie pour les systèmes de taille supérieure à k [62]. Parfois cette valeur
peut-être calculée statiquement à partir des caractéristiques du système. C’est l’approche
employée dans la technique des invariants invisibles de Pnueli et al. alliée à une génération
d’invariants inductifs [12, 138]. L’avantage de la technique de cuto est qu’elle s’applique
à plusieurs formalismes et qu’elle permet simplement d’évacuer le côté paramétré d’un
problème. En revanche le calcul de cette borne k donne souvent des valeurs rédhibitoires
pour les systèmes de taille réelle. Pour compenser ce désavantage, certaines techniques
ont été mises au point pour découvrir les bornes de cuto de manière dynamique [4, 98].
1.2.2 Fragments décidables
Il est généralement dicile d’identier un fragment qui soit à la fois décidable et utile en
pratique. Certaines familles de problèmes admettent cependant des propriétés qui en font
des cadres théoriques intéressants. Partant du constat que les systèmes synchrones sont
souvent plus simples à analyser, Emerson et Namjoshi montrent que certaines propriétés
15Chapitre 1 Introduction
temporelles sont en fait decidables pour ces systèmes [63]. Leur modèle fonctionne pour
les systèmes composés d’un processus de contrôle et d’un nombre arbitraire de processus
homogènes. Il ne s’applique donc pas, par exemple, aux algorithmes d’exclusion mutuelle.
L’écart de méthodologie qui existe entre les méthodes non complètes et celles qui identient
un fragment décidable du model checking paramétré n’est en réalité pas si grand.
Dans bien des cas, les chercheurs qui mettent au point ces premières mettent aussi en
évidence des restrictions susantes sur les systèmes considérés pour rendre l’approche
complète et terminante. C’est par exemple le cas des techniques d’accélération du model
checking régulier ou encore celui du model checking modulo théories proposé par Ghilardi
et Ranise [77, 79].
À la diérence des techniques pour systèmes paramétrés mentionnées précédemment,
cette dernière approche ne construit pas d’abstraction nie mais repose sur l’utilisation
de quanticateurs pour représenter les ensembles innis d’états de manière symbolique.
En eet lorsqu’on parle de systèmes paramétrés, on exprime naturellement les propriétés
en quantiant sur l’ensemble des éléments du domaine paramétré. Par exemple, dans un
système où le nombre de processus n’est pas connu à l’avance, on peut avoir envie de
garantir que quelque soit le processus, sa variable locale x n’est jamais nulle. Le cadre
du model checking modulo théories dénit une classe de systèmes paramétrés appelée
systèmes à tableaux permettant de maîtriser l’introduction des quanticateurs. La sûreté
de tels systèmes n’est pas décidable en général mais il existe des restrictions sur le problème
d’entrée qui permettent de construire un algorithme complet et terminant. Un autre
avantage de cette approche est de tirer parti de la puissance des solveurs SMT et de leur
grande versatilité.
Toutes ces techniques attaquent un problème intéressant et important. Celles qui sont
automatiques (model checking) ne passent pourtant pas à l’échelle sur des problèmes
réalistes. Et celles qui sont applicables en pratique demandent quant à elles une expertise
humaine considérable, ce qui rend le processus de vérication très long [33,49,118,134,135].
Le problème principal auquel répond cette thèse est le suivant.
Comment vérier automatiquement des propriétés de sûreté de systèmes
paramétrés complexes ?
Pour répondre à cette question, on utilise le cadre théorique du model checking modulo
théories pour concevoir de nouveaux algorithmes qui infèrent des invariants de manière
automatique. Nos techniques s’appliquent avec succès à l’analyse de sûreté paramétrée de
protocoles de cohérence de cache conséquents, entre autres.
1.3 Contributions
Nos contributions sont les suivantes :
161.4 Plan de la thèse
— Un model checker open source pour systèmes paramétrés : Cubicle. Cubicle implémente
les techniques présentées dans cette thèse et est librement disponible à
l’adresse suivante : http://cubicle.lri.fr.
— Un ensemble de techniques pour l’implémentation d’un model checker reposant sur
un solveur SMT.
— Un nouvel algorithme pour inférer des invariants de qualité de manière automatique :
BRAB. L’idée de cet algorithme est d’utiliser les informations extraites d’un modèle
ni du système an d’inférer des invariants pour le cas paramétré. Le modèle ni
est en fait mis à contribution en tant qu’oracle dont le rôle se limite à émettre un
jugement de valeur sur les candidats invariants qui lui sont présentés. Cet algorithme
fonctionne bien en pratique car dans beaucoup de cas les instances nies, même
petites, exhibent déjà la plupart des comportements intéressants du système.
— Une implémentation de BRAB dans le model checker Cubicle.
— L’application de ces techniques à la vérication du protocole de cohérence de cache
de l’architecture multi-processeurs FLASH. À l’aide des invariants découverts par
BRAB, la sûreté de ce protocole a pu être vériée entièrement automatiquement pour
la première fois.
— Deux approches pour la certication de Cubicle à l’aide de la plate-forme Why3.
La première est une approche qui fonctionne par certicats (ou traces) et vérie le
résultat produit par le model checker. Ce certicat prend la forme d’un invariant
inductif. La seconde approche est par vérication déductive du cœur de Cubicle. Ces
deux approches mettent en avant une autre qualité de BRAB : faciliter ce processus
de certication, par réduction de la taille des certicats pour l’une, et grâce à son
ecacité pour l’autre.
1.4 Plan de la thèse
Ce document de thèse est organisé de la façon suivante : Le chapitre 2 introduit le
langage d’entrée du model checker Cubicle à travers diérents exemples d’algorithmes et
de protocoles concurrents. Une seconde partie de ce chapitre présente la représentation
formelle des systèmes de transitions utilisés par Cubicle ainsi que leur sémantique. Le
chapitre 3 présente le cadre théorique du model checking modulo théories conçu par
Ghilardi et Ranise. Les résultats et théorèmes associés sont également donnés et illustrés
dans ce chapitre, qui constitue le contexte dans lequel s’inscrivent nos travaux. Le chapitre 4
donne un ensemble d’optimisations nécessaires à l’implémentation d’un model checker
reposant sur un solveur SMT comme Cubicle. Nos travaux autour de l’inférence d’invariants
sont exposés dans le chapitre 5. On y présente et illustre l’algorithme BRAB. Les détails
pratiques de son fonctionnement sont également expliqués et son intérêt est appuyé par une
17Chapitre 1 Introduction
évaluation expérimentale sur des problèmes diciles pour la vérication paramétrée. En
particulier on détaille le résultat de la preuve du protocole de cohérence de cache FLASH.
Le chapitre 6 présente deux techniques de certication que nous avons mis en œuvre
pour certier le model checker Cubicle. Ces deux techniques reposent sur la plate-forme
de vérication déductive Why3. Enn le chapitre 7 donne des pistes d’amélioration et
d’extension de nos travaux et conclut ce document.
182
Le model checker Cubicle
Sommaire
2.1 Langage d’entrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.1 Algorithme d’exclusion mutuelle . . . . . . . . . . . . . . . . . 23
2.2.2 Généralisation de l’algorithme de Dekker . . . . . . . . . . . . 25
2.2.3 Boulangerie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.4 Cohérence de Cache . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Non-atomicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Logique multi-sortée et systèmes à tableaux . . . . . . . . . . . . . 36
2.4.1 Syntaxe des formules logiques . . . . . . . . . . . . . . . . . . . 37
2.4.2 Sémantique de la logique . . . . . . . . . . . . . . . . . . . . . . 39
2.4.3 Systèmes de transition à tableaux . . . . . . . . . . . . . . . . . 41
2.5 Sémantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5.1 Sémantique opérationnelle . . . . . . . . . . . . . . . . . . . . . 44
2.5.2 Atteignabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.5.3 Un interpréteur de systèmes à tableaux . . . . . . . . . . . . . . 47
L’outil issu des travaux présentés dans ce document est un model checker pour systèmes
paramétrés, dénommé Cubicle. Le but de ce chapitre est de familiariser le lecteur avec l’outil,
tout particulièrement son langage d’entrée et sa syntaxe concrète. Quelques exemples
variés de tels systèmes sont formulés dans ce langage an d’orir un premier aperçu des
possibilités du model checker. On donne également une description plus formelle de la
sémantique des systèmes décrits dans le langage de Cubicle.
19Chapitre 2 Le model checker Cubicle
2.1 Langage d’entrée
Cubicle est un model checker pour systèmes paramétrés. C’est-à-dire qu’il permet de
vérier statiquement des propriétés de sûreté d’un programme concurrent pour un nombre
quelconque de processus 1
. Pour représenter ces programmes, on utilise des systèmes de
transition car ils permettent facilement de modéliser des comportements asynchrones ou
non déterministes. Ces systèmes décrivent les transitions possibles d’un état du programme
à un autre. Ils peuvent être considérés comme un langage bas niveau pour la vérication.
Étant donné que les systèmes manipulés par Cubicle sont paramétrés, les transitions qui
le composent le sont également. Dans cette section, on présente de manière très informelle
le langage d’entrée de Cubicle 2
.
La description d’un système commence par des déclarations de types, de variables
globales et de tableaux. Cubicle connaît quatre types en interne : le type des entiers (int),
le type des réels (real), le type des booléens (bool) et le type des identicateurs de
processus (proc). Ce dernier est particulièrement important car c’est par les éléments de
ce type que le système est paramétré. Le paramètre du système est la cardinalité du type
proc. L’utilisateur a aussi la liberté de déclarer ses propres types abstraits ou ses propres
types énumérés. L’exemple suivant dénit un type énuméré state à trois constructeurs
Idle, Want et Crit ainsi qu’un type abstrait data.
type state = Idle | Want | Crit
type data
Les tableaux et variables représentent l’état du système ou du programme. Tous les
tableaux ont la particularité d’être uniquement indexés par des éléments du type proc, leur
taille est par conséquent inconnue. C’est une limitation de l’implémentation actuelle du
langage de Cubicle qui existe pour des raisons pratiques et rien n’empêcherait d’ajouter la
possibilité de déclarer des tableaux indexés par des entiers. Dans ce qui suit on déclare une
variable globale Timer de type real et trois tableaux indexés par le type proc.
var Timer : real
array State[proc] : state
array Chan[proc] : data
array Flag[proc] : bool
Les tableaux peuvent par exemple être utilisés pour représenter des variables locales ou
des canaux de communication.
1. Un programme concurrent est souvent paramétré par son nombre de processsus ou threads mais ce
paramètre peut aussi être la taille de certains buers ou le nombre de canaux de communication par exemple.
2. Une description plus précise de la syntaxe et de ce langage est faite en annexe A de ce document.
202.1 Langage d’entrée
Les états initiaux du système sont dénis à l’aide du mot clef init. Cette déclaration qui
vient en début de chier précise quelles sont les valeurs initiales des variables et tableaux
pour tous leurs indices. Notons que certaines variables peuvent ne pas être initialisées et on
a le droit de mentionner seulement les relations entres elles. Dans ce cas tout état dont les
valeurs des variables et tableaux respectent les contraintes xées dans la ligne init sera
un état initial correct du système. Par exemple, la ligne suivante dénit les états initiaux
comme ceux ayant leurs tableaux Flag à false et State à Idle pour tout processus z, ainsi
que leur variable globale Timer valant 0.0. Le paramètre z de init représente tous les
processus du système.
init (z) { Flag[z] = False && State[z] = Idle && Timer = 0.0 }
Remarque. On ne précise pas le type des paramètres car seuls ceux du type proc sont
autorisés
Le reste du système est donné comme un ensemble de transitions de la forme garde/action.
Chaque transition peut être paramétrée (ou non) par un ou plusieurs identicateurs de
processus comme dans l’exemple suivant.
transition t (i j)
requires { i < j && State[i] = Idle && Flag[i] = False &&
forall_other k. (Flag[k] = Flag[j] || State[k] <> Want) }
{
Timer := Timer + 1.0;
Flag[i] := True;
State[k] := case
| k = i : Want
| State[k] = Crit && k < i : Idle
| _ : State[k];
}
Dans cet exemple, la transition t est déclenchable s’il existe deux processus distincts
d’identicateurs i et j tels que i est inférieur à j. Les tableaux State et Flag doivent
contenir respectivement la valeur Idle et la valeur false à l’indice i. En plus de cette garde
locale (aux processus i et j), on peut mentionner l’état des autres processus du système.
La partie globale de la garde est précédée du mot clef forall_other. Ici, on dit que tous
les autres processus (sous-entendu diérents de i et j) doivent soit avoir la même valeur
de Flag que j, soit contenir une valeur diérente de Want dans le tableau State.
Remarque. Dans Cubicle, les processus sont diérenciés par leur identicateurs. Ici, les
paramètres i et j de la transition sont implicitement quantiés existentiellement et doivent
21Chapitre 2 Le model checker Cubicle
être des identicateurs de processus deux à deux distincts. L’ensemble des identicateurs
de processus est seulement muni d’un ordre total. La présence de cet ordre induit une
topologie linéaire sur les processus. La comparaison entre identicateurs est donc autorisée
et on peut par exemple écrire i < j dans une garde.
La garde de la transition est donnée par le mot clef requires. Si elle est satisfaite, les
actions de la transition sont exécutées. Chaque action est une mise à jour d’une variable
globale ou d’un tableau. La sémantique des transitions veut que l’ensemble des mises
à jour soit réalisé de manière atomique et chaque variable qui apparaît à droite d’un
signe := dénote la valeur de cette variable avant la transition. L’ordre des aectations
n’a donc pas d’importance. La première action Timer := Timer + 1.0 incrémente la
variable globale de 1 lorsque la transition est prise. Les mises à jour de tableaux peuvent être
codées comme de simples aectations si une seule case est modiée. L’action Flag[i] :=
True modie le tableau Flag à l’indice i en y mettant la valeur true. Le reste du tableau
n’est pas modié. Si la transition modie plusieurs cases d’un même tableau, on utilise une
construction case qui précise les nouvelles valeurs contenues dans le tableau à l’aide d’un
ltrage. State[k] := case ... mentionne ici les valeurs du tableau State pour tous
les indices k (k doit être une variable fraîche) selon les conditions suivantes. Pour chaque
indice k, le premier cas possible du ltrage est exécuté. Le cas
| k = i : Want
nous demande de vérier tout d’abord si k vaut i, c’est-à-dire de mettre de la valeur Want
à l’indice i du tableau State. Le deuxième cas
| State[k] = Crit && k < i : Idle
est plus compliqué : si le premier cas n’est pas vérié (i.e. k est diérent de i), que State
contenait Crit à l’indice k, et que k est inférieur à i alors la nouvelle valeur de State[k]
est Idle. Plus simplement, cette ligne change les valeurs Crit du tableau State se trouvant
à gauche de i (k < i) en Idle. Enn tous les ltrages doivent se terminer par un cas par
défaut noté _. Dans notre exemple, le cas par défaut du ltrage
| _ : State[k]
dit que toutes les autres valeurs du tableau restent inchangées (on remet l’ancienne valeur
de State[k]).
La relation de transition, décrite par l’ensemble des transitions, dénit l’exécution du
système comme une boucle innie qui à chaque itération :
1. choisit de manière non déterministe une instance de transition dont la garde est vraie
dans l’état courant du système ;
2. met à jour les variables et tableaux d’état conformément aux actions de la transition
choisie.
222.2 Exemples
Les propriétés de sûreté à vérier sont exprimées sous forme négative, c’est-à-dire qu’on
caractérise les états dangereux du système. On les exprime dans Cubicle à l’aide du mot
clef unsafe, éventuellement suivi d’un ensemble de variables de processus distinctes. La
formule dangereuse suivante exprime que les mauvais états du système sont ceux où il
existe au moins deux processus distincts x et y tels que le tableau State contienne la valeur
Crit à ces deux indices.
unsafe (x y) { State[x] = Crit && State[y] = Crit }
On dira qu’un système est sûr si aucun des états dangereux ne peut être atteint à partir
d’un des états initiaux.
Remarque. Bien que Cubicle soit conçu pour vérier des systèmes paramétrés, il est tout
de même possible de l’utiliser pour vérier des systèmes dont le nombre de processus est
xé à l’avance. Pour cela, il sut d’inclure la ligne “number_procs n” dans le chier, où n
est le nombre de processus. Dans ce cas, on pourra mentionner explicitement les processus
1 à n en utilisant les constantes #1 à #n.
Remarque. Le langage d’entrée de Cubicle est une version moins riche mais paramétrée du
langage de Murφ [57] et similaire à Uclid [28]. Bien que limité pour l’instant, il est assez
expressif pour permettre de décrire aisément des systèmes paramétrés conséquents (75
transitions, 40 variables et tableaux pour le protocole FLASH [106] par exemple).
2.2 Exemples
Dans cette section, on montre comment utiliser Cubicle et son expressivité pour modéliser
diérents algorithmes et protocoles de la littérature. Ces exemples sont donnés à titre
didactique et sont choisis de manière à illustrer les caractéristiques fondamentales du
langage. Le but de cette section est de donner au lecteur une bonne intuition des possibilités
oertes par l’outil de manière à pouvoir modéliser et expérimenter le model checker sur
ses propres exemples.
2.2.1 Algorithme d’exclusion mutuelle
L’exclusion mutuelle est un problème récurrent de la programmation concurrente. L’algorithme
décrit ci-dessous résout ce problème, i.e. il permet à plusieurs processus de
partager une ressource commune à accès unique sans conit, en communiquant seulement
au travers de variables partagées. C’est une version simpliée de l’algorithme de Dekker
(présenté en 2.2.2) qui fonctionne pour un nombre arbitraire de processus identiques.
Sur la gure 2.1, on matérialise n processus concurrents qui exécutent tous le même
protocole. Chaque processus est représenté par le graphe de transition entre ses états : Idle,
23Chapitre 2 Le model checker Cubicle
Process 1
Idle
Want
Crit
Turn = 1
Turn := ?
Process 2
Idle
Want
Crit
Turn = 2
Turn := ?
Process n
Idle
Want
Crit
Turn = n
Turn := ?
. . .
Process 3
Idle
Want
Crit
Turn = 3
Turn := ?
Figure 2.1 – Algorithme d’exclusion mutuelle
Want, et Crit, l’état initial étant Idle. Un processus peut demander l’accès à la section critique
à tout moment en passant dans l’état Want. La synchronisation est eectuée au travers
de la seule variable partagée Turn. La priorité est donnée au processus dont l’identiant
i est contenu dans la variable Turn, qui peut dans ce cas passer en section critique. Un
processus en section critique peut en sortir sans contrainte si ce n’est celle de « donner la
main » à un de ses voisins en changeant la valeur de Turn. Cette dernière est modiée de
façon non-déterministe (Turn := ? dans le schéma), donc rien n’interdit à un processus
de se redonner la main lui-même. La propriété qui nous intéresse ici est de vérier la sûreté
du système, c’est-à-dire qu’à tout moment, au plus un processus est en section critique.
Le code Cubicle correspondant à ce problème est donné ci-dessous en gure 2.2. Pour
modéliser l’algorithme on a choisi de représenter l’état des processus par un tableau
State contenant les valeur Idle, Want, ou Crit. On peut aussi voir State[i] comme la
valeur d’une variable locale au processus d’identicateur i. La variable partagée Turn est
simplement une variable globale au système. On dénit les états initiaux comme ceux où
tous les processus sont dans l’état Idle, quelque soit la valeur initiale de la variable Turn.
Prenons l’exemple de la transition req. Elle correspond au moment où un processus
demande l’accès à la section critique, passant de l’état Want à Idle. Elle se lit : la transition
req est possible s’il existe un processus d’identiant i tel que State[i] a pour valeur
Idle. Dans ce cas, la case State[i] prend pour valeur Want.
La formule unsafe décrit les mauvais états du système comme ceux dans lesquels il
existe (au moins) deux processus distincts en section critique (i.e. pour lesquels la valeur de
State est Crit). Autrement dit, on veut s’assurer que la formule suivante est un invariant
du système :
∀i,j. (i , j ∧ State[i] = Crit) =⇒ State[j] , Crit
242.2 Exemples
mutex.cub
type state = Idle | Want | Crit
array State[proc] : state
var Turn : proc
init (z) { State[z] = Idle }
unsafe (z1 z2) { State[z1] = Crit &&
State[z2] = Crit }
transition req (i)
requires { State[i] = Idle }
{ State[i] := Want }
transition enter (i)
requires { State[i] = Want &&
Turn = i }
{ State[i] := Crit; }
transition exit (i)
requires { State[i] = Crit }
{ Turn := ? ;
State[i] := Idle; }
Figure 2.2 – Code Cubicle du mutex
Pour vérier que le système décrit dans le chier mutex.cub précédent est sûr, la manière
la plus simple d’invoquer Cubicle est de lui passer seulement le nom de chier en argument :
cubicle mutex.cub
On peut voir ci-après la trace émise par le model checker sur la sortie standard. Lorsque
ce dernier ache sur la dernière ligne “The system is SAFE”, cela signie qu’il a été en
mesure de vérier que l’état unsafe n’est jamais atteignable dans le système.
node 1: unsafe[1] 5 (2+3) remaining
node 2: enter(#2) -> unsafe[1] 7 (2+5) remaining
node 3: req(#2) -> enter(#2) -> unsafe[1] 8 (1+7) remaining
The system is SAFE
2.2.2 Généralisation de l’algorithme de Dekker
L’algorithme de Dekker est en réalité la première solution au problème d’exclusion mutuelle.
Cette solution est attribuée au mathématicien Th. J. Dekker par Edsger W. Dijkstra
qui en donnera une version fonctionnant pour un nombre arbitraire de processus [54]. En
1985, Alain J. Martin présente une version simple de l’algorithme généralisé à n processus
[115]. C’est cette version qui est donnée ici sous forme d’algorithme (Algorithme 1) et
sous forme de graphe de ot de contrôle (Figure 2.3).
La variable booléenne x (i) est utilisée par un processus pour signaler son intérêt à entrer
en section critique. La principale diérence avec l’algorithme original est l’utilisation d’une
valeur spéciale pour réinitialiser t. Dans Cubicle, les constantes de processus ne sont pas
explicites donc on ne peut pas matérialiser l’identiant spécial 0 dans le type proc. Pour
25Chapitre 2 Le model checker Cubicle
Algorithme 1 : Code de Dekker pour
le processus i [115]
Variables :
x (i) : variable booléenne,
initialisée à false
t : variable partagée,
initialisée à 0
p(i) :
NCS while true do
x (i) := true;
WANT while ∃j , i. x (j) do
AWAIT x (i) := false;
await [ t = 0 ∨ t = i ];
TURN t := i;
x (i) := true;
CS // Section critique;
x (i) := false;
t := 0;
NCS
CS
WANT
∃j , i. x (j)
AWAIT
t = 0 t = i
TURN
x (i):= true
x (i):= false
x (i):= false
t:= 0
t:= i
x (i):= true
Figure 2.3 – Graphe de Dekker pour le
processus i
modéliser t, on a choisit d’utiliser deux variables globales : T représente t lorsque celle-ci
est non nulle et la variable booléenne T_set vaut False lorsque t a été réinitialisée (à 0).
Le tableau P est utilisé pour représenter le compteur de programme et peut prendre les
valeurs des étiquettes de l’algorithme 1. On peut remarquer que dans notre modélisation,
la condition de la boucle while est évaluée de manière atomique. Les transitions wait et
enter testent en une seule étape l’existence (ou non) d’un processus j dont la variable x (j)
est vraie. De la même manière que précédemment, on veut s’assurer qu’il y ait au plus un
processus au point de programme correspondant à l’étiquette CS, i.e. en section critique.
Cubicle est capable de prouver la sûreté de ce système. À vue d’œil, la correction de
l’algorithme n’est pas triviale lorsqu’un nombre arbitraire de processus s’exécutent de
manière concurrente. Pour illustrer ce propos, admettons que le concepteur ait fait une
erreur et qu’un processus i puisse omettre de passer sa variable x (i) à true lorsqu’il arrive à
l’étiquette TURN. Il sut alors de rajouter la transition suivante au système pour modéliser
les nouveaux comportements introduits :
262.2 Exemples
dekker_n.cub
type location =
NCS | WANT | AWAIT | TURN | CS
array P[proc] : location
array X[proc] : bool
var T : proc
var T_set : bool
init (i) {
T_set = False &&
X[i] = False && P[i] = NCS
}
unsafe (i j) { P[i] = CS && P[j] = CS }
transition start (i)
requires { P[i] = NCS }
{ P[i] := WANT;
X[i] := True; }
transition wait (i j)
requires { P[i] = WANT && X[j] = True }
{ P[i] := AWAIT;
X[i] := False; }
transition enter (i)
requires { P[i] = WANT &&
forall_other j. X[j] = False }
{ P[i] := CS }
transition awaited_1 (i)
requires { P[i] = AWAIT &&
T_set = False }
{ P[i] := TURN }
transition awaited_2 (i)
requires { P[i] = AWAIT &&
T_set = True && T = i }
{ P[i] := TURN }
transition turn (i)
requires { P[i] = TURN }
{ P[i] := WANT;
X[i] := True;
T := i; T_set := True; }
transition loop (i)
requires { P[i] = CS }
{ P[i] := NCS;
X[i] := False;
T_set := False; }
Figure 2.4 – Code Cubicle de l’algorithme de Dekker
transition turn_buggy (i)
requires { P[i] = TURN }
{ P[i] := WANT;
T := i; T_set := True; }
Si on exécute Cubicle sur le chier maintenant obtenu, il nous fait savoir que la propriété
n’est plus vériée en exposant une trace d’erreur. On peut voir sur la trace suivante qu’un
mauvais état est atteignable en dix étapes avec deux processus.
Error trace: start(#2) -> enter(#2) -> start(#1) -> wait(#1, #2) ->
loop(#2) -> awaited_1(#1) -> turn_buggy(#1) -> enter(#1) ->
start(#2) -> enter(#2) -> unsafe[1]
27Chapitre 2 Le model checker Cubicle
UNSAFE !
Des constantes sont introduites pour chaque processus entrant en jeu dans la trace
et sont notées #1, #2, #3, . . . . La notation “. . . wait(#1, #2) -> . . . ” signie que pour
reproduire la trace, il faut prendre la transition wait instanciée avec les processus #1 et #2.
Remarque. Un état dangereux de ce système est en réalité atteignable en seulement huit
étapes mais il faut pour cela qu’au moins trois processus soient impliqués. On peut s’en
rendre compte en forçant Cubicle à eectuer une exploration purement en largeur grâce
à l’option -postpone 0. De cette façon, on est assuré d’obtenir la trace d’erreur la plus
courte possible :
Error trace: start(#1) -> start(#3) -> wait(#1, #3) -> awaited_1(#1) ->
turn_buggy(#1) -> enter(#1) -> start(#2) -> enter(#2) ->
unsafe[1]
2.2.3 Boulangerie
L’algorithme de la boulangerie a été proposé par Leslie Lamport en réponse au problème
d’exclusion mutuelle [110]. Contrairement aux approches précédentes, la particularité
de cet algorithme est qu’il est résistant aux pannes et qu’il fonctionne même lorsque les
opérations de lecture et d’écriture ne sont pas atomiques. Son pseudo-code est donné dans
l’algorithme 2 (voir page suivante).
On peut faire le parallèle entre le principe de base de l’algorithme et celui d’une boulangerie
aux heures de pointe, d’où son nom. Dans cette boulangerie, chaque client (matérialisant
un processus) choisi un numéro en entrant dans la boutique. Le client qui souhaite acheter
du pain ayant le numéro le plus faible s’avance au comptoir pour être servi. La propriété
d’exclusion mutuelle de cette boulangerie se manifeste par le fait que son fonctionnement
garantit qu’un seul client est servi à la fois. Il est possible que deux clients choisissent le
même numéro, celui dont le nom (unique) est avant l’autre a alors la priorité.
La modélisation faite dans Cubicle est reprise de la version modélisée dans PFS par
Abdulla et al. [3] et est donnée ci-dessous. C’est une version simpliée de l’algorithme
original de Lamport dans laquelle le calcul du maximum à l’étiquette Choose et l’ensemble
des tests de la boucle for à l’étiquette Wait sont atomiques. Les lectures et écritures sont
aussi considérées comme étant instantanées.
Cet algorithme est tolérant aux pannes, c’est à dire qu’il continue de fonctionner même
si un processus s’arrête. Un processus i a le droit de tomber en panne et de redémarrer en
section non critique tout en réinitialisant ses variables locales. Ce comportement peut être
modélisé dans Cubicle en rajoutant un point de programme spécial Crash représentant
le fait qu’un processus est en panne. On ajoute une transition sans garde qui dit qu’un
processus peut tomber en panne à tout moment, ainsi qu’une transition lui permettant de
redémarrer (voir page 30).
282.2 Exemples
Algorithme 2 : Pseudo-code de la boulangerie de Lamport pour le
processus i [110]
Variables :
choosing[i] : variable booléenne, initialisée à false
number[i] : variable entière initialisée à 0
p(i) :
NCS begin
choosing[i] := true;
Choose number[i] := 1 + max(number[1], . . . , number[N]);
choosing[i] := false;
for j = 1 to N do
Wait await [ ¬ choosing[j] ];
await [ number[j] = 0 ∨ (number[i], i) < (number[j], j) ];
CS // Section critique;
number[i] := 0;
goto NCS;
bakery_lamport.cub
type location = NCS | Choose | Wait | CS
array PC[proc] : location
array Ticket[proc] : int
array Num[proc] : int
var Max : int
init (x) { PC[x] = NCS && Num[x] = 0 &&
Max = 1 && Ticket[x] = 0 }
invariant () { Max < 0 }
unsafe (x y) { PC[x] = CS && PC[y] = CS }
transition next_ticket ()
{
Ticket[j] := case | _ : Max;
Max := Max + 1;
}
transition take_ticket (x)
requires { PC[x] = NCS &&
forall_other j. Num[j] < Max }
{
PC[x] := Choose;
Ticket[x] := Max;
}
transition wait (x)
requires { PC[x] = Choose }
{
PC[x] := Wait;
Num[x] := Ticket[x];
}
transition turn (x)
requires { PC[x] = Wait &&
forall_other j.
(PC[j] <> Choose && Num[j] = 0 ||
PC[j] <> Choose && Num[x] < Num[j] ||
PC[j] <> Choose &&
Num[x] = Num[j] && x < j) }
{
PC[x] := CS;
}
transition exit (x)
requires { PC[x] = CS }
{
PC[x] := NCS;
Num[x] := 0;
}
Figure 2.5 – Code Cubicle de l’algorithme de la boulangerie de Lamport
29Chapitre 2 Le model checker Cubicle
type location =
NCS | Choose | Wait | CS | Crash
...
transition fail (x)
{ PC[x] := Crash }
transition recover (x)
requires { PC[x] = Crash }
{
PC[x] := NCS;
Num[x] := 0;
}
2.2.4 Cohérence de Cache
Dans une architecture multiprocesseurs à mémoire partagée, l’utilisation de caches
est requise pour réduire les eets de la latence des accès mémoire et pour permettre la
coopération. Les architectures modernes possèdent de nombreux caches ayant des fonctions
particulières, mais aussi plusieurs niveaux de cache. Les caches qui sont les plus près des
unités de calcul des processeurs orent les meilleures performances. Par exemple un accès
en lecture au cache (succès de cache ou cache hit) L1 consomme seulement 4 cycles du
processeur sur une architecture Intel Core i7, alors qu’un accès mémoire (défaut de cache
ou cache miss) consomme en moyenne 120 cycles [113]. Cependant l’utilisation de caches
introduit le problème de cohérence de cache : toutes les copies d’un même emplacement
mémoire doivent être dans des états compatibles. Un protocole de cohérence de cache fait en
sorte, entre autres, que les écritures eectuées à un emplacement mémoire partagé soient
visibles de tous les autres processeurs tout en garantissant une absence de conits lors des
opérations.
Il existe plusieurs types de protocoles de cohérence de cache :
— cohérence par espionnage 3
: la communication se fait au travers d’un bus central sur
lequel les diérentes transactions sont visibles par tous les processeurs.
— cohérence par répertoire 4
: chaque processeur est responsable d’une partie de la
mémoire et garde trace des processeurs ayant une copie locale dans leur cache. Ces
protocoles fonctionnent par envoi de messages sur un réseau de communication.
Bien que plus dicile à mettre en œuvre, cette dernière catégorie de protocoles est
aujourd’hui la plus employée, pour des raisons de performance et de passage à l’échelle. Les
architectures réelles sont souvent très complexes, elles implémentent plusieurs protocoles
de cohérence de manière hiérarchique, et utilisent plusieurs dizaines voire centaines de
variables. Néanmoins leur fonctionnement repose sur le même principe fondamental. Un
protocole simple mais représentatif de cette famille à été donné par Steven German à
3. Ces protocoles sont aussi parfois qualiés de snoopy.
4. On qualie parfois ces protocoles par le terme anglais directory based.
302.2 Exemples
la communauté académique [138]. L’exemple suivant dénommé German-esque est une
version simpliée de ce protocole.
E
S
I
Shr[i] := true
Exg := true
Exg := true
Shr[i] := true
Shr[i] := false
Exg := false
Exg := false
Shr[i] := false
Figure 2.6 – Diagramme d’état du protocole German-esque
L’état d’un processeuri est donné par la variable Cache[i] qui peut prendre trois valeurs :
(E)xclusive (accès en lecture et écriture), (S)hared (accès en lecture seulement) ou (I)nvalid
(pas d’accès à la mémoire). Les clients envoient des requêtes au responsable lorsqu’un défaut
de cache survient : RS pour un accès partagé (défaut de lecture), RE pour un accès exclusif
(défaut d’écriture). Le répertoire contient quatre informations : une variable booléene
Exg signale par la valeur true qu’un des clients possède un accès exclusif à la mémoire
principale, un tableau de booléens Shr, tel que Shr[i] est vrai si le client i possède une
copie (avec un accès en lecture ou écriture) de la mémoire dans son cache, Cmd contient la
requête courante (ϵ marque l’absence de requête) dont l’émetteur est enregistré dans Ptr.
Les états initiaux du système sont représentés par la formule logique suivante :
∀i. Cache[i] = I ∧ ¬Shr[i] ∧ ¬Exg ∧ Cmd = ϵ
signiant que les caches de tous les processeurs sont invalides, aucun accès n’a encore été
donné et il n’y a pas de requête à traiter.
La Figure 2.6 donne une vue assez haut niveau de l’évolution d’un seul processeur. Les
èches pleines montrent l’évolution du cache du processeur selon ses propres requêtes, alors
que les èches pointillées représentent les transitions résultant d’une requête d’un autre
client. Par exemple, un cache va de l’état I à S lors d’un défaut de lecture : le répertoire lui
accorde un accès partagé tout en enregistrant cette action dans le tableau Shr[i] := true. De
31Chapitre 2 Le model checker Cubicle
germanesque.cub
type msg = Epsilon | RS | RE
type state = I | S | E
(* Client *)
array Cache[proc] : state
(* Directory *)
var Exg : bool
var Cmd : msg
var Ptr : proc
array Shr[proc] : bool
init (z) {
Cache[z] = I && Shr[z] = False &&
Exg = False && Cmd = Epsilon
}
unsafe (z1 z2) {
Cache[z1] = E && Cache[z2] <> I
}
transition request_shared (n)
requires { Cmd = Epsilon &&
Cache[n] = I }
{
Cmd := RS;
Ptr := n ;
}
transition request_exclusive (n)
requires { Cmd = Epsilon &&
Cache[n] <> E }
{
Cmd := RE;
Ptr := n;
}
transition invalidate_1 (n)
requires { Shr[n]=True && Cmd = RE }
{
Exg := False;
Cache[n] := I;
Shr[n] := False;
}
transition invalidate_2 (n)
requires { Shr[n]=True &&
Cmd = RS && Exg=True }
{
Exg := False;
Cache[n] := S;
Shr[n] := True;
}
transition grant_shared (n)
requires { Ptr = n &&
Cmd = RS && Exg = False }
{
Cmd := Epsilon;
Shr[n] := True;
Cache[n] := S;
}
transition grant_exclusive (n)
requires {
Cmd = RE && Exg = False &&
Ptr = n && Shr[n] = False &&
forall_other l. Shr[l] = False }
{
Cmd := Epsilon;
Exg := True;
Shr[n] := True;
Cache[n] := E;
}
Figure 2.7 – Code Cubicle du protocole de cohérence de cache German-esque
322.3 Non-atomicité
façon similaire, si un défaut en écriture survient dans un autre cache, le répertoire invalide
tous les clients enregistrés dans Shr avant de donner l’accès exclusif. Cette invalidation
générale a pour eet de passer les caches dans les états E et S à l’état I.
La modélisation qui est faite de ce protocole est assez immédiate et est donnée ci-dessous.
On peut toutefois remarquer qu’on s’intéresse ici seulement à la partie contrôle du protocole
et on oublie les actions d’écriture et lecture réelles de la mémoire. La seule propriété qu’on
souhaite garantir dans ce cas est que si un processeur a son cache avec accès exclusif alors
tous les autres sont invalides :
∀i,j. (i , j ∧ Cache[i] = E) =⇒ Cache[j] = I
Le responsable du répertoire est abstrait et on ne s’intéresse qu’à une seule ligne de
mémoire donc l’état du répertoire est représenté avec des variables globales.
2.3 Non-atomicité
Dans la plupart des travaux existants sur les systèmes paramétrés, on fait la supposition
que l’évaluation des conditions globales est atomique. La totalité de la garde est évaluée en
une seule étape. Cette hypothèse est raisonnable lorsque les conditions globales masquent
des détails d’implémentation qui permettent de faire cette évaluation de manière atomique.
En revanche, beaucoup d’implémentations réelles d’algorithmes concurrents et de protocoles
n’évaluent pas ces conditions instantanément mais plutôt par une itération sur
une structure de donnée (tableau, liste chaînée, etc.). Par exemple, l’algorithme de Dekker
(voir Section 2.2.2) implémente le test ∃j , i.x (j) de l’étiquette WANT par une boucle
qui recherche un j tel que x (j) soit vrai. De même, on a modélisé la boucle d’attente de
l’algorithme de la boulangerie (Section 2.2.3, algorithme 2, étiquette Choose) par une garde
universelle dans la transition turn.
En supposant que des conditions sont atomiques, on simplie le problème mais cette
approximation n’est pas conservatrice. En eet, l’évaluation d’une condition peut être
entrelacée avec les actions des autres processus. Il est possible par exemple, qu’un processus
change la valeur de sa variable locale alors que celle-ci à déjà été comptabilisée pour une
condition globale avec son ancienne valeur. Il peut dans ce cas exister dans l’implémentation
des congurations qui ne sont représentées par aucun état du modèle atomique. Si on veut
prendre en compte ces éventualités dans notre modélisation, on se doit de reéter tous les
comportements possibles dans le système de transition.
La vérication de propriétés d’exclusion mutuelle dans des protocoles paramétrés comme
l’algorithme de la boulangerie à déjà été traitée par le passé [32, 114]. Ces preuves ne sont
souvent que partiellement automatisées et font usage d’abstractions ad-hoc. La première
approche permettant une vérication automatique de protocoles avec gardes non atomiques
a été développée en 2008 [5]. Les auteurs utilisent ici un protocole annexe de ranement
33Chapitre 2 Le model checker Cubicle
pour modéliser l’évaluation non atomique des conditions globales. L’approche qu’on
présente dans la suite de cette section est identique en substance à celle de [5]. On montre
cependant qu’on peut rester dans le cadre déni par Cubicle pour modéliser ces conditions
non atomiques.
Comme les tests non atomiques sont implémentés par des boucles, on choisit de modéliser
les implémentations de la gure 2.8. La valeur N représente ici le paramètre du système,
∀j , i. c(j) ∃j , i. c(j)
j := 1 ;
while (j ≤ N) do
if j , i ∧ ¬c(j) then return false ;
j := j + 1
end ;
return true
j := 1 ;
while (j ≤ N) do
if j , i ∧ c(j) then return true ;
j := j + 1
end ;
return false
Figure 2.8 – Évaluation non atomique des conditions globales par un processus i
c’est-à-dire la cardinalité du type proc. Pour une condition universelle, on parcourt tous
les éléments (de 1 à N) et on s’assurent qu’ils vérient la condition c. Si on trouve un
processus qui ne respecte pas cette condition on sort de la boucle et on renvoie false.
Malheureusement dans Cubicle, on ne peut pas mentionner ce paramètre N explicitement
(car le solveur SMT ne peut pas raisonner sur la valeur de la cardinalité des modèles). On
ne peut dès lors pas utiliser de compteur entier. Pour s’en sortir, on construit une boucle
avec un compteur abstrait pour lequel on peut seulement tester si sa valeur est 0 ou N
5
.
On peut également incrémenter, décrémenter, et aecter ce compteur à ces mêmes valeurs.
Dans Cubicle on modélise ce compteur par un tableau de booléens représentant un
encodage unaire de sa valeur entière. Le nombre de cellules contenant la valeur true
correspond à la valeur du compteur. Incrémenter ce compteur revient donc à passer une
case de la valeur false à la valeur true. Pour modéliser l’évaluation non atomique de la
condition ∀j , i. c(j)
6
, on utilise un compteur Cpt. Comme on veut qu’il soit local à un
processus, on a besoin d’un tableau bi-dimensionnel. Le tableau en Cpt[i] matérialise le
compteur local au processusi. Le résultat de l’évaluation de cette condition sera stocké dans
la variable Res[i] à valeurs dans le type énuméré {E,T,F}. Res[i] contient E initialement
ce qui signie que la condition n’est pas nie d’être évaluée. Lorsqu’elle contient T alors la
condition globale a été évalué à vrai, et si elle contient F la condition globale est fausse.
Les transitions correspondantes sont données gure 2.9.
Avec cette modélisation, on spécie juste que la condition locale c(j) doit être vériée
5. On peut généraliser à tester si sa valeur est k ou N − k où k est une constante positive entière.
6. L’encodage de l’évaluation de la condition duale ∃j , i. c(j) est symétrique.
342.3 Non-atomicité
Transition Commentaire
type result = E | T | F
array Cpt[proc,proc] : bool
array Res[proc] : result
transition start (i)
requires { ... }
{ Res[i] := E
Cpt[x,y] := case
| x=i : False
| _ : Cpt[x,y] }
On initialise le compteur à 0 et on signale
que la condition est en cours
d’évaluation avec la variable locale
Res.
transition iter (i j)
requires { Cpt[i,j] = False && c(j) }
{ Cpt[i,j] := True }
La condition c(j) n’a pas encore été
vériée. Comme elle est vraie on incrémente
le compteur.
transition abort (i j)
requires { Cpt[i,j] = False && ¬c(j) }
{ Res[i] := F }
La condition c(j) n’a pas encore été
vériée mais elle est fausse. On sort
de la boucle, la condition globale est
fausse.
transition exit (i)
requires { forall_other j.
Cpt[i,j] = True }
{ Res[i] := T }
Toutes les conditionsc(j) ont étés véri-
ées. On sort de la boucle, la condition
globale est vraie.
Figure 2.9 – Encodage de l’évaluation non atomique de la condition globale ∀j , i. c(j)
35Chapitre 2 Le model checker Cubicle
pour tous les processus, indépendamment de l’ordre. Cette sous-spécication reste conservatrice.
Il est toutefois possible d’ajouter des contraintes d’ordre sur la variable j si c’est
important pour la propriété de sûreté.
On peut remarquer qu’on se sert d’une garde universelle dans la transition exit. Ceci
n’inue en rien la « non-atomicité » de l’évaluation de la condition car le quanticateur
est seulement présent pour encoder le test Cpt[i] = N.
Remarque. Avec cette garde universelle, on risque de tomber dans le cas d’une fausse alarme
à cause du traitement détaillé en section 3.3 du chapitre suivant. L’intuition apportée par
le modèle de panne franche, nous permet d’identier ces cas problématiques. Si la sûreté
dépend du fait qu’un processus puisse disparaître du système pendant l’évaluation d’une
condition globale, alors on risque de tomber dans ce cas défavorable.
Les versions non atomiques des algorithmes sont bien plus compliquées que leurs
homologues atomiques. Les raisonnements à mettre en œuvre pour dérouler la relation
de transition (aussi bien en avant qu’en arrière) sont plus longs. C’est ce qui en fait des
candidats particulièrement coriaces pour les procédures de model checking.
2.4 Logique multi-sortée et systèmes à tableaux
On a montré dans la section précédente que le langage de Cubicle permet de représenter
des algorithmes d’exclusion mutuelle ou des protocoles de cohérence de cache à l’aide
de systèmes de transitions paramétrés. Le lecteur intéressé par la dénition précise de
la syntaxe concrète et des règles de typage de ce langage trouvera leur description en
annexe A.
Dans cette section, on dénit formellement la sémantique des programmes Cubicle. Pour
ce faire, on utilise le formalisme des systèmes à tableaux conçu par Ghilardi et Ranise [77].
Ainsi, on montre dans un premier temps que chaque transition d’un système paramétré peut
simplement être interprétée comme une formule dans un fragment de la logique du premier
ordre multi-sortée. Ce fragment est déni par l’ensemble des types et variables déclarés au
début du programme (ainsi que ceux prédénis dans Cubicle). Dans un deuxième temps, on
donne une sémantique opérationnelle à ces formules à l’aide d’une relation de transition
entre les modèles logiques de ces formules.
On rappelle ici brièvement les notions usuelles de la logique du premier ordre multisortée
et de la théorie des modèles qui sont utilisées pour dénir les systèmes à tableaux
de Cubicle. Des explications plus amples peuvent être trouvées dans des manuels traitant
du sujet [92, 152]. Le lecteur familier avec ces concepts peut ne lire que la section 2.4.3 qui
présente plus en détail la construction des ces systèmes.
362.4 Logique multi-sortée et systèmes à tableaux
2.4.1 Syntaxe des formules logiques
La logique du premier ordre multi-sortée est une extension classique qui possède essentiellement
les mêmes propriétés que la logique du premier ordre sans sortes [149]. Son
intérêt est qu’elle permet de partitionner les éléments qu’on manipule selon leur type.
Dénition 2.4.1. Une signature Σ est un tuple (S,F ,R) où :
— S est un ensemble non vide de symboles de sorte
— F est un ensemble de symboles de fonction, chacun étant associé à un type de la
forme
— s pour les symboles d’arité 0 (zéro) avec s ∈ S. On appelle ces symboles des
constantes.
— s1 × . . . × sn → s pour les symboles d’arité n, avec s1,. . . ,sn,s ∈ S
— R est un ensemble de symboles de relation (aussi appelé prédicats). On associe à
chaque prédicat d’arité n un type de la forme s1 × . . . × sn avec s1,. . . ,sn ∈ S.
Dans la suite on supposera que le symbole d’égalité = est inclus dans toutes les signatures
qui seront considérées et qu’il a les types s × s quelque soit la sorte s ∈ S
7
. On notera
par exemple par f : s1 × . . . × sn → s un symbole de fonction f dans F dont le type est
s1 × . . . × sn → s.
L’en-tête du chier Cubicle est en fait une façon de donner cette signature. Par exemple
l’en-tête du code de l’exemple du mutex de la section 2.2.1 correspond à la dénition de la
signature Σ suivante :
en-tête Cubicle signature Σ = (S,F ,R)
type state = Idle | Want | Crit
array State[proc] : state
var Turn : proc
S = {state,proc}
F = {Idle : state,Want : state,
Crit : state,
State : proc → state,
Turn : proc}
R = {= : state × state
: proc × proc}
Remarque. Le mot-clef var ne permet pas d’introduire une variable dans la logique mais
permet de déclarer une constante logique avec son type. Le choix des mots-clefs var et
array reète une vision plus intuitive des systèmes Cubicle comme des programmes.
7. On pourrait éviter cette formulation avec un symbole d’égalité polymorphe mais cela demande
d’introduire des variables de type.
37Chapitre 2 Le model checker Cubicle
Remarque. Cubicle connaît en interne les symboles de sorte proc, bool, int et real ainsi
que les symboles de fonction +, −, les constantes 0,1,2,. . . ,0.0,1.0,. . . et les relations < et
≤. Par convention, ils apparaîtront dans la signature Σ seulement s’ils sont utilisés dans le
système.
On distinguera parmi ces signatures celles qui ne permettent pas d’introduire de nouveaux
termes car il est important pour Cubicle de maîtriser la création des processus.
Dénition 2.4.2. Une signature est dite relationnelle si elle ne contient pas de symboles
de fonction.
Dénition 2.4.3. Une signature est dite quasi-relationnelle si les symboles de fonction
qu’elle contient sont tous des constantes.
On dénit les Σ-termes, Σ-atomes (ou Σ-formules atomiques), Σ-littéraux et Σ-formules
comme les expressions du langage déni par la grammaire décrite en gure 2.10. Les types
des variables quantiées ne sont pas indiqués par commodité.
Σ-terme : hti ::= c où c est une constante de Σ
| f (hti, . . . , hti) où f est un symbole de fonction de Σ d’arité
> 0
| ite (hφi, hti, hti)
Σ-atome : hai ::= false | true
| p(hti, . . . , hti) où p est un symbole de relation de Σ
Σ-littéral : hli ::= hai | ¬hai
Σ-formule : hφi ::= hli | hφi ∧ hφi | hφi ∨ hφi | ∀i. hφi | ∃i. hφi
Figure 2.10 – Grammaire de la logique
En plus de cette restriction syntaxique, on impose que les Σ-termes et Σ-atomes soient
bien typés en associant des sortes aux termes :
1. Chaque constante c de sorte s ∈ S est un terme de sorte s.
2. Soient f un symbole de fonction de type s1 × . . . × sn → s, t1 un terme de sorte s1,
. . . , et tn un terme de sorte sn alors f (t1,. . . tn) est un terme de sorte s.
3. Soit p un symbole de relation de type s1 × . . . ×sn. L’atome p(t1,. . . ,tn) est bien typé
ssi t1 est un terme de sorte s1, . . . , et tn est un terme de sorte sn.
382.4 Logique multi-sortée et systèmes à tableaux
On appelle une Σ-clause une disjonction de Σ-littéraux. On dénote par, Σ-CNF (resp.
Σ-DNF) une conjonction de disjonction de littéraux (resp. une disjonction de conjonction
de littéraux).
Conventions et notations
Pour éviter la lourdeur de la terminologie on dénotera par termes, atomes (ou formules
atomiques), littéraux, formules, clauses, CNF et DNF respectivement les Σ-termes, Σ-atomes
(ou Σ-formules atomiques), Σ-littéraux, Σ-formules, Σ-clauses, Σ-CNF et Σ-DNF lorsque le
contexte ne permet pas d’ambiguïté.
Les termes de la forme ite (φcond ,tthen,telse ) correspondent à la construction conditionnelle
classique if φcond then tthen else telse . On suppose l’existence d’une fonction elim_ite
qui prend en entrée une formule sans quanticateurs dont les termes peuvent contenir le
symbole ite et renvoie une formule équivalente sansite. De plus on suppose que elim_ite
renvoie une formule en forme normale disjonctive (Σ-DNF). Par exemple,
elim_ite(x = ite (φ,t1,t2)) = (φ ∧ x = t1) ∨ (¬φ ∧ x = t2)
On notera par i¯ une séquence i1,i2,. . . ,in. Pour les formules quantiées, on écrira
∃x,y. φ (resp. ∀x,y. φ) pour ∃x∃y. φ (resp. ∀x∀y. φ). En particulier, on écrira ∃i¯. φ pour
∃i1∃i2 . . . ∃in. φ.
2.4.2 Sémantique de la logique
Dénition 2.4.4. Une Σ-structure A est une paire (D,I) où D est un ensemble appelé le
domaine de A (ou l’univers de A) et dénoté par dom(A). Les éléments de D sont appelés
les éléments de la structure A. On notera |dom(A)| le cardinal du domaine de A et on dira
qu’une structure A est nie si |dom(A)| est ni. I est l’interprétation qui :
1. associe à chaque sorte s ∈ S de Σ un sous ensemble non vide de D.
2. associe à chaque constante de Σ de type s un élément du sous-domaine I(s).
3. associe à chaque symbole de fonction f ∈ F d’arité n > 0 et de type s1 × . . . × sn → s
une fonction totale I(f ) : I(s1) × . . . × I(sn) → I(s).
4. associe à chaque symbole de relation p ∈ R d’arité n > 0 et de type s1 × . . . × sn une
fonction totale I(p) : I(s1) × . . . × I(sn) → {true,false}.
Cette interprétation peut être étendue de manière homomorphique aux Σ-termes et Σ-
formules – elle associe à chaque terme t de sorte s un élément I(t) ∈ I(s) et à chaque
formule φ une valeur I(φ) ∈ {true,false}.
Dénition 2.4.5. On appelle une Σ-théorie T un ensemble (potentiellement inni) de
Σ-structures. Ces structures sont aussi appelées les modèles de T .
39Chapitre 2 Le model checker Cubicle
Dénition 2.4.6. On dit qu’un Σ-modèle M = (A,I) satisfait une formule φ ssi I(φ) =
true, dénoté par M |= φ.
Dénition 2.4.7. Une formule φ est dite satisable dans une théorie T (ou T -satisable)
ssi il existe un modèle M ∈ T qui satisfait φ.
Une formule φ est dite conséquence logique d’un ensemble Γ de formules dans une théorie
T (et noté par Γ |=T φ) ssi tous les modèles de T qui satisfont Γ satisfont aussi φ.
Dénition 2.4.8. Une formule φ est dite valide dans une théorie T (ou T -valide) ssi sa
négation est T -insatisable, dénoté par T |= φ ou ∅ |=T φ.
Dénition 2.4.9. Soient A et B deux Σ-structures. A est une sous-structure de B, noté
A ⊆ B si dom(A) ⊆ dom(B).
Dénition 2.4.10. Soient A une Σ-structure et X ⊆ dom(A), alors il existe une unique
plus petite sous-structure B de A tel que dom(B) ⊆ X. On dit que B est la sous-structure de
A générée par X et on note B = hXiA.
Les deux dénitions suivantes seront importantes pour caractériser la théorie des processus
supportée par Cubicle.
Dénition 2.4.11. Une Σ-théorie T est localement nie ssi Σ est nie, chaque sous ensemble
ni d’un modèle de T génère une sous-structure nie.
Remarque. Si Σ est relationnelle ou quasi-relationnelle alors toute Σ-théorie est localement
nie.
Dénition 2.4.12. Une Σ-théorie T est close par sous-structure ssi chaque sous-structure
d’un modèle de T est aussi un modèle de T .
Exemple. La théorie ayant pour modèle la structure de domaine N et signature ({int},
{0,1}, {=,≤}) où ces symboles sont interprétés de manière usuelle (comme dans la théorie
de l’arithmétique de Presburger) est localement nie et close par sous-structure. Si on étend
cette signature avec le symbole de fonction + alors elle n’est plus localement nie mais
reste close par sous-structure. Une théorie ayant pour modèle une structure nie, avec une
signature (_,∅,{=,R}) où R est interprétée comme une relation binaire qui caractériserait
un anneau est localement nie mais n’est pas close par sous-structure.
Le problème de la satisabilité modulo une Σ-théorie T (SMT) consiste à établir la
satisabilité de formules closes sur une extension arbitraire de Σ (avec des constantes).
Une extension de ce problème, beaucoup plus utile en pratique, est d’établir la satisabilité
modulo la combinaison de deux (ou plus) théories.
402.4 Logique multi-sortée et systèmes à tableaux
Exemples de théories. La théorie de l’égalité (aussi appelée théorie vide, ou EUF) est
la théorie qui a comme modèles tous les modèles possibles pour une signature donnée.
Elle n’impose aucune restriction sur l’interprétation faite de ses symboles (ses symboles
sont dits non-interprétés). Les fonctions non-interprétées sont souvent utilisées comme
technique d’abstraction pour s’aranchir d’une complexité ou de détails inutiles.
La théorie de l’arithmétique est une autre théorie omniprésente en pratique. Elle est
utilisée pour modéliser l’arithmétique des programmes, la manipulation de pointeurs et de
la mémoire, les contraintes de temps réels, les propriétés physiques de certains systèmes,
etc. Sa signature est {0,1,...,+,−,∗,/,≤} étendue à un nombre arbitraire de constantes, et
ses symboles sont interprétés de manière usuelle sur les entiers et les réels.
Une théorie de types énumérés est une théorie ayant une signature Σ quasi-relationnelle
contenant un nombre ni de constantes (constructeurs). L’ensemble de ses modèles consiste
en une unique Σ-structure dont chaque symbole est interprété comme un des constructeurs
de Σ. Dans ce qui va suivre on verra que ces théories seront utiles pour modéliser les points
de programme de processus et les messages échangés par ces processus dans les systèmes
paramétrés.
2.4.3 Systèmes de transition à tableaux
Cette section introduit le formalisme des systèmes à tableaux conçu par Ghilardi et
Ranise [77]. Il permet de représenter une classe de systèmes de transition paramétrés dans
un fragment restreint de la logique du premier ordre multi-sortée. Pour ceci on aura besoin
des théories suivantes :
— une théorie des processus TP sur signature ΣP localement nie dont le seul symbole
de type est proc, et telle que la TP -satisabilité est décidable sur le fragment sans
quanticateurs
— une théorie d’éléments TE sur signature ΣE localement nie dont le seul symbole
de type est elem, et telle que la TE-satisabilité est décidable sur le fragment sans
quanticateurs. TE peut aussi être l’union de plusieurs théories TE = TE1 ∪ . . . ∪ TEk
,
dans ce cas TE a plusieurs symboles de types elem1, . . ., elemk .
— la théorie d’accès TA sur signature ΣA, obtenue en combinant la théorie TP et la
théorie TE de la manière suivante. ΣA = ΣP ∪ ΣE ∪ Q où Q est un ensemble de
symboles de fonction de type proc × . . . × proc → elemi
(ou constantes de type
elemi
). Étant donnée une structure S, on note par S|ty la structure S dont le domaine
est restreint aux éléments de type ty. Les modèles de TA sont les structures S où
S|proc est un modèle de TP et S|elem est un modèle de TE et S|proc×...×proc→elem est
l’ensemble des fonctions totales de proc × . . . × proc → elem.
41Chapitre 2 Le model checker Cubicle
On suppose dans la suite que les théories TE et TP ne partagent pas de symboles, i.e.
ΣE ∩ ΣP = {=} (seule l’égalité apparaît dans toutes les signatures).
Dénition 2.4.13. Un système (de transition) à tableaux est un triplet S = (Q,I,τ ) avec Q
partitionné en Q0,. . . ,Qm où
— Qi est un ensemble de symboles de fonction d’arité i. Chaque f ∈ Qi a comme
type proc × . . . × proc
| {z }
i fois
→ elemf
. Les fonctions d’arité 0 représentent les variables
globales du système. Les fonctions d’arité non nulle représentent quand à elles les
tableaux (indicés par des processus) du système.
— I est une formule qui caractérise les états initiaux du système (où les variables de Q
peuvent apparaître libres).
— τ est une relation de transition.
La relation τ peut être exprimée sous la forme d’une disjonction de formules quantiées
existentiellement par zéro, une, ou plusieurs variables de type proc. Chaque composante de
cette disjonction est appelée une transition et est paramétrée par ses variables existentielles.
Elle met en relation les variables globales et tableaux d’états avant et après exécution
de la transition. Si x ∈ Q est un tableau (ou une variable globale), on notera par x
′
la
valeur de x après exécution de la transition et par Q
′
l’ensemble des variables et tableaux
après exécution de la transition. La forme générale des transitions qu’on considère est la
suivante :
t(Q,Q
′
) = ∃i¯. γ (i¯,Q)
| {z }
garde
∧
^
x∈Q
∀j¯.x
′
(j¯) = δx (i¯,j¯,Q)
| {z }
action
où
— γ est une formule sans quanticateurs 8
appelée la garde de t
— δx est une formule sans quanticateurs appelée la mise à jour de x
Les variables de Q peuvent apparaître libres dans γ et les δx . Cette formule est équivalente
à la variante suivante où les fonctions x
′
sont écrites sous forme fonctionnelle avec un
lambda-terme :
t(Q,Q
′
) = ∃i¯. γ (i¯,Q) ∧
^
x∈Q
x
′ = λj¯. δx (i¯,j¯,Q)
8. On autorise une certaine forme de quantication universelle dans γ en section 3.3.
422.4 Logique multi-sortée et systèmes à tableaux
Intuitivement, une transition t met en jeu un ou plusieurs processus (les variables
quantiées existentiellement i¯, ses paramètres) qui peuvent modier l’état du système
(cf. Section 2.5). Ici γ représente la garde de la transition et les δx sont les mises à jour
des variables et tableaux d’état. Un tel système S = (Q,I,τ ) est bien décrit par la syntaxe
concrète de Cubicle et de manière analogue, sa sémantique est une boucle innie qui, à
chaque tour, exécute une transition choisie arbitrairement dont la garde γ est vraie, et met
à jour les valeurs des variables de Q en conséquence.
Soit un système S = (Q,I,τ ) et une formule Θ (dans laquelle les variables de Q peuvent
apparaître libres), le problème de la sûreté (ou de l’atteignabilité) est de déterminer s’il
existe une séquence de transitions t1,. . . ,tn dans τ telle que
I (Q
0
) ∧ t1 (Q
0
,Q
1
) ∧ . . . ∧ tn (Q
n−1
,Q
n
) ∧ Θ(Q
n
)
est satisable modulo les théories mises en jeu. S’il n’existe pas de telle séquence, alors S
est dit sûr par rapport à Θ. Autrement dit, ¬Θ est une propriété de sûreté ou un invariant
du système.
Exemple (Mutex). On prend ici l’exemple d’un mutex simple paramétré par son nombre
de processus (dans type proc) dont un aperçu plus détaillé a été donnée en section 2.2.1.
Pour cet exemple, on prendra TP la théorie de l’égalité de signature ΣP = ({proc},∅,{=})
ayant pour symbole de type proc. On considère comme théorie des éléments, l’union
d’une théorie des types énumérés TE de signature ΣE = ({state},{Idle,Want,Crit},{=}) où
Idle, Want, et Crit en sont les constructeurs de type state et de la théorie TP . La théorie
d’accès TA est dénie comme la combinaison de TP et TE. Elle a pour signature ΣA =
ΣP ∪ ΣE ∪ (_,{State,Turn},∅) où State est un symbole de fonction de type proc →
state, et Turn est une constante de type proc.
Avec le formalisme décrit précédemment, le système S = (Q,I,τ ) représentant le problème
du mutex s’exprime de la façon suivante. L’ensemble Q contient les symboles State
et Turn. Les états initiaux du système sont décris par la formule
I ≡ ∀i. State(i) = Idle
La relation de transition τ est la disjonction treq ∨ tenter ∨ texit avec :
treq ≡ ∃i. State(i) = Idle ∧
∀j. State′
(j) = ite (i = j, Want, State(j)) ∧ Turn′ = Turn
tenter ≡ ∃i. State(i) = Want ∧ Turn = i ∧
∀j. State′
(j) = ite (i = j, Crit, State(j)) ∧ Turn′ = Turn
texit ≡ ∃i. State(i) = Crit ∧
∀j. State′
(j) = ite (i = j, Idle, State(j))
43Chapitre 2 Le model checker Cubicle
Enn la formule caractérisant les mauvais états du système est :
Θ ≡ ∃i,j. i , j ∧ State(i) = Crit ∧ State(j) = Crit
La description de ce système faite dans la syntaxe concrète de Cubicle donnée en section
2.2.1 est l’expression directe de cette représentation. Pour plus de simplicité, on notera les
transitions avec le sucre syntaxique (de Cubicle)
transition t (i¯) requires { д } { a }
dans la section suivante. Par exemple, la première transition treq sera notée par
transition treq (i)
requires {State[i] = Idle}
{ State[j]:= case i = j : Want | _ : State′
[j] } .
2.5 Sémantique
La sémantique d’un programme décrit par un système de transition à tableaux dans
Cubicle est dénie pour un nombre de processus donné. On xe n la cardinalité du domaine
proc. C’est-à-dire que tous les modèles qu’on considère dans cette section interprètent le
type proc vers un ensemble à n éléments.
Remarque. On peut aussi voir un Σ-modèle M comme un dictionnaire qui associe les
éléments de Σ aux éléments du domaine de M.
Soit S = (Q,I,τ ) un système à tableaux, et TA la combinaison des théories comme dénie
en section 2.4.3. Dans la suite de cette section, on verra les modèles de TA comme des
dictionnaires associant tous les symboles de ΣA à des éléments de leur domaine respectif.
La première partie de ce chapitre donne au lecteur tous les éléments nécessaires pour
réaliser un interprète du langage d’entrée de Cubicle et s’assurer qu’il soit correct.
2.5.1 Sémantique opérationnelle
On dénit la sémantique opérationnelle du système à tableaux S pour n processus sous
forme d’un triplet K
n = (Sn,In,−→) où :
— Sn est l’ensemble potentiellement inni des modèles de TA où la cardinalité de l’ensemble
des éléments de proc est n.
— In = {M ∈ Sn | M |= I} est le sous ensemble de Sn dont les modèles satisfont la
formule initiale I du système à tableaux S.
442.5 Sémantique
— −→ ⊆ Sn × Sn est la relation de transition d’états dénie par la règle suivante :
transition t (i¯) requires { д } { a }
σ : i¯7→ proc M |= дσ A = all(a,i¯)
M −→ update(Aσ,M)
oùA = all(a,proc) est l’ensemble des actions de a instanciées avec tous les éléments
de proc et σ est une substitution des paramètres i¯ de la transition vers éléments
de proc. L’application de substitution de variables sur les actions s’eectue sur les
termes de droite. On note Aσ l’ensemble des actions de A auxquelles on a appliqué
la substitution σ :
x := t ∈ A ⇐⇒ x := tσ ∈ Aσ
A[i¯] := case c1 : t1
| . . .
| cm : tm
| _ : tm+1
∈ A ⇐⇒
A[i¯] := case c1σ : t1σ
| . . .
| cmσ : tmσ
| _ : tm+1σ
∈ Aσ
update(Aσ,M) est le modèle obtenu après application des actions de Aσ. On dénit
une fonction d’évaluation ⊢I telle que :
M ⊢I e : v ssi l’interprétation de e dans M est v
L’union des dictionnaires M1 ∪ M2 est dénie comme l’union des ensembles des
liaisons lorsque ceux-ci sont disjoints. Lorsque certaines liaisons apparaissent à la
fois dans M1 et M2, on garde seulement celles de M2. On note la fonction update
par le symbole ⊢up dans les règles qui suivent.
M ⊢up a1 : M1 M ⊢up a2 : M2
M ⊢up a1; a2 : M1 ∪ M2
M ⊢I t : v
M ⊢up x := t : M ∪ {x 7→ v}
M 6|= c1 M ⊢up A[i¯]:= case c2:t2 | . . . | _ : tn+1 : M′
M ⊢up A[i¯]:= case c1:t1 | c2:t2 | . . . | _ : tn+1 : M′
M |= c1 M ⊢I t1 : v1 M ⊢I A : fA M ⊢I i¯: vi
M ⊢up A[i¯]:= case c1:t1 | c2:t2 | . . . | _ : tn+1 : M ∪ {A 7→ fA ∪ {vi
7→ v1}}
M ⊢up M ⊢I t : v M ⊢I A : fA M ⊢I i¯: vi
M ⊢up A[i¯]:= case _ : t : M ∪ {A 7→ fA ∪ {vi
7→ v}}
45Chapitre 2 Le model checker Cubicle
Exécuter l’action x := t revient à changer la liaison de x dans le modèle M par la
valeur de t, comme montré par la deuxième règle. L’avant dernière règle dénit quant à
elle l’exécution d’une mise à jour du tableau A en position i¯. Si la première condition c1 de
la construction case est satisable dans le modèle courant, l’interprétation de la fonction
correspondant à A est changée pour qu’elle associe maintenant la valeur de t aux valeurs
de i¯.
Remarque. La construction case du langage de Cubicle est similaire aux constructions
traditionnelles de certains langages de programmation comme le branchement conditionnel
switch . . .case . . .break de C, ou match de ML. En eet les instructions d’un cas sont
exécutées seulement si toutes les conditions précédentes sont fausses. Le dernier cas _
permet de s’assurer qu’au moins une instruction est exécutée. En utilisant la forme logique
de la section 2.4.3, une mise à jour avec case s’exprime sous la forme de termes ite (ifthen-else)
imbriqués. Une fois les ite éliminés, l’ensemble des conditions obtenues forme
une partition (i.e. elles sont mutuellement insatisables et leur disjonction est valide).
Ces règles montrent notamment qu’on évalue les termes des aectations dans le modèle
précédent et non celui qu’on est en train de construire. Le caractère ; dans les actions ne
représente pas une séquence car les actions d’une transition sont exécutées simultanément
et de manière atomique.
Un système paramétré a alors toutes les sémantiques {K
n
| n ∈ N}. On peut aussi voir la
sémantique d’un système à tableaux paramétré comme une fonction qui à chaque n associe
K
n 9
.
2.5.2 Atteignabilité
Ici on ne s’intéresse qu’aux propriétés de sûreté des systèmes à tableaux, ce qui revient
au problème de l’atteignabilité d’un ensemble d’états.
Soit K
n = (Sn,In,−→) un triplet exprimant la sémantique d’un système à tableaux S =
(Q,I,τ ) comme déni précédemment. On note par −→∗
la clôture transitive de la relation
−→ sur Sn. On dit qu’un état s ∈ Sn est atteignable dans K
n
et on note Reachable(s,K
n
) ssi
il existe un état s0 ∈ In tel que
s0 −→∗
s
Soit une propriété dangereuse caractérisée par la formule Θ. On dira qu’un système à
tableaux S est non sûr par rapport à Θ ssi
∃n ∈ N. ∃s ∈ Sn. s |= Θ ∧ Reachable (s,K
n
)
9. On peut remarquer que K
n
est en réalité une structure de Kripke innie pour laquelle on omet la
fonction de labellisation L des états de la structure de Kripke car elle correspond exactement aux modèles, i.e.
L(M) = M.
462.5 Sémantique
Au contraire, on dira que S est sûr par rapport à Θ ssi
∀n ∈ N. ∀s ∈ Sn. s |= Θ =⇒ ¬Reachable (s,K
n
)
2.5.3 Un interpréteur de systèmes à tableaux
À l’aide de la sémantique précédente, on peut dénir diérentes analyses sur un système
à tableaux. Par exemple, un interpréteur de systèmes à tableaux est un programme dont les
états sont des états de K
n = (Sn,In,−→), qui démarre en un état initial de In et qui « suit »
une séquence de transitions de −→.
Comme dans la section précédente, l’interpréteur pour un système à tableaux S =
(Q,I,τ ) représente l’état du programme par un dictionnaire sur Q (i.e. un modèle de TA).
On suppose ici que In est non vide, c’est-à-dire qu’il existe au moins un modèle de I où
proc est de cardinalité n. Dans ce cas, on note Init la fonction qui prend n en argument et
qui retourne un état de In au hasard.
L’interpréteur consiste en une procédure run (Algorithme 3) prenant en argument
le paramètre n et la relation de transition τ . Elle maintient l’état du système dans le
dictionnaire M et exécute une boucle innie qui modie M en fonction des transitions
choisies.
Algorithme 3 : Interpréteur d’un système à tableaux
Variables :
M : l’état courant du programme (un modèle de TA)
procedure run(n,τ ) : begin
M := Init(n);
while true do
let L = enabled(n,τ ,M) in
if L = ∅ then deadlock ();
let a,σ = select(L) in
M := update(all(a,proc)σ,M);
La fonction enabled(n,τ ,M) renvoie l’ensemble des transitions de τ dont la garde est
vraie pour M. Autrement dit,
(transition t (i¯) requires { д } { a }) ∈ enabled(n,τ ,M) =⇒ M |= ∃i¯. д(i¯)
où д est la garde de la transition t et i¯ en sont les paramètres. Si aucune des transitions
n’est possible alors on sort de la boucle d’exécution avec la fonction deadlock. Si M
47Chapitre 2 Le model checker Cubicle
correspond à un état nal du système, le programme s’arrête. Sinon on est dans une
situation d’interblocage (ou deadlock).
La fonction select choisit de manière aléatoire une des transitions de L et retourne les
actions a correspondantes ainsi qu’une substitution σ des arguments vers les éléments du
domaine de proc telle que M |= д(i¯)σ.
Ensuite la fonction update(all(a,proc)σ,M) retourne un nouveau dictionnaire où les
valeurs des variables et tableaux sont mises à jour en fonction des actions de l’instance de
la transition choisie, comme déni précédemment.
Remarque. On peut aussi ajouter une instruction assert(¬M |= Θ) à l’algorithme 3 qui
lève une erreur dès qu’on passe par un état mauvais, i.e. lorsque M |= Θ.
Exemple (Mutex). Prenons l’exemple du mutex de la section précédente avec deux processus
#1 et #2. Une conguration de départ satisfaisant la formule initiale I possible est le
modèle M ci-dessous. En exécutant la transition treq pour le processus #1, on change la
valeur de State(#1) et obtient le nouveau modèle M′
.
M =
F dom(M)
Turn 7→ #2
State 7→
(
#1 7→ Idle
#2 7→ Idle
.
.
.
tr eq [i\#1]
−−−−−−−−−−−−→ M′ =
F dom(M′
)
Turn 7→ #2
State 7→
(
#1 7→ Want
#2 7→ Idle
.
.
.
Maintenant qu’il est aisé de se faire une idée du langage de description et de sa sémantique
qu’on utilise pour les systèmes de transition paramétrés, on montre dans la suite de ce
document comment construire un model checker capable de prouver la sûreté des exemples
de la section 2.2. Les algorithmes présentés dans ce chapitre sont des systèmes jouets, dans
le sens où ils représentent des problèmes de vérication formelle de taille assez réduite.
Cependant les preuves manuelles de ses systèmes paramétrés ne sont pas pour autant
triviales et les outils automatiques sont souvent mis au point sur ce genre d’exemples. On
s’eorcera bien sûr d’expliquer comment développer des algorithmes qui passent à l’échelle
sur des problèmes plus conséquents.
483
Cadre théorique : model checking modulo
théories
Sommaire
3.1 Analyse de sûreté des systèmes à tableaux . . . . . . . . . . . . . . 50
3.1.1 Atteignabilité par chaînage arrière . . . . . . . . . . . . . . . . 50
3.1.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.3 Eectivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Terminaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1 Indécidabilité de l’atteignabilité . . . . . . . . . . . . . . . . . . 57
3.2.2 Conditions pour la terminaison . . . . . . . . . . . . . . . . . . 59
3.2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3 Gardes universelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3.1 Travaux connexes . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3.2 Calcul de pré-image approximé . . . . . . . . . . . . . . . . . . 69
3.3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3.4 Relation avec le modèle de panne franche et la relativisation des
quanticateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4.1 Exemples sans existence d’un bel ordre . . . . . . . . . . . . . . 74
3.4.2 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Le cadre théorique sur lequel repose Cubicle est celui du model checking modulo théories
proposé par Ghilardi et Ranise [77]. C’est un cadre déclaratif dans lequel les systèmes
manipulent un ensemble de tableaux innis d’où le nom de systèmes à tableaux. Un système
est décrit par des formules logiques du premier ordre et des transitions gardées (voir
49Chapitre 3 Cadre théorique : model checking modulo théories
Section 2.4.3). Une des forces de cette approche réside dans l’utilisation des capacités de
raisonnement des solveurs SMT et de leur support interne pour de nombreuses théories. On
rappelle dans ce chapitre les fondements de cette théorie et certains résultats et théorèmes
associés.
Dans la suite de ce chapitre on se donne un système à tableaux S = (Q,I,τ ) et une
formule Θ représentant des états dangereux. Rappelons que la relation τ peut s’exprimer
sous la forme d’une disjonction de transitions paramétrées de la forme :
t(Q,Q
′
) = ∃i¯. γ (i¯,Q)
| {z }
garde
∧
^
x∈Q
∀j¯.x
′
(j¯) = δx (i¯,j¯,Q)
| {z }
action
avecγ et δx des formulessans quanticateurs. Ces restrictions sont très importantes car elles
permettent à la théorie exposée dans ce chapitre de caractériser des conditions susantes
pour lesquelles l’atteignabilité (ou la sûreté) est décidable.
Cubicle implémente le cadre du model checking modulo théories mais va au-delà en
relâchant certaines contraintes, au prix de la complétude et de la terminaison, mais reste
correct.
3.1 Analyse de sûreté des systèmes à tableaux
Cette section présente les conditions sous lesquelles l’analyse de sûreté d’un système à
tableau peut être mise en œuvre de façon eective. En particulier on caractérise un fragment
de la logique qui est clos par les opérations de l’algorithme d’atteignabilité arrière et on
montre que cette approche est correcte.
3.1.1 Atteignabilité par chaînage arrière
Plusieurs approches sont possibles pour résoudre les instances du problème de sûreté
(ou d’atteignabilité). Une première approche consiste à construire l’ensemble des états
atteignables (par chaînage avant) à partir des états initiaux, une autre approche, celle qui
sera adoptée dans la suite, consiste à construire l’ensemble des états qui peuvent atteindre
les mauvais états du système (atteignabilité par chaînage arrière).
Dénition 3.1.1. La post-image d’une formule φ(X) par la relation de transition τ est
dénie par
Postτ (φ)(X
′
) = ∃X. φ(X) ∧ τ (X,X
′
)
Elle représente les états atteignables à partir de φ en une étape de τ .
503.1 Analyse de sûreté des systèmes à tableaux
Dénition 3.1.2. La pré-image d’une formule φ(X
′
) par la relation de transition τ est
dénie par
Preτ (φ)(X) = ∃X
′
. τ (X,X
′
) ∧ φ(X
′
)
De manière analogue la pré-image d’une formule φ(X
′
) par une transition t est dénie par
Pret
(φ)(X) = ∃X
′
. t(X,X
′
) ∧ φ(X
′
)
et donc Preτ (φ)(X) =
W
t∈τ Pret
(φ)(X).
La pré-image Preτ (φ) est donc une formule qui représente les états qui peuvent atteindre
φ en une étape de transition de τ .
La clôture de la pré-image Pre∗
τ
(φ) est dénie par :
Pre0
τ
(φ) = φ
Pren
τ
(φ) = Preτ (Pren−1
τ
(φ))
Pre∗
τ
(φ) =
W
k∈N Prek
τ
(φ)
La clôture de Θ par Preτ caractérise alors l’ensemble des états qui peuvent atteindre
Θ. Une approche générale pour résoudre le problème d’atteignabilité consiste alors à
calculer cette clôture et vérier si elle contient un état de la formule initiale. L’algorithme
d’atteignabilité par chainage arrière présenté ci-après, fait exactement ceci de manière
incrémentale. Si, pendant sa construction de Pre∗
τ
(Θ), on découvre qu’un état initital (un
modèle de I) est aussi un modèle d’un des Pren
τ
(Θ), alors le système n’est pas sûr vis-à-
vis de Θ. Le système est sûr si, a contrario, aucune des pré-images ne s’intersecte avec
I. L’algorithme peut décider une telle propriété seulement si cette clôture est aussi un
point-xe.
Plusieurs briques de base sont nécessaires pour construire un tel algorithme. La première
est d’être capable de calculer les pré-images successives. Pour une recherche en avant, il
faut pouvoir calculer Postn
(I) ce qui est souvent impossible pour les systèmes paramétrés à
cause de la présence de quanticateurs universels dans la formule initiale I. En revanche, le
calcul du Pre est eectif dans les systèmes à tableaux si on restreint la forme des formules
exprimant les états dangereux.
Dénition 3.1.3. On appelle cube une formule de la forme ∃i¯.(∆ ∧ F ), où les i¯sont des
variables de la théorie TP , ∆ est une conjonction de diséquations entre les variables de i¯, et
F est une conjonction de littéraux.
Proposition 3.1.1. Si φ est un cube, la formule Preτ (φ) est équivalente à une disjonction de
cubes.
51Chapitre 3 Cadre théorique : model checking modulo théories
Démonstration. Soit φ = ∃p.(∆ ∧ F ) un cube, Preτ (φ) est la disjonction des Pret
(φ) pour
chaque transition de t de τ .
Prenons une transition t de τ , Pret
(φ)(Q) = ∃Q
′
. t(Q,Q
′
) ∧ ∃p.(∆ ∧ F (Q
′
)) se réécrit en
∃Q
′
. ∃i¯. γ (i¯,Q) ∧
^
x∈Q
x
′ = λj¯. δx (i¯,j¯,Q) ∧ ∃p.(∆ ∧ F (Q
′
)) (3.1)
Par la suite, on utilisera la notation traditionnellement employée en combinatoire
A
k
pour l’ensemble des combinaisons de A de taille k.
Soit j¯ = j1,. . . jk . Étant donné x ∈ Q et x
′ = λj¯. δx (i¯,j¯,Q) une des mises à jour de la
transition t, on notera σx
′ la substitution x
′
(pσ )\δx (i¯,pσ ,Q) pour tout pσ ∈
p
k
. Maintenant,
la formule ∃p.(∆ ∧ F (Q
′
))[σx
′] correspond en essence à la réduction de l’application d’une
lambda expression apparaissant dans l’équation (3.1). La réduction de toutes les lambda
expressions conduit à la formule suivante :
∃Q
′
. ∃i¯. γ (i¯,Q) ∧ ∃p.(∆ ∧ F (Q
′
)[σx
′,x
′
∈ Q
′
])
F (Q
′
)[σx ,x ∈ Q] n’est pas tout à fait sous forme de cube car les σx peuvent contenir des
termes ite. Notons Fd1
(i¯,Q) ∨ . . . ∨ Fdh
(i¯,Q) = elim_ite(F (Q
′
)[σx ,x ∈ Q]) la disjonction
résultant de l’élimination des ite des mises à jour. Les Fd (i¯,Q) sont des conjonctions de
littéraux. En sortant les disjonctions, on obtient :
∃Q
′
.
_
Fd (i¯,Q) ∈elim_ite(F (Q′
)[σx ,x∈Q])
∃i¯. γ (i¯,Q) ∧ ∃p.(∆ ∧ Fd (i¯,Q))
et donc :
Pret
(φ)(Q) =
_
Fd (i¯,Q) ∈ elim_ite(F (Q′
)[σx ,x∈Q])
∃i¯.∃p. (∆ ∧γ (i¯,Q) ∧ Fd (i¯,Q))
Dans ce qui suit on supposera que la formule caractérisant les états dangereux Θ est un
cube. La clôture construite par l’algorithme sera donc une disjonction de cubes et pourra
être vue comme un ensemble de cubes V.
On donne une analyse d’atteignabilité par chaînage arrière classique dans l’algorithme 4.
Cet algorithme maintient une le à priorité Q de cubes à traiter et la clôture partielle ou
l’ensemble des cubes visités V dont la disjonction des éléments caractérise les états pouvant
atteindre Θ. On démarre avec en ensemble V vide matérialisant la formule false et une le
Q où seule la formule Θ est présente.
La fonction BWD calcule itérativement la clôture Pre∗
τ
(Θ) et si elle termine, renvoie un
des deux résultats possibles :
52
Segmentation supervisée d’actions à partir de primitives
haut niveau dans des flux vid´eos
Adrien Chan-Hon-Tong
To cite this version:
Adrien Chan-Hon-Tong. Segmentation supervis´ee d’actions `a partir de primitives haut niveau
dans des flux vid´eos. Signal and Image Processing. Universit´e Pierre et Marie Curie - Paris
VI, 2014. French. .
HAL Id: tel-01084604
https://tel.archives-ouvertes.fr/tel-01084604
Submitted on 19 Nov 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Université Pierre et Marie Curie
École doctorale des Sciences mécaniques,
acoustique, électronique et robotique de Paris
Laboratoire de Vision et Ingénierie des Contenus (CEA, LIST, DIASI)
Segmentation supervisée d’actions à partir de primitives
haut niveau dans des flux vidéos
Par Adrien CHAN-HON-TONG
Thèse de doctorat de Génie informatique, automatique et traitement du signal
Dirigée par Catherine ACHARD
et encadrée par Laurent LUCAT
Présentée et soutenue publiquement le 29/09/2014
Devant un jury composé de :
CAPLIER Alice, Professeur, Rapporteur
CANU Stéphane, Professeur, Rapporteur
CORD Matthieu, Professeur, Examinateur
EL YACOUBI Mounim A., Maitre de conférences, Examinateur
ACHARD Catherine, Maitre de conférences, Directeur de thèse
LUCAT Laurent, Ingénieur – Chercheur, Encadrant de thèseA mes parents.
A ma femme et mes enfants.
Factorisation matricielle, application `a la
recommandation personnalis´ee de pr´ef´erences
Julien Delporte
To cite this version:
Julien Delporte. Factorisation matricielle, application `a la recommandation personnalis´ee de
pr´ef´erences. Other. INSA de Rouen, 2014. French. .
HAL Id: tel-01005223
https://tel.archives-ouvertes.fr/tel-01005223
Submitted on 12 Jun 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.THÈSE
Présentée à :
L’Institut National des Sciences Appliquées de Rouen
En vue de l’obtention du titre de :
Docteur en Informatique
Par :
Julien DELPORTE
Intitulée :
Factorisation Matricielle,
Application à la Recommandation
Personnalisée de Préférences
soutenue le 3 février 2013
Devant le jury composé de :
Rapporteurs : Younès BENNANI - Université Paris-Nord
Gérard GOVAERT - Université de Technologie de Compiègne
Examinateurs : Anne BOYER - Université de Lorraine
Michèle SEBAG - Université Paris-Sud
Dominique FOURDRINIER - Université de Rouen
Directeur : Stéphane CANU - INSA de Rouen
Lh*rs p2p : une nouvelle structure de donn´ees distribu´ee
et scalable pour les environnements Pair `a Pair
Hanafi Yakouben
To cite this version:
Hanafi Yakouben. Lh*rs p2p : une nouvelle structure de donn´ees distribu´ee et scalable pour
les environnements Pair `a Pair. Other. Universit´e Paris Dauphine - Paris IX, 2013. French.
.
HAL Id: tel-00872124
https://tel.archives-ouvertes.fr/tel-00872124
Submitted on 11 Oct 2013
Services de r´epartition de charge pour le Cloud :
application au traitement de donn´ees multim´edia.
Sylvain Lefebvre
To cite this version:
Sylvain Lefebvre. Services de r´epartition de charge pour le Cloud : application au traitement
de donn´ees multim´edia.. Computers and Society. Conservatoire national des arts et metiers -
CNAM, 2013. French. .
HAL Id: tel-01062823
https://tel.archives-ouvertes.fr/tel-01062823
Submitted on 10 Sep 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.CONSERVATOIRE NATIONAL DES
ARTS ET MÉTIERS
École Doctorale Informatique, Télécommunications et Électronique (Paris)
CEDRIC
THÈSE DE DOCTORAT
présentée par : Sylvain LEFEBVRE
soutenue le : 10 Décembre 2013
pour obtenir le grade de : Docteur du Conservatoire National des Arts et Métiers
Spécialité : INFORMATIQUE
Services de répartition de charge pour le Cloud :
Application au traitement de données multimédia
THÈSE dirigée par
M. GRESSIER-SOUDAN Eric Professeur, CEDRIC-CNAM, Paris
Encadrée par
Mme. CHIKY Raja Enseignant-Chercheur, LISITE-ISEP, Paris
RAPPORTEURS
Mme. MORIN Christine Chercheur Titulaire, INRIA-IRISA, Rennes
M. PIERSON Jean-Marc Professeur, IRIT, Université Paul Sabatier, Toulouse
EXAMINATEURS
M. ROOSE Philippe Directeur de recherche, LIUPPA, Pau
M. SENS Pierre Directeur de recherche, LIP6, UPMC, Paris
M. PAWLAK Renaud Directeur technique, IDCapture, Paris
Mme. SAILHAN Françoise Maitre de conférence, CEDRIC-CNAM, Paris"When they first built the University of California at Irvine they just put the buildings in.
They did not put any sidewalks, they just planted grass. The next year, they came back
and put the sidewalks where the trails were in the grass."
Larry WallRemerciements
Les travaux menés durant ces trois ans ont été possible grâce à la confiance et aux
encouragements que mes encadrants Eric Gressier-Soudan, Renaud Pawlak puis Raja Chiky
m’ont accordé, à la fois lors du recrutement et tout au long de ces 36 derniers mois. Je
tiens à remercier particulièrement Raja Chiky, pour son optimisme, ses conseils et ses
encouragements en toutes circonstances.
Je tiens aussi à remercier tous les membres de l’équipe de Recherche et Développement
Informatique du LISITE : Yousra pour les filtres de Bloom, Zakia, Bernard et Matthieu
pour leurs conseils et commentaires avisés, et Olivier pour les probabilités. En restant à
l’ISEP je remercie aussi mes collègues de bureaux : Giang, Sathya, Adam, Ahmad, Fatima,
Maria et Ujjwal.
Mes sincères remerciements vont aux membres du jury qui ont accepté de juger mon travail
: MM. Pierson et Roose, Mme Morin ainsi que le professeur P. Sens pour ses conseils lors
de ma soutenance de mi-parcours et pour m’avoir donné accès à la plateforme GRID5000.
Je dois aussi adresser des remerciements à ceux qui m’ont encouragé dans ma poursuite
d’études : Professeurs B. Marchal, F. Pommereau, M. Bernichi de l’ESIAG et A. Ung
d’Essilor sans lesquels je ne me serais pas lancé dans cette aventure.
Enfin, ce travail n’aurait pu être mené sans les encouragements de ma famille, de mes
amis, et de Clara.
iiiREMERCIEMENTS
ivRésumé
Les progrès conjugués de l’algorithmique et des infrastructures informatiques permettent
aujourd’hui d’extraire de plus en plus d’informations pertinentes et utiles des données issues
de réseaux de capteurs ou de services web. Ces plateformes de traitement de données
"massives" sont confrontées à plusieurs problèmes. Un problème de répartition des données
: le stockage de ces grandes quantités de données impose l’agrégation de la capacité de
stockage de plusieurs machines. De là découle une seconde problématique : les traitements
à effectuer sur ces données doivent être à leur tour répartis efficacement de manière à ne
surcharger ni les réseaux, ni les machines.
Le travail de recherche mené dans cette thèse consiste à développer de nouveaux algorithmes
de répartition de charge pour les systèmes logiciels de traitement de données
massives. Le premier algorithme mis au point, nommé "WACA" (Workload and Cache
Aware Algorithm) améliore le temps d’exécution des traitements en se basant sur des ré-
sumés des contenus stockés sur les machines. Le second algorithme appelé "CAWA" (Cost
Aware Algorithm) tire partie de l’information de coût disponible dans les plateformes de
type "Cloud Computing" en étudiant l’historique d’exécution des services.
L’évaluation de ces algorithmes a nécessité le développement d’un simulateur d’infrastructures
de "Cloud" nommé Simizer, afin de permettre leur test avant le déploiement en
conditions réelles. Ce déploiement peut se faire de manière transparente grâce au système
de distribution et de surveillance de service web nommé "Cloudizer", développé aussi dans
le cadre de cette thèse, qui a servi à l’évaluation des algorithmes sur l’Elastic Compute
Cloud d’Amazon.
Ces travaux s’inscrivent dans le cadre du projet de plateforme de traitement de données
Multimédia for Machine to Machine (MCube). Ce projet requiert une infrastructure
logicielle adaptée au stockage et au traitement d’une grande quantité de photos et de sons,
issus de divers réseaux de capteurs. La spécificité des traitements utilisés dans ce projet a
nécessité le développement d’un service d’adaptation automatisé des programmes vers leur
environnement d’exécution.
Mots clés : Répartition de charge, Cloud, Données Massives
vAbstract
Nowadays, progresses in algorithmics and computing infrastructures allow to extract
more and more adequate and useful information from sensor networks or web services data.
These big data computing platforms have to face several challenges. A data partitioning
issue ; storage of large volumes imposes aggregating several machines capacity. From this
problem arises a second issue : to compute these data, tasks must be distributed efficiently
in order to avoid overloading networks and machines capacities. The research work carried
in this thesis consists in developping new load balancing algorithms for big data computing
software. The first designed algorithm, named WACA (Workload And Cache Aware algorithm)
enhances computing latency by using summaries for locating data in the system.
The second algorithm, named CAWA for "Cost AWare Algorithm", takes advantage of
cost information available on so-called "Cloud Computing" platforms by studying services
execution history. Performance evaluation of these algorithms required designing a Cloud
Infrastructure simulator named "Simizer", to allow testing prior to real setting deployment.
This deployement can be carried out transparently thanks to a web service monitoring and
distribution framework called "Cloudizer", also developped during this thesis work and was
used to assess these algorithms on the Amazon Elastic Compute Cloud platform.
These works are set in the context of data computing platform project called "Multimedia
for Machine to Machine" (MCube). This project requires a software infrastructure
fit to store and compute a large volume of pictures and sounds, collected from sensors. The
specifics of the data computing programs used in this project required the development of
an automated execution environement adaptation service.
Keywords : Load balancing, Cloud Computing, Big Data
viiAvant propos
Cette thèse se déroule dans l’équipe Recherche et Développement en Informatique (RDI)
du laboratoire Laboratoire d’Informatique, Signal et Image, Électronique et Télécommunication
(LISITE) de l’Institut Supérieur d’Électronique de Paris. L’équipe RDI se focalise
principalement sur la thématique des systèmes complexes avec deux axes forts. Le premier
axe vise la fouille de données et l’optimisation dans ces systèmes. L’optimisation est en
effet pour la plupart du temps liée à la traçabilité et à l’analyse des données, en particulier
les données liées aux profils d’utilisation. Le deuxième axe concerne l’étude de langages, de
modèles, et de méthodes formelles pour la simulation et la validation des systèmes complexes,
en particulier les systèmes biologiques et les systèmes embarqués autonomes sous
contraintes fortes.
Les travaux de cette thèse s’inscrivent dans le cadre d’un projet européen de mise au
point de plateforme de services Machine à Machine permettant d’acquérir et d’assurer
l’extraction et l’analyse de données multimédia issues de réseaux de capteurs. Ce projet,
baptisé Mcube pour Multimedia for machine to machine (Multimédia pour le machine à
machine) est développé en partenariat avec le fond Européen de Développement Régional
et deux entreprises de la région Parisienne : CAP 2020 et Webdyn. Il permet de réunir les
différentes problématiques de recherches de l’équipe RDI au sein d’un projet commun, en
partenariat avec les membres de l’équipe de recherche en traitement du signal du LISITE.
La particularité de ce projet est qu’il se concentre sur la collecte de données multimédias.
Les difficultés liées au traitement de ces données nécessitent de faire appel à des
technologies spécifiques pour leur stockage. Cette plateforme ne se limite pas au stockage
des données, et doit fournir aux utilisateurs la possibilité d’analyser les données récupérées
en ligne. Or, ces traitements peuvent s’exécuter dans un environnement dynamique soumis
à plusieurs contraintes comme le coût financier, ou la consommation énergétique. La répartition
des traitements joue donc un rôle prépondérant dans la garantie de ces contraintes. La
répartition des données sur les machines joue aussi un rôle important dans la performance
des traitements, en permettant de limiter la quantité de données à transférer.
Ces travaux ont été encadrés par Dr. Renaud Pawlak puis suite à son départ de
l’ISEP en septembre 2011, par Dr. Raja Chiky, sous la responsabilité du professeur Eric
Gressier-Soudan de l’équipe Systèmes Embarqués et Mobiles pour l’Intelligence Ambiante
du CEDRIC-CNAM.RÉSUMÉ
xTable des matières
1 Introduction 1
2 MCube : Une plateforme de stockage et de traitement de données multimédia
9
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Architecture du projet MCube . . . . . . . . . . . . . . . . . . . . . 9
2.1.2 Problématiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Composants des plateformes de stockage de données multimédia . . . . . . . 12
2.2.1 Stockage de données multimédia . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Distribution des traitements . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.3 Plateformes génériques de traitements de données multimédias . . . 20
2.3 Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Architecture de la plateforme MCube . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Architecture matérielle . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.2 Architecture logicielle . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.3 Architecture de la plateforme MCube . . . . . . . . . . . . . . . . . . 24
2.4.4 Description des algorithmes de traitement de données multimédia . . 26
2.5 Développement du projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
xiTABLE DES MATIÈRES
3 Le framework Cloudizer : Distribution de services REST 31
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Architecture du canevas Cloudizer . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1 Les nœuds . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.2 Le répartiteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.3 Déploiement de services . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3 Intégration au projet MCube . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Considérations sur l’implémentation . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4 Simizer : un simulateur d’application en environnement cloud 41
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.1 Simulateurs de Cloud existants . . . . . . . . . . . . . . . . . . . . . 42
4.2 Architecture de Simizer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Couche Evénements . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.2 Couche architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.3 Fonctionnement du processeur . . . . . . . . . . . . . . . . . . . . . 48
4.2.4 Exécution d’une requête . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 Utilisation du simulateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.1 Génération de nombres aléatoires . . . . . . . . . . . . . . . . . . . . 53
4.4.2 Fonctionnement des processeurs . . . . . . . . . . . . . . . . . . . . . 55
4.5 Discussion et travaux futurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5 Algorithmes de répartition de charge 59
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
xiiTABLE DES MATIÈRES
5.2 Classification et composition des algorithmes de répartition de charge . . . . 61
5.2.1 Familles d’algorithmes de répartition de charge . . . . . . . . . . . . 61
5.2.2 Composition d’algorithmes de répartition de charge . . . . . . . . . . 63
5.3 Algorithmes de répartition par évaluation de la charge . . . . . . . . . . . . 65
5.4 Algorithmes de répartition fondés sur la localité . . . . . . . . . . . . . . . . 66
5.4.1 Techniques exhaustives . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.4.2 Techniques de hachage . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.4.3 Techniques de résumé de contenus . . . . . . . . . . . . . . . . . . . 69
5.5 Stratégies basées sur le coût . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.6 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6 WACA : Un Algorithme Renseigné sur la Charge et le Cache 77
6.1 Contexte et Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.1.1 Localité des données pour les traitements distribués . . . . . . . . . 77
6.2 Filtres de Bloom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.2.1 Filtres de Bloom Standards (FBS) . . . . . . . . . . . . . . . . . . . 80
6.2.2 Filtres de Bloom avec compteurs (FBC) . . . . . . . . . . . . . . . . 82
6.2.3 Filtres de Bloom en Blocs (FBB) . . . . . . . . . . . . . . . . . . . . 82
6.3 Principe Général de l’algorithme WACA . . . . . . . . . . . . . . . . . . . . 83
6.3.1 Dimensionnement des filtres . . . . . . . . . . . . . . . . . . . . . . . 84
6.3.2 Choix de la fonction de hachage . . . . . . . . . . . . . . . . . . . . . 85
6.4 Algorithme sans historique (WACA 1) . . . . . . . . . . . . . . . . . . . . . 87
6.4.1 Tests de WACA 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.5 Algorithme avec historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.5.1 Compléxité de l’algorithme et gain apporté . . . . . . . . . . . . . . 92
6.5.2 Experimentation de WACA avec historique . . . . . . . . . . . . . . 93
xiiiTABLE DES MATIÈRES
6.6 Block Based WACA (BB-WACA) . . . . . . . . . . . . . . . . . . . . . . . . 95
6.6.1 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . 95
6.6.2 Analyse de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.7 Evaluation de la politique BB WACA . . . . . . . . . . . . . . . . . . . . . 102
6.7.1 Évaluation par simulation . . . . . . . . . . . . . . . . . . . . . . . . 102
6.7.2 Évaluation pratique sur l’Elastic Compute Cloud . . . . . . . . . . . 107
6.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7 CAWA : Un algorithme de répartition basé sur les les coûts 113
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.2 Approche proposée : Cost AWare Algorithm . . . . . . . . . . . . . . . . . . 115
7.2.1 Modélisation du problème . . . . . . . . . . . . . . . . . . . . . . . . 116
7.2.2 Avantages de l’approche . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.3 Phase de classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.3.1 Représentation et pré-traitement des requêtes . . . . . . . . . . . . . 118
7.3.2 Algorithmes de classification . . . . . . . . . . . . . . . . . . . . . . . 120
7.4 Phase d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.4.1 Matrice des coûts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.4.2 Résolution par la méthode Hongroise . . . . . . . . . . . . . . . . . . 122
7.4.3 Répartition vers les machines . . . . . . . . . . . . . . . . . . . . . . 123
7.5 Évaluation par simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.5.1 Preuve de concept : exemple avec deux machines . . . . . . . . . . . 124
7.5.2 Robustesse de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . 125
7.6 Vers une approche hybride : Localisation et optimisation des coûts . . . . . 127
7.7 Conclusion et travaux futurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8 Conclusion 131
xivTABLE DES MATIÈRES
A Cloud Computing : Services et offres 139
A.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
A.2 Modèles de services . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
A.2.1 L’Infrastructure à la Demande (Infrastructure as a Service) . . . . . 140
A.2.2 La Plateforme à la demande (Platform as a Service) . . . . . . . . . 140
A.2.3 Le logiciel à la demande (Software As a Service) . . . . . . . . . . . 141
A.3 Amazon Web Services . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
B Code des politiques de répartition 143
B.1 Implémentation de WACA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
B.2 Implémentation de l’algorithme CAWA . . . . . . . . . . . . . . . . . . . . . 145
C CV 147
Bibliographie 149
Glossaire 161
Index 163
xvTABLE DES MATIÈRES
xviListe des tableaux
2.1 Propriétés des systèmes de traitements de données multimédias . . . . . . . 23
3.1 Protocole HTTP : exécution de services de traitement de données . . . . . . 37
4.1 Lois de probabilité disponibles dans Simizer . . . . . . . . . . . . . . . . . . 44
4.2 Résultats des tests du Chi-2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3 Comparaison de Simizer et CloudSim, temps d’exécution de tâches . . . . . 56
6.1 Configurations des tests de la stratégie WACA . . . . . . . . . . . . . . . . 103
A.1 Caractéristiques des instances EC2 . . . . . . . . . . . . . . . . . . . . . . . 141
xviiLISTE DES TABLEAUX
xviiiTable des figures
2.1 Architecture du projet MCube . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Architecture pour la fouille de données multimédia . . . . . . . . . . . . . . 12
2.3 Architecture de la plateforme MCube . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Modèle de description d’algorithme . . . . . . . . . . . . . . . . . . . . . . . 27
3.1 Architecture de la plateforme Cloudizer . . . . . . . . . . . . . . . . . . . . 33
3.2 Modèle des stratégies de répartition de charge . . . . . . . . . . . . . . . . . 35
4.1 Architecture de Simizer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2 Entités de gestion des événements . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 Entités de simulation système . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Comparaison des distributions aléatoires de Simizer . . . . . . . . . . . . . . 54
5.1 Stratégies de sélection possibles [GPS11, GJTP12] . . . . . . . . . . . . . . 64
5.2 Graphique d’ordonnancement, d’après Assunçao et al. [AaC09] . . . . . . . 72
6.1 Relation entre nombre d’entrées/sorties et temps d’éxécution . . . . . . . . 78
6.2 Exemples de Filtres de Bloom . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.3 Description de l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.4 Comparaison des fonctions MD5, SHA-1 et MumurHash . . . . . . . . . . . 86
6.5 Mesures du temps d’exécution des requêtes, WACA version 1 . . . . . . . . 90
xixTABLE DES FIGURES
6.6 Mesures du temps d’exécution des requêtes, WACA version 2 . . . . . . . . 93
6.7 Comparaisons de WACA 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . . . 94
6.8 Flot d’exécution de l’algorithme BB WACA . . . . . . . . . . . . . . . . . . 96
6.9 Schéma du tableau d’index . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.10 Complexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.11 Distribution des temps de réponses simulés, 1000 requêtes, distribution Uniforme
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.12 Distribution des temps de réponses simulés, 1000 requêtes, distribution Gaussienne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.13 Distribution des temps de réponses simulés, 1000 requêtes, distribution Zip-
fienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.14 Répartition des requêtes sur 20 machines, (Zipf) . . . . . . . . . . . . . . . 107
6.15 Résultats de simulation : temps de sélection des machines . . . . . . . . . . 108
6.16 Résultats d’exécutions sur le cloud d’Amazon . . . . . . . . . . . . . . . . . 110
7.1 Description de la phase de classification / optimisation . . . . . . . . . . . . 116
7.2 Distribution cumulative des temps de réponses, 2 machines . . . . . . . . . 124
7.3 CAWA : Distribution cumulative des temps de réponse, 10 machines . . . . 126
xxChapitre 1
Introduction
Ces dernières années, le besoin de traiter des quantités de données de plus en plus grandes
s’est fortement développé. Les applications possibles de ces analyses à grande échelle vont
de l’indexation de pages web à l’analyse de données physiques, biologiques ou environnementales.
Le développement de nouvelles plateformes de services informatiques comme les
réseaux de capteurs et les "nuages", ces plateformes de services de calcul à la demande,
accentuent ce besoin tout en facilitant la mise en œuvre de ces outils. Les réseaux de capteurs
ne sont pas une technologie récente, mais la capacité de traiter des grandes quantités
de données issues de ces réseaux est aujourd’hui facilement accessible à un grand nombre
d’organisations, en raison du développement de l’informatique en "nuage" : le Cloud Computing.
Ce nouveau modèle de service informatique est, d’après la définition du National
Institute of Standards and Technologies (NIST), un service mutualisé, accessible par le ré-
seau, qui permet aux organisations de déployer rapidement et à la demande des ressources
informatiques [MG11]. Dans ce contexte, les applications combinant plateformes d’acquisition
de données autonomes et les "nuages" pour traiter les données acquises, se développent
de plus en plus et permettent de fournir de nouveaux services en matière d’analyse de données,
dans le domaine commercial [Xiv13], ou académique [BMHS13, LMHJ10].
1Cadre applicatif
Les travaux de cette thèse s’inscrivent dans le cadre d’un projet de recherche financé
par le Fond Européen de DEveloppement Régional (FEDER) d’Ile de France 1, nommé
Multimedia pour le Machine à Machine (MCube) 2. Ce projet consiste à mettre au point
un ensemble de technologies permettant de collecter, transférer, stocker et traiter des données
multimédias collectées à partir de passerelles autonomes déployées géographiquement.
L’objectif est d’en extraire des informations utiles pour les utilisateurs du service. Par
exemple, il peut s’agir de détecter la présence d’une certaine espèce d’insecte nuisible dans
un enregistrement sonore, afin de permettre à l’agriculteur d’optimiser le traitement insecticide
de ses cultures, en épandant que lorsque cela est nécessaire.
Ce projet pose plusieurs difficultés de réalisation : en premier lieu, l’intégration et le
stockage de volumes de données importants, pouvant venir de différentes sources comme un
réseau de capteurs ou de multiples services WEB, implique de sélectionner les technologies
appropriées pour traiter et stocker ces données[Lan01]. À titre d’exemple, les cas d’études
utilisés pour le projet MCube consistent en un suivi photographique du développement de
plans de tomates et des écoutes sonores pour la détection de nuisibles. Ces deux cas d’études
effectués sur un seul champ durant les trois campagnes d’acquisition du projet (2011,2012
et 2013) ont nécessité la collecte d’un téraoctet et demi de données, soit environ 466,6
gigaoctets par utilisateur et par an. Le service définitif devant s’adresser à un nombre plus
important de clients, l’espace requis pour ces deux applications représentera donc un volume
non négligeable, en utilisation réelle. Le deuxième aspect de ces travaux consiste à mettre
au point un système pouvant adapter ces applications à un environnement dynamique
tel que les plateformes de cloud computing, de manière à pouvoir bénéficier de ressources
importantes à la demande lorsqu’un traitement le requiert.
La troisième difficulté concerne les traitements d’images eux mêmes, qui sont réalisés
par des scientifique ayant peu ou pas d’expériences de la programmation exceptés dans
des langages spécifiques comme MATLAB 3, dont l’utilisation sur les plateforme de type
1. http://www.europeidf.fr/index.php, consulté le 5 octobre 2013
2. http://mcube.isep.fr/mcube, consulté le 5 octobre 2013
3. http://www.mathworks.fr/products/matlab/, consulté le 5 octobre 2013
2"nuage" n’est pas facile. En effet, ces programmes ne sont pas écrits par des experts de la
programmation parallèle ou des calculs massifs, mais sont écrits pour traiter directement
un ou deux fichiers à la fois. Or, le contexte du projet MCube impose de traiter de grandes
quantités de fichiers avec ces mêmes programmes, ce qui requiert un système permettant
de les intégrer le plus simplement possible dans un environnement parallèle.
Ces trois verrous s’inscrivent dans des problématiques scientifiques plus larges liées aux
"nuages" et aux services distribués en général.
Problématiques scientifiques
Les problématiques scientifiques abordées dans ce document sont au nombre de trois.
La première d’entre elle consiste à assurer la répartition de requêtes dans un système
distribué déployé sur un "Cloud", en tenant compte des aspects particuliers de ce type
de plateformes. La deuxième problématique, plus spécifique au projet MCube, concerne
l’adaptation automatique de traitements à leur environnement d’exécution. Troisièmement,
Le développement de nouvelles stratégies de répartition a nécessité de nombreux tests en
amont du déploiement sur une infrastructure réelle, or il n’existe pas, à notre connaissance,
de simulateur d’applications distribuées sur le "cloud" approprié pour tester ce type de
développements.
Distribution de requêtes dans le "Cloud" Les stratégies de répartition fournies par
les services de "Cloud Computing" sont limitées dans leurs fonctionnalités ou leur capacité.
Par exemple, le répartiteur élastique de la plateforme Amazon Web Services (ELB : Elastic
Load Balancer), distribue les requêtes selon une stratégie en tourniquet (Round Robin)
sur les machines les moins chargées du système 4. Seule cette stratégie de répartition est
disponible pour les utilisateurs. Or, les applications déployées sur les plateformes d’informatique
en nuage sont diverses, par conséquent une stratégie générique n’est pas toujours
adaptée pour obtenir la meilleure performance du système. De plus, Liu et Wee [LW09]
ont démontré que déployer son propre répartiteur d’applications web sur une machine vir-
4. https://forums.aws.amazon.com/message.jspa?messageID=129199#129199, consulté le 5 octobre
2013
3tuelle dédiée était plus économique et permettait de répondre à un plus grand nombre de
requêtes concurrentes que le service de répartition de charge élastique fournit par Amazon.
Les fournisseurs de plateformes Cloud imposent souvent à leurs utilisateurs des stratégies
de répartition génériques pour pouvoir répondre à un grand nombre de cas d’utilisation,
mais ces stratégies ne sont pas toujours les plus efficaces : Un exemple notable est celui de
la plateforme Heroku 5, qui utilisait une stratégie de répartition aléatoire pour attribuer
les requêtes à différents processeurs. Or, cette répartition aléatoire se faisait sans que les
multiples répartiteurs du système ne communiquent entre eux pour surveiller la charge
des machines. Par conséquent, certains répartiteurs envoyaient des requêtes vers des machines
déjà occupées, ce qui créait des files d’attentes inattendues 6. Utiliser des stratégies
de répartition de charge appropriées, tenant compte des spécificités des plateformes de
type "Cloud Computing" est donc indispensable. Les spécificités de ces plateformes sont
notamment :
Des performances difficilement prévisibles : L’infrastructure physique de ces plateformes
est partagée par un grand nombre d’utilisateurs (cf. annexe A). La consé-
quence de ce partage est qu’en fonction de l’utilisation des ressources faite par les multiples
utilisateurs, il peut arriver que deux machines virtuelles identiques sur le papier
ne fournissent pas obligatoirement le même niveau de performance [BS10, IOY+11].
Des latences réseaux plus élevées : La taille des centres de données utilisés dans les
plateformes de Cloud Computing, ainsi que leur répartition géographique a pour
conséquence une latence plus importante dans les communications réseaux, qu’il
convient de masquer le plus possible à l’utilisateur final.
Une plateforme d’informatique à la demande doit donc permettre aux utilisateurs de choisir
la stratégie de distribution la plus adaptée à leur cas d’utilisation. De plus, il est nécessaire
de prendre en compte les spécificités de ces environnements pour développer de nouvelles
stratégies de répartition adaptées.
5. https://www.heroku.com/, consulté le 5 octobre 2013
6. https://blog.heroku.com/archives/2013/2/16/routing_performance_update, consulté le 5 octobre
2013
4Adaptation d’applications de traitements de données multimédia Ces nouvelles
plateformes sont par définition simples d’utilisation, flexibles et économiques. Cependant,
pour tirer parti des avantages de ces services, il est nécessaire de mettre en place des processus
automatisés de déploiement, de distribution et de configuration des applications
[AFG+09, ZCB10, MG11]. Les plateformes de cloud computing promettent à leurs utilisateurs
l’accès à une infinité de ressources à la demande, mais toutes les applications ne
sont pas nécessairement conçues pour être distribuées dans un environnement dynamique.
Quelles sont donc les caractéristiques des applications pouvant être déployées dans les environnements
de type "Cloud Computing" ? Quels mécanismes peuvent être mis en œuvre
pour assurer le déploiement de ces applications de manière plus ou moins transparente ?
Comment amener ces traitements à s’exécuter de manière distribuée ou parallèle pour
pouvoir tirer parti des avantages fournis par les plateformes de "Cloud Computing" ?
Test et performance A ces questions s’ajoute la problématique du test de l’application.
Il n’existe à ce jour pas de simulateur fiable permettant d’évaluer le comportement
d’applications déployées dans le Cloud, car les efforts actuels, tels que les simulateurs
CloudSim[RNCB11] et SimGrid[CLQ08], se concentrent sur la simulation des infrastructures
physiques supportant ces services plutôt que sur les applications utilisant ces services
[SL13]. Or, le développement de protocoles et d’algorithmes distribués nécessite des tests
sur un nombre important de machines. L’ajustement de certains paramètres peut requé-
rir de multiples tests sur diverses configurations (nombre de machines, puissance, type de
charge de travail), mais il n’est pas toujours aisé de devoir déployer des tests grandeur
nature pour ce type d’ajustements. Il faut donc développer ou adapter les outils existants
pour faciliter ces tests, en fournissant une interface de programmation de haut niveau pour
développer les protocoles à tester, sans que l’utilisateur n’ait à programmer à la fois la
simulation et le protocole qu’il souhaite étudier.
Approche développée
L’approche développée pour répondre à ces problématiques a consisté à mettre au
point une plateforme de distribution de services web destinée aux environnements de type
5Service d’Infrastructure à la Demande (Infrastructure As A Service, IaaS, cf. annexe A),
permettant de déployer et de distribuer des services web ou des applications en ligne de
commande en les transformant en services Web. Cette application, nommée Cloudizer, a
permis l’étude de différentes stratégies de distribution et de leur impact sur les différentes
applications déployées à travers plusieurs publications [PLCKA11, SL12, LKC13].
Cette plateforme a été utilisée dans le projet MCUBE, pour distribuer les programmes
de traitements des images collectées. Les volumes de données concernés par ce projet sont
tels que l’utilisation d’une stratégie de distribution des requêtes fondée sur la localité
des données [DG04, PLCKA11] permet de réduire efficacement les temps de traitement.
Dans ce domaine, les algorithmes de distribution les plus utilisés sont ceux fondés sur la
technique du hachage cohérent [KLL+97, KR04], qui est mise en œuvre dans plusieurs
systèmes de stockage de données massives. Le but de ces travaux est de montrer à travers
différentes simulations que les filtres de Bloom [Blo70, FCAB98, DSSASLP08] peuvent
être facilement combinés à d’autres algorithmes de répartition de charge, pour fournir une
alternative performante au hachage cohérent, dans certaines conditions. Ce travail a permis
la mise au point d’une stratégie de répartition de charge fondée sur des filtres de Bloom
indexés appelée WACA (Workload And Cache Aware Algorithm, Algorithme Renseigné
sur la Charge et le Cache).
Les Clouds de type Infrastructure à la Demande constituent l’environnement de déploiement
cible de ces services. La propriété de ces plateformes est de facturer leurs services
à l’utilisation. Afin de prendre ce facteur en compte, nous avons développé une stratégie
fondée sur le coût comme indicateur de performance, et nommée CAWA (Cost-AWare Algorithm,
Algorithme Renseigné sur le Coût) dont le fonctionnement a été testé à travers
des simulations. Tel que montré en section 1 de cette introduction, il n’existe pas encore
de simulateur adéquat pour les utilisateurs de plateformes de Cloud Computing. Le logiciel
Simizer a donc été développé pour permettre la simulation d’applications orientées services
déployées sur des infrastructures Cloud. Ce simulateur a permis de simuler et tester
les stratégies de distribution développées pour la plateforme Cloudizer, et d’étudier leur
comportement à large échelle.
6Organisation du présent document
Le reste de ce document est organisé en deux parties principales. La première partie,
composée des chapitres 2 à 4, décrit les développements des différentes plateformes logicielles
évoquées dans la section précédente. Le chapitre 2 présente les particularités du
projet MCube et ce qui le différencie des plateformes de traitement de données multimédia
existantes. Le chapitre 3 décrit le fonctionnement de la plateforme Cloudizer et son utilisation
dans le cadre du projet MCUBE, puis le chapitre 4 décrit les particularités et le
fonctionnement du simulateur Simizer.
La seconde partie de ce document se concentre sur les stratégies de distribution de
requêtes mises au point au cours de cette thèse. L’état de l’art en matière de répartition
de charge est présenté dans le chapitre 5. les chapitres suivants décrivent respectivement
la stratégie WACA, (chapitre 6), qui utilise des résumés compacts pour assurer une distribution
des tâches en fonction de la localisation des données dans le système, et la stratégie
CAWA (chapitre 7) qui se fonde sur une estimation du coût d’exécution des tâches pour effectuer
la répartition. Le chapitre 8 présentera les conclusions et perspectives de l’ensemble
de ces travaux.
78Chapitre 2
MCube : Une plateforme de stockage
et de traitement de données
multimédia
2.1 Introduction
L’objectif technique du projet MCube (Multimedia 4 Machine 2 Machine) est de développer
une technologie Machine à Machine pour la capture et l’analyse de données multimédia
par des réseaux de capteurs avec des problématiques de faible consommation et de
transmission GPRS/EDGE. Le projet couvre la chaîne complète : l’acquisition des données,
la transmission, l’analyse, le stockage, et le service d’accès par le WEB. Il s’appuie sur les
infrastructures M2M actuellement offertes par les opérateurs du secteur comme les réseaux
3G/GPRS pour la communication des données. Le but de cette plateforme est de fournir
des services d’analyse de données multimédia à faible coût permettant diverses applications
telles que la surveillance de cultures et de sites industriels (détections d’intrusions ou
d’insectes nuisibles).
2.1.1 Architecture du projet MCube
L’architecture globale de la technologie MCube correspond à l’état de l’art en matière
d’architecture M2M et est résumée en figure 2.1. Les "passerelles" sont des systèmes embarqués
permettant de piloter des périphériques d’acquisition de données multimédia comme
des appareils photos ou des microphones USB. Les passerelles assurent la transmission des
92.1. INTRODUCTION
Figure 2.1 – Architecture du projet MCube
données collectées vers la plateforme MCube, via une connexion 3G si un accès Ethernet
n’est pas disponible. La communication s’effectue via le protocole HTTP. La plateforme
est un serveur accessible via le web, dont le rôle consiste à :
Stocker les données collectées La plateforme assure le stockage des données multimé-
dia capturées et remontées par les passerelles. Ceci nécessite un large espace de stockage
redondant et distribué afin de limiter les risques de pertes de données, ainsi
que des méthodes efficaces pour retrouver les données stockées.
Configurer les passerelles Le système offre la possibilité de communiquer avec les passerelles
afin de les mettre à jour dynamiquement et de changer différents paramètres
tels que le type de capture à effectuer (sons, images ou vidéos) ou la fréquence de ces
captures. Cette communication se fait via une interface de programmation prenant
la forme d’un service web REST[Fie00], déployée sur les serveurs de la plateforme.
Traiter et analyser les données multimédia Les utilisateurs du système MCube peuvent
développer leurs propres programmes d’analyse de données, et les stocker sur la plateforme
pour former leur propre bibliothèque de traitements. Ces traitements doivent
pouvoir être exécutés par lots, en parallèle sur un grand nombre de fichiers, mais aussi
en temps réel au fur et à mesure de la collecte des données.
Par conséquent, mis à part le rôle de communication avec les passerelles, la plateforme
MCube devrait reposer sur une base de données multimédia. Ces systèmes stockent et
102.1. INTRODUCTION
traitent des données en volumes importants (plusieurs giga/téraoctets). Les données concernées
peuvent être de types différents (sons, images, vidéos,...) et sont séparées en un nombre
important de petits fichiers pouvant provenir de différents périphériques d’acquisition. De
plus, ces données sont généralement peu ou pas structurées. Afin d’assurer l’efficacité des
traitements sur les données multimédia, il est nécessaire de les exécuter de façon parallèle.
À nouveau, le résultat de ces traitements doit être stocké dans le système, ce qui permet
la réutilisation des données pour des analyses supplémentaires. La somme de toutes ces
données exige une capacité de stockage importante.
2.1.2 Problématiques
Une contrainte primordiale du projet MCube est d’aboutir à un service suffisamment
flexible pour pouvoir être personnalisé à chaque scénario d’utilisation, dans le but d’optimiser
le modèle économique du client en fonction de nombreux critères. Ainsi, les traitements
des données multimédia pourront être faits aussi bien côté passerelle que côté plateforme
suivant les critères à optimiser. La plateforme fournira des services d’aide à la décision
permettant d’optimiser au mieux la solution. Les choix d’architecture logicielle décrits en
section 2.4 reflètent ces besoins.
La plateforme MCube permet d’exécuter des analyses poussées sur les données reçues
des passerelles. Les algorithmes utilisés pour ces analyses sont souvent soit expérimentaux,
soit développés spécifiquement pour certains clients, et ne sont pas disponibles dans les librairies
de traitements de données multimédias existantes telles que Image Terrier[HSD11]
ou OpenCV[Bra00]. La conséquence est que ces algorithmes ne sont pas toujours directement
parallélisables. Or, la collecte d’un nombre important de fichiers dans les passerelles
MCube impose de pouvoir être en mesure d’exécuter les traitements sur une grande quantité
de données en parallèle.
Cet état de fait a des conséquences sur les choix d’architecture à effectuer car il est
nécessaire de fournir un accès aux données à la fois au niveau fichier pour que les données
soient accessibles aux différents programmes de traitements et un accès automatisé, via une
interface de programmation, pour permettre aux utilisateurs d’interroger leurs données en
temps réel.
112.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
Ce chapitre expose donc dans un premier temps les composants des systèmes de stockage
et de traitement de données multimédias en section 2.2, et analyse les différentes
plateformes existantes de ce domaine par rapport aux besoins de la plateforme MCube en
section 2.3. La section 2.4 décrit la solution adoptée pour la mise au point de l’architecture
de la plateforme MCube et les problématiques qui découlent de ces choix sont discutées en
section 2.6.
2.2 Composants des plateformes de stockage de données multimédia
Il est possible de définir une plateforme de traitement de données multimédias comme
un système logiciel distribué permettant de stocker des fichiers contenant des données
photographiques, vidéos ou sonores, et de fournir les services nécessaires à l’extraction et
au stockage d’informations structurées issues de ces fichiers.
Les systèmes d’analyse de données multimédia possèdent un ensemble hiérarchisé de
composants permettant de transformer les données brutes en informations précises [CSC09,
HSD11]. Le schéma 2.2 montre l’articulation de ces différents composants, que l’on retrouvera
dans la plupart des systèmes décrits dans ce chapitre.
Données
multimédias
Extraction
descripteurs
Stockage
descripteurs
Indexation
Detection
Index
informations
Figure 2.2 – Architecture pour la fouille de données multimédia
Le premier composant de ces systèmes correspond à la couche de stockage des données.
Ce composant doit assurer le stockage et la disponibilité des données brutes, c’est à dire
les documents audiovisuels dans leur format d’origine (RAW, MPEG, AVI, WAV), mais
aussi des données intermédiaires nécessaires pour les traitements (les descripteurs) et les
résultats des algorithmes d’indexation et d’analyse.
Les descripteurs permettent de décrire le contenu des documents audiovisuels stockés
122.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
dans le système. Il s’agit de représentations intermédiaires des données multimédias, comme
par exemple les valeurs obtenues après l’application d’une transformée de Fourrier à un enregistrement
sonore. Il existe un nombre important de représentations différentes, chacune
dépendant du type d’information que l’utilisateur souhaite extraire des données collectées.
Les systèmes de stockage multimédia fournissent une bibliothèque d’algorithmes divers
permettant de procéder à l’extraction de plusieurs types de représentations.
À partir de ces descripteurs, l’information obtenue peut être traitée de plusieurs manières
: elle peut être utilisée pour construire un index des données afin de faciliter la
recherche de contenu dans la banque de données multimédia (indexation), ou bien les données
peuvent être traitées pour en extraire des informations précises, à travers l’utilisation
d’algorithmes de détection d’objets, d’artefacts ou de mouvements (détection).
Les composants génériques décrits dans cette section sont présents dans la plupart des
systèmes évoqués dans la suite de ce chapitre. Chaque système doit cependant relever un
certain nombre de défis pour parvenir à indexer ou extraire des informations des contenus.
2.2.1 Stockage de données multimédia
Les données multimédia sont dans la plupart des cas des données extrêmement riches en
informations et donc très volumineuses. Les données ainsi stockées doivent aussi faire l’objet
de traitements et pré-traitements, dont il faut stocker les résultats pour pouvoir les analyser
à l’aide d’outils appropriés. Les volumes de stockage atteints deviennent très vite handicapant
pour les systèmes de gestion de base de données traditionnels. Différentes stratégies de
stockage distribué peuvent être utilisées pour résoudre ce problème. Les données multimé-
dias recouvrent généralement des espaces disque importants et sont difficilement compressibles
sans perte d’information. Par conséquent, la distribution des données sur plusieurs
machines à la fois apparaît comme la solution simple et économique. Plusieurs stratégies
coexistent dans le domaine pour parvenir à ce but : les données peuvent être stockées dans
un système de fichiers distribué [SKRC10], dans une base de données distribuée [Kos05] ou
encore dans une base de données distribuée non relationnelle [Cor07, CDG+06].
132.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
Système de fichiers distribués Un système de fichiers distribué est un système dans
lequel l’espace disque de plusieurs machines est mis en commun et vu par toutes les machines
du système comme une seule entité de manière transparente. Cela permet d’augmenter
l’espace disponible en partageant la capacité des disques de chaque machine du système,
ou d’augmenter la fiabilité du système en autorisant la réplication des données. Des
exemples de systèmes de fichiers distribués sont le Network File System (NFS) [SCR+00],
XTreemFS[HCK+07] ou encore le Hadoop Distributed File System [SKRC10].
Cette approche est utilisée dans de nombreux projets de stockage et de traitement de
données multimédia. Par exemple, les projets RanKloud [Can11] et ImageTerrier [HSD11]
reposent sur le système de fichiers distribué issu du projet Hadoop, le Hadoop Distributed
File System [SKRC10]. Ce système de fichiers a la particularité de ne permettre que l’ajout
et la suppression de fichiers. La modification des données n’est pas possible. Cette limitation
ne pose pas de problème dans les systèmes de stockage et traitement de données multimédia,
car les fichiers bruts ne font pas l’objet de modifications internes, mais sont copiés puis lus
plusieurs fois de suite.
Ce type de système est particulièrement adapté lorsque les données doivent être traitées
en parallèle sur plusieurs machines par divers programmes, comme dans le système de
traitement de données parallèle Hadoop [Whi09].
Stockage en base de données La solution la plus directe pour fournir l’accès à des
données dans une plateforme de services est la mise au point d’une base de données relationnelle.
D’après [Kos05] l’arrivée dans les années 90 des systèmes de bases de données
orientés objets tels qu’Informix 1 ou Oracle 2 a permis l’émergence de systèmes plus efficaces
pour représenter les données multimédia. Les standards MPEG-7 [MPE12b] et MPEG-
21 [Mpe12a], par exemple, ont fourni un cadre de représentation des données multimédia
pouvant servir de référence pour la mise au point de schémas de base de données spéci-
fiques. C’est cette approche qui a été retenue dans le projet de “base de donnée MPEG-7”,
développée par M. Döller et décrite dans [Döl04]. En utilisant un système de gestion de
bases de données objet, M. Döller a créé un nouveau schéma respectant le format de re-
1. http://www.ibm.com/software/data/informix/, consulté le 5 octobre 2013
2. http://www.oracle.com/us/products/database/overview/index.html, consulté le 5 octobre 2013
142.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
présentation fourni par le standard MPEG-7. Afin de parvenir à utiliser le langage SQL
pour rechercher les données, les méthodes d’indexation ont aussi été étendues pour pouvoir
indexer des données multi-dimensionnelles. Ceci permet aux utilisateurs de bénéficier de
tous les mécanismes des bases de données traditionnelles et notamment d’utiliser le langage
SQL pour la manipulation et la recherche de données multimédia. Les fichiers sont stockés
soit en tant qu’objets binaires (BLOBs), comme simples champs d’une table, soit dans le
système de fichiers, et seul le chemin vers les données figure dans la base.
La principale limite de cette approche réside dans le fait que le système soit implémenté
comme une extension du système commercial de bases de données Oracle. Il est donc
difficilement envisageable d’ajouter de nouvelles fonctionnalités au système, en raison de
l’interface de programmation de bas niveau nécessaire à ces changements. L’autre limite de
cette approche est que le système n’est pas distribué, or, le volume de données généralement
associé avec les bases de données multimédia peut nécessiter un fonctionnement réparti
afin de multiplier la capacité de stockage et de traitement, ce qui n’est pas le cas dans ces
travaux.
Bases de données distribuées : Les bases de données distribuées permettent d’agréger
la capacité de stockage de plusieurs machines au sein d’un seul système de base
de données. Retenue par K. Chatterjee et al. [CSC09], cette approche consiste à
utiliser les capacités existantes de systèmes de bases de données distribuées, comme
par exemple MySql Cluster 3, et à adapter la base de données en ajoutant un index
réparti permettant de retrouver rapidement les données recherchées sur l’ensemble
des machines.
IrisNet [GBKYKS03] est un réseau de capteurs pair à pair sur lequel les images et données
des différents capteurs sont stockées dans une base de données XML. Les nœuds
sont divisés en deux catégories : les "Sensing Agents" (SA) qui sont des machines
de puissance moyenne reliées aux capteurs (webcam, météo, . . . ) et les "Organizing
Agents" (OA) qui sont des serveurs sur lesquels sont déployés les services du réseau
de capteurs. Les capteurs eux-mêmes sont des machines de puissance moyenne, avec
peu ou pas de contraintes environnementales, et un espace de stockage important.
3. http://www.mysql.com, consulté le 5 octobre 2013
152.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
Ces nœuds appelés “Sensing Agents” sont utilisés pour déployer des “Senselets”, qui
filtrent les données issues des capteurs. La base de données est distribuée sur les OA.
Les utilisateurs peuvent requêter la base de données en utilisant le langage XPATH
(langage de requêtage de données XML).
Ces deux approches reposent sur les systèmes de base de données traditionnels fournissant
de fortes garanties de cohérence des données, suivant le principe ACID (Atomicité,
Cohérence, Isolation, Durabilité). Or, il a été démontré que lorsque la taille
d’un système distribué augmente, fournir une garantie sur la cohérence des données
du système ne permet pas d’assurer à la fois disponibilité et la performance de
celui-ci. C’est le théorème de CAP, Consistency, Availability et Partition Tolerance
(Cohérence, Disponibilité et Tolérance aux partitions) démontré par Gilbert et Lynch
dans [GL02]. Les systèmes multimédias distribués ne nécessitent pas de supporter de
fortes garanties de cohérence sur les données : les fichiers à traiter ne sont écrits
qu’une seule fois puis lus à plusieurs reprises pour mener à bien les analyses voulues.
Par conséquent, certains acteurs ont construit leur propre système de gestion de données
multimédia en s’abstrayant de ces garanties, comme Facebook 4 l’a fait avec le
système Haystack [Vaj09]. Les composants de ce système ne reposent pas sur une base
de données relationnelle mais sur un index distribué permettant de stocker les images
dans des fichiers de grandes tailles (100Go), ce qui permet de grouper les requêtes et
de réduire les accès disques nécessaires à l’affichage de ces images. La particularité
de ce système est que les images y sont peu recherchées, mais sont annotées par les
utilisateurs pour y ajouter des informations sur les personnes présentes dans l’image
et la localisation de la prise de vue.
Un autre exemple de base de données distribuée utilisée pour stocker les données
multimédia est celui de Youtube 5, qui utilise la base de données orientée colonnes
BigTable [CDG+06, Cor07], pour stocker et indexer les aperçus de ses vidéos.
Agrégation de bases de données : Le canevas AIR créé par F. Stiegmaier et al. [SDK+11]
se concentre sur l’extensibilité en utilisant un intergiciel pour connecter plusieurs
bases de données entre elles, et utilise des requêtes au format MPEG-7 [MPE12b].
4. http://facebook.com, consulté le 5 octobre 2013
5. http://youtube.com, consulté le 5 octobre 2013
162.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
Cependant ces travaux restent dirigés sur la recherche de contenus plutôt que sur
la détection d’éléments précis dans les images. Les données et leurs métadonnées
(descripteurs) sont réparties sur différents systèmes de gestion de bases de données
(SGBD) pouvant fonctionner sur différentes machines. Lorsque le système reçoit une
requête, deux cas se présentent : soit les nœuds sont homogènes et la requête est envoyée
à chaque machine puis les résultats sont fusionnés et / ou concaténés, soit les
nœuds sont des systèmes différents (bases de données différentes) et seule la partie la
plus adaptée de la requête est transmise au noeud le plus approprié. Les intergiciels
LINDO[BCMS11] et WebLab[GBB+08] fournissent des modèles de représentations
de données communs à plusieurs systèmes et permettent les transferts de données
entre des services de traitements adoptant ce modèle. Ces systèmes ne reposent sur
aucun système de stockage particulier mais permettent d’agréger différentes sources
de données et différents services de traitements hétérogènes. La problématique de
cette approche est la nécessité de devoir adapter les services et les traitements au
modèle exposé par les interfaces d’un tel système.
Une grande variété de solutions existent au problème du stockage des données multimédia.
Un critère de choix possible est le type d’utilisation qui sera fait des données : par
exemple un système d’extraction des connaissances fonctionnera mieux avec un système
de fichiers distribué dans lequel les données sont accessibles de manière transparente, au
contraire d’une base de donnée SQL qui requiert une interface particulière pour accéder
aux données stockées. Dans le cadre du projet MCube l’accès aux données doit être possible
de plusieurs manières : il faut pouvoir fournir un accès permettant de traiter les données
en parallèle ainsi qu’une interface permettant de requêter les données générées par les ré-
sultats des analyses effectuées. Le système se rapprochant le plus de ce cas d’utilisation est
donc l’utilitaire HADOOP [Whi09], qui fournit à la fois un système de haut niveau pour
requêter les données et un accès de bas niveau via le système de fichiers distribué.
2.2.2 Distribution des traitements
Un volume important de données à analyser se traduit par la nécessité de paralléliser
le traitement des données, de manière à réduire les temps d’exécution. Cependant, tous
172.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
les systèmes de stockage de données multimédia ne permettent pas de traitement parallèle
des données. Dans le domaine des traitements de données multimédia il est possible de
distinguer deux manières de traiter les données[Can11] : les traitements à la chaîne (Multiple
Instruction Multiple Data, MIMD) et les traitements parallèles (Single Instruction
Multiple Data, SIMD).
Traitements à la chaîne : Multiple Instruction Multiple Data Le système est
constitué de plusieurs unités, chacune exécutant une étape particulière d’une chaine de
traitements. Les données passent d’une étape à l’autre en étant transférées d’une entité
à l’autre, de sorte que plusieurs données sont à différents stades de traitement au même
instant.
Le projet WebLab [GBB+08] est une architecture de traitement de données multimé-
dia orientée service qui permet de faciliter le développement d’applications distribuées de
traitement multimédia. Cette plateforme repose sur un modèle de données commun à tous
ses composants représentant une ressource multimédia. Ce modèle ne repose pas sur un
standard mais permet de créer des ressources conformes au standard MPEG-7. La raison
de ce choix est que le standard MPEG-7 a été créé en 2002 et ne permet pas de bénéficier
des dernières avancées en matière de descripteurs de données multimédias. Cette repré-
sentation générique permet d’associer à chaque ressource des “annotations” représentant le
contenu extrait de la ressource (appelés “morceaux de connaissance”). Les services disponibles
se divisent en services d’acquisition, services de traitements, services de diffusion.
Le modèle de données commun permet à ces différents services de pouvoir être composés
pour créer des flux de traitements, de l’acquisition à la diffusion du contenu multimédia.
Cette solution se veut très flexible et générique mais ne propose pas de solution en ce qui
concerne la répartition des traitements.
Le système SAPIR (Search in Audio-visual content using Peer-to-peer Information Retrieval)
[KMGS09] est un moteur de recherche multimédia implémentant la recherche par
l’exemple : il permet de retrouver à partir d’un document multimédia donné les documents
similaires ou correspondant au même objet. SAPIR utilise le Framework apache
UIMA [UIM12] pour extraire les informations nécessaires à l’indexation des données au
182.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
format MPEG-7. Les flux ou fichiers reçus sont divisés en plusieurs modalités : par exemple
dans le cas d’une vidéo, un “splitter” va séparer le son des images, puis la suite d’images
va aussi être divisée en plusieurs images fixes, chaque élément ainsi extrait va ensuite être
traité par un composant spécifique pour le son, la vidéo et les images le tout de façon parallèle.
Une fois la phase d’extraction terminée le fichier d’origine est recomposé en intégrant
les métadonnées qui en ont été extraites. UIMA rend la main au système SAPIR, qui va
insérer le fichier dans son index distribué en se basant sur les métadonnées que le fichier
contient désormais. Le système utilise une architecture pair à pair pour stocker et répartir
les données.
Cependant, la dépendance du système SAPIR avec Apache UIMA, destine ce système
uniquement à la recherche de contenus multimédia plutôt qu’à servir de plateforme de
traitement de données multimédia générique.
Traitement en parallèle : Single Instruction Multiple Data (SIMD) Ce type de
système sépare les étapes du traitement dans le temps plutôt que dans l’espace : à chaque
étape du traitement, toutes les machines du système exécutent le même traitement en
parallèle sur l’ensemble des données. C’est le modèle suivi par le framework Hadoop [Whi09]
pour traiter les données. Ce framework générique de traitement de données massives en
parallèle est utilisé dans plusieurs systèmes de traitements de données multimédia. Par
exemple, les travaux menés dans le cadre du projet RanKloud [Can11] utilisent et étendent
le framework HADOOP [Whi09] pour répondre à des requêtes de classement, ainsi que
pour permettre des jointures dans les requêtes portant sur plusieurs ensembles de données.
Pour cela le système échantillonne les données et évalue statistiquement leur répartition
pour optimiser certaines procédures (notamment les opérations de jointures). Un index des
données locales est construit sur chaque machine du système, permettant à chaque nœud
de résoudre les requêtes localement et d’envoyer les résultats à une seconde catégorie de
nœuds qui assureront la finalisation des requêtes. Cependant ce système est conçu pour
analyser une grande quantité de données et non pas pour répondre à des requêtes en temps
réel, et se destine plutôt à des requêtes de recherche de contenus.
Le projet Image Terrier [HSD11] est un système d’indexation et de recherche d’images
192.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
et de vidéos fondé sur le système de recherche textuelle Terrier 6. Ce système utilise lui
aussi la technique de distribution des traitements fournie par le canevas HADOOP afin de
construire incrémentalement l’index des images. Ce système présente l’avantage d’être très
ouvert, mais il est uniquement destiné à la recherche de contenus.
Limites des outils existants Ces deux types de répartitions ne sont pas exclusives
et les deux approches peuvent être combinées de manière à augmenter l’efficacité d’un
système. Il est ainsi possible de créer des flux de travaux enchaînant différentes étapes de
traitement ou les exécutant en parallèle. La principale limite des outils existants réside
dans le fait que les traitements répartis font partie d’une bibliothèque logicielle utilisant
un canevas donné, comme ImageTerrier [HSD11] et Hadoop. Or, dans le projet MCube,
les traitements à répartir sont codés et compilés sans suivre d’API ou de canevas logiciel
particulier. Il est aussi parfois nécessaire d’exécuter les traitements à la demande au fur
et à mesure de l’arrivée des données. Dans ce contexte il apparait donc nécessaire de faire
appel à des plateformes de plus haut niveau permettant d’adapter les traitements à leur
contexte d’exécution.
2.2.3 Plateformes génériques de traitements de données multimédias
La recherche en matière de traitement des données multimédia se concentre aussi pour
une large part sur la conception de nouveau algorithmes d’extraction d’informations. Le
système doit fournir un catalogue de services permettant de procéder aux extractions de
données et aux analyses voulues par l’utilisateur. Cette librairie doit être extensible afin de
permettre aux utilisateurs d’y implanter leurs propres analyses. L’ouverture d’un système
se mesure à sa disponibilité, et à sa capacité à s’interfacer avec d’autres systèmes de manière
à pouvoir être utilisé dans différents contextes. Plusieurs systèmes de stockage évoqués dans
ce chapitre sont décrits dans la littérature mais ne sont pas disponibles pour évaluation,
du fait du peu de cas d’utilisations qu’ils permettent de résoudre. Par exemple le système
Haystack développé par Facebook ne fait pas l’objet d’un développement à l’extérieur
de l’entreprise. Le projet RanKloud bien que décrit dans diverses publications, n’est pas
6. http://terrier.org/, consulté le 5 octobre 2013
202.2. COMPOSANTS DES PLATEFORMES DE STOCKAGE DE DONNÉES
MULTIMÉDIA
publiquement disponible. De même, peu de projets sortent du simple cadre du prototype
de recherche, comme par exemple le projet LINDO [BCMS11].
Le projet LINDO [BCMS11] a pour objectif de développer une infrastructure géné-
rique de traitement de données multimédia permettant de distribuer les traitements et
les données, en assurant l’interopérabilité de différents systèmes de traitement de données
multimédias. Il a permis la mise au point d’une infrastructure d’indexation générique et
distribuée. Pour cela, un modèle de données représentatif a été créé pour les données multimédia
et pour les algorithmes d’indexation de ces données. Les données sont donc réparties
sur un système de fichiers distribué et le système sélectionne l’algorithme d’indexation le
plus approprié en fonction des requêtes les plus féquemment envoyées par l’utilisateur. Ce
système a été appliqué à la vidéosurveillance, pour détecter des événements dans les flux vidéo.
C’est une plateforme multi-utilisateurs, qui peut être utilisée dans plusieurs domaines
à la fois, et permet de représenter les données au format MPEG-7 ou MPEG-21. Cependant
les informations ne sont extraites qu’à la demande explicite des utilisateurs (à travers
une requête) et traversent toutes un serveur central qui contrôle les machines indexant
les contenus. Ce système risque donc de limiter l’élasticité de la solution. L’élasticité d’un
système est sa capacité à s’adapter à l’apparition ou la disparition dynamique de nouvelles
ressources. Cette notion est particulièrement importante dans le contexte des plateformes
de Cloud Computing, où les ressources peuvent être allouées et disparaître rapidement.
Le projet WebLab est un projet libre 7, il est construit sur le même principe d’interface
et de modèle d’échange de données que le projet LINDO. Le projet WebLab ne modélise
pas les traitements, mais seulement le format des données à échanger entre différentes
plateformes de traitements hétérogènes. Ce système repose sur le bus de service Petals 8
pour ses communications, or ce composant semble posséder des problèmes de performance
comme le montre les résultats de différents bancs d’essais successifs 9.
Ces deux systèmes servent donc d’intergiciels pour la communication entre différentes
plateformes de traitements et permettent l’agrégation de différents sites ou grilles spécialisés
7. http://weblab-project.org/, consulté le 5 octobre 2013
8. http://petals.ow2.org/, consulté le 5 octobre 2013
9. http://esbperformance.org/display/comparison/ESB+Performance+Testing+-+Round+6,
consulté le 5 octobre 2013
212.3. ANALYSE
dans certaines étapes de traitement.
Le propos du projet MCube est au contraire de concentrer les données des différents
utilisateurs afin de mutualiser la plateforme de traitement et permettre des économies
d’échelles en matière de stockage et de capacité de calcul. Ce projet se situe à un niveau
intermédiaire entre les systèmes de traitements de données de bas niveau (ImageTerrier,
Hadoop, ...) et ces plateformes de fédération que sont les projets LINDO et WebLab.
Il s’agit donc d’un système multi-tenant, car il sert plusieurs clients en mutualisant ses
ressources.
2.3 Analyse
Les systèmes de stockage et de traitements multimédias décrits ici possèdent diverses
architectures. Les architectures fondées sur les bases de données traditionnelles laissent
peu à peu place à des systèmes basés sur les technologies issues des plateformes Web à
large échelle telles que le canevas Hadoop [Whi09]. Bien que l’adoption de ces solutions se
démocratise, il n’existe pas pour le moment d’alternative permettant de tirer parti des différents
services de ces plateformes sans nécessiter de développement supplémentaire pour
être adapté à l’environnement cible. De plus, hormis les initiatives telles que LINDO, Weblab
ou ImageTerrier, peu de projets dépassent le stade du prototype de recherche. Pour
une large part, ces projets servent de plateformes d’évaluation des algorithmes d’extraction
de connaissances et d’indexation, ou sont orientés vers la recherche de contenus. Le
tableau 2.1 résume les propriétés disponibles pour chacun des systèmes listés dans les sections
précédentes, par rapport aux défis décrits dans la section 2.1.2 de ce chapitre.
L’examen des différentes plateformes de stockage et de traitement de données multimé-
dias montre qu’il n’existe pas, actuellement, de projets remplissant le cahier des charges du
projet MCube. Il existe des plateformes de traitements de données génériques, qui ne sont
pas spécialisées dans les données multimédia, comme le canevas Hadoop, et qui peuvent
donc servir de base à la plateforme MCube.
222.4. ARCHITECTURE DE LA PLATEFORME MCUBE
Table 2.1 – Propriétés des systèmes de traitements de données multimédias
Stockage Traitements Mutualisation ouverture Elasticité
Système Données Descripteurs Informations Descripteurs Indexation Informations
Mpeg-7 DB oui oui non oui oui non oui non non
AIR distribué distribué non oui distribué non oui non limitée
Lindo distribué distribué non distribué distribué oui oui limitée limitée
Weblab distribué distribué non non non non oui limitée limitée
SAPIR distribué distribué non oui oui non oui limité oui
IrisNet distribué distribué distribués oui distribué oui oui oui oui
[CSC09] distribué distribué non oui distribué non oui non oui
RanKloud distribué distribué non distribué distribué non oui non oui
Haystack distribué distribué distribués distribué distribué oui non non oui
ImageTerrier distribué distribué non distribué distribué non non oui oui
2.4 Architecture de la plateforme MCube
2.4.1 Architecture matérielle
Passerelles MCube. Les passerelles MCube sont des appareils mis au point par la
société Webdyn 10. Il s’agit d’un système embarqué reposant sur le système Linux et un
processeur ARM. La présence du système d’exploitation complet permet de connecter
divers périphériques d’acquisition de données multimédias comme des appareils photos ou
des micros. Le système de la passerelle exécute un planificateur de tâches pouvant être
configuré à distance en recevant des commandes depuis les serveurs MCube. Le rôle des
passerelles est d’assurer l’exécution à intervalles réguliers (configurés par l’utilisateur) d’un
programme appelé "librairie passerelle" actuellement déployé sur le système. Les passerelles
sont équipées d’un port Ethernet et d’un modem 3G permettant de se connecter à internet
pour dialoguer avec le serveur MCube.
Serveurs MCube. Les serveurs MCube sont trois machines Dell équipées chacune de
deux processeurs intel Xeon embarquant 8 cœurs chacun. L’espace de stockage important
sur les machines (8 téraoctets par serveur) permet d’anticiper sur la quantité de données
à stocker dans le cadre du projet MCube, dont les collectes annuelles peuvent représenter
dans certains cas plusieurs centaines de gigaoctets par mois.
10. http://www.webdyn.com, consulté le 5 octobre 2013
232.4. ARCHITECTURE DE LA PLATEFORME MCUBE
2.4.2 Architecture logicielle
L’architecture logicielle du projet MCube a été conçue de manière à permettre aux
utilisateurs de pouvoir eux-mêmes développer les applications déployées sur les passerelles
et la plateforme. Pour cela, une interface de programmation a été mise au point par le
constructeur de la passerelle, la société WebDyn 11, permettant de séparer les tâches d’acquisition
des données de leur planification. Les composants développés sur cette interface
sont appelés "librairies passerelles". Les librairies de passerelles sont des librairies dynamiques
implantant les fonctions de l’interface de programmation MCube, ce qui permet de
les déployer à la demande depuis la plateforme Web du projet. Ces librairies sont développées
pour remplir deux fonctions principales :
– L’acquisition des données : C’est la fonction essentielle de ces librairies, elle consiste
à piloter les différents périphériques de capture de données multimédia connectés à
la passerelle pour acquérir des données brutes : photos, sons, vidéos.
– Filtrage des données : Dans certains cas, les données capturées peuvent être volumineuses.
Par exemple, un cas d’utilisation possible du service MCube consiste à
détecter la présence d’insectes nuisibles à partir d’enregistrements sonores. Dans ce
cas précis les données enregistrées ne sont envoyées au serveur que lorsqu’un signal
suspect est détecté dans l’enregistrement. Un traitement plus précis exécuté à la
demande sur le serveur permet ensuite de confirmer ou d’infirmer la détection.
La communication entre les passerelles et les serveurs repose sur un protocole HTTP/
REST qui permet aux passerelles :
– d’envoyer des données collectées à la plateforme MCube via le serveur Web,
– de recevoir une nouvelle librairie,
– de recevoir des commandes à transmettre à la librairie déployée sur la passerelle.
2.4.3 Architecture de la plateforme MCube
La plateforme MCube a un rôle de gestion des équipements et d’agrégation d’information.
Elle assure la communication avec les passerelles déployées, en permettant aux
utilisateurs de les configurer à l’aide d’une interface web. La plateforme fournit aux utilisa-
11. http://www.webdyn.com/, consulté le 5 octobre 2013
242.4. ARCHITECTURE DE LA PLATEFORME MCUBE
teurs l’accès aux librairies et programmes d’analyse de données qu’ils ont développés. Les
données transférées par les passerelles sont stockées sur les serveurs de la plateforme, et
une interface web permet aux utilisateurs de lancer ou de programmer les analyses qu’ils
souhaitent exécuter sur les données téléchargées depuis les passerelles. L’architecture finale
de la plateforme MCube repose sur trois composants logiciels :
Demandes de
traitements
mcube.isep.fr Cloudizer
Utilisateurs
Passerelles
Envoi de données
Consultation des données
Configuration
HDFS
HDFS
HDFS
Noeuds de stockage / traitement
Stockage / consultation
données passerelles et traitements
Requêtes de traitements
Service Web
MCube
Figure 2.3 – Architecture de la plateforme MCube
L’interface Web C’est l’interface utilisateur du système. Elle permet aux agriculteurs
de gérer leurs passerelles et d’accéder à leurs données afin de les récupérer dans le
format qu’ils souhaitent ou de lancer / planifier les traitements à effectuer. De plus
l’interface permet aux utilisateurs de charger de nouveaux programmes de traitements
de données.
Le canevas Hadoop Le système Hadoop permet de stocker les données de manière répartie
via le système de fichiers distribué HDFS [SKRC10]. Il permet d’avoir un système
de fichiers redondant pouvant accueillir un grand nombre de machines. De plus, les
données ainsi stockées peuvent être accédées à l’aide de langages de plus haut niveau
tel que le langage de requêtage HQL (Hive Query Language) [TSJ+09]
252.4. ARCHITECTURE DE LA PLATEFORME MCUBE
Le canevas Cloudizer Le framework Cloudizer est un canevas logiciel développé durant
cette thèse qui permet de distribuer des requêtes de services web à un ensemble de
machines. Ce système est utilisé pour traiter les fichiers envoyés par les passerelles
au fur et à mesure de leur arrivée dans le système.
La figure 2.3 montre comment s’articulent les différents composants de la plateforme.
Les données de configuration, les informations utilisateurs, et les coordonnées des passerelles
sont stockées dans une base de données SQL traditionnelle (MySql 12). Les données
remontées par les passerelles, ainsi que les librairies et les programmes d’analyses sont
stockés dans le système HDFS [SKRC10].
Chaque utilisateur possède un répertoire dédié sur le système de fichiers distribué. Ce
répertoire contient les fichiers reçus des passerelles et classés par nom de la librairie d’origine
des données. Les résultats des traitements effectués sur ces données sont stockés dans un
répertoire dédié et classés par noms de traitements et date d’exécution. Ceci permet aux
utilisateurs de pouvoir retrouver leurs données de manière intuitive.
Les utilisateurs peuvent choisir deux modes de traitement des données : un mode évé-
nementiel et un mode planifié. Lorsque le mode événementiel est sélectionné, l’utilisateur
définit le type d’événement déclenchant le traitement voulu : ce peut par exemple être l’arrivée
d’un nouveau fichier ou le dépassement d’un certain volume de stockage. Le traitement
est alors exécuté sur les données désignées par l’utilisateur. Le mode planifié correspond
à une exécution du traitement régulière et à heure fixe. Le déclenchement des traitements
est géré par la plateforme Cloudizer décrite dans le chapitre suivant.
2.4.4 Description des algorithmes de traitement de données multimédia
Les utilisateurs de la plateforme peuvent charger de nouveaux algorithmes de traitement
de données multimédia. Pour que le système puisse utiliser cet algorithme, il est nécessaire
d’en fournir une description afin de le stocker dans la base de données. Le terme "algorithme"
désigne ici par abus de langage l’implantation concrète d’un algorithme donné,
compilée sous la forme d’un programme exécutable. Un modèle type de ces algorithmes
a donc été conçu, il est représenté en figure 2.4. Ce schéma est inspiré des travaux sur
12. www.mysql.com, consulté le 5 octobre 2013
262.4. ARCHITECTURE DE LA PLATEFORME MCUBE
l’adaptation de composants de [AGP+08, BCMS11] et [GBB+08].
Figure 2.4 – Modèle de description d’algorithme
Un programme et l’ensemble de ses fichiers sont décrits par la classe "Algorithm". Cette
classe contient une liste qui permet de spécifier les fichiers exécutables et de configurations
nécessaires à l’exécution du programme. Un programme est généralement exécuté avec des
paramètres fournis sur l’entrée standard, la liste des paramètres (la classe "Parameter")
décrit les paramètres à fournir à l’exécutable ainsi que leurs positions et préfixes respectifs
si besoin. La classe "OutputFormat" permet de décrire le type de donnée en sortie de
l’exécution du programme. Par exemple, la sélection du format ”TextOuput” signifie que
la sortie du programme sur l’entrée standard correspond à des données textes tabulaires,
séparées par un caractère spécifique. D’autres formats sont disponibles et peuvent être
ajoutés à la librairie.
Exemple de modèle d’algorithme : Calcul de tailles de tomates Le listing 2.1
présente un exemple de modèle d’algorithme pour un programme développé dans le cadre
du projet MCube. Dans ce cas d’utilisation, un dispositif expérimental a été mis au point
par les membres de l’équipe de traitement du signal de l’ISEP, afin de prendre en photo un
272.4. ARCHITECTURE DE LA PLATEFORME MCUBE
plant de tomates selon deux angles différents. Grâce à ce décalage et un calibrage précis du
dispositif, il est possible de donner une estimation de la taille des tomates détectées dans
les photos, si leurs positions sont connues. Cet algorithme prend en entrée deux listes de
points correspondants respectivement aux contours droit et gauche d’une tomate du plant
photographié, et fournit une estimation de la taille du fruit.
Listing 2.1 – Exemple d’instance du modèle d’algorithme
tomate_measurement
1. 0
U j jwal Verma au tho r>
Detection de visages
methode de Viola!Jones , l i b r a i r i e OPEN!CV
d e s c r i p t i o n>
t x t
tomate_measurement . j a r
f i l e s>
leftImageContours
parameter>
rightImageContours
parameter>
pa rame te r s>