Caractérisation automatique d’organisations cellulaires dans des mosaïques d'images microscopiques de bois. Application à l'identification des files cellulaires - Thèse Informatique
Caractérisation automatique d’organisations cellulaires dans des mosaïques d'images microscopiques de bois. Application à l'identification des files cellulaires - thèse Informatique
- Revenir à l'accueil
Autres thèses en informatique :
APISENSE-a-distribut..> 05-Jan-2015 08:09 5.7M
APISENSE-terminaux-i..> 04-Jan-2015 21:53 5.4M
Addition-formulae-on..> 04-Jan-2015 21:26 3.0M
Architecture-de-comm..> 05-Jan-2015 08:04 4.4M
Catalogage-de-petits..> 05-Jan-2015 08:06 3.8M
Classification-et-ca..> 04-Jan-2015 11:58 1.3M
Collaboration-de-tec..> 04-Jan-2015 21:27 2.4M
Completion-combinato..> 05-Jan-2015 08:11 2.6M
Contributions-a-la-v..> 04-Jan-2015 21:51 5.4M
Cryptographie-sur-le..> 05-Jan-2015 08:01 3.4M
Detection-de-rails-m..> 05-Jan-2015 08:04 5.1M
Environnements-urbai..> 05-Jan-2015 08:03 6.3M
Equilibrage-de-charg..> 04-Jan-2015 21:25 3.2M
Evaluation-analytiqu..> 05-Jan-2015 08:07 3.5M
Faciliter-le-develop..> 04-Jan-2015 21:56 4.4M
Factorisation-matric..> 04-Jan-2015 11:59 2.7M
Generation-automatiq..> 03-Jan-2015 22:04 2.6M
Gestion-de-la-variab..> 04-Jan-2015 21:55 4.8M
Idéalisation-d-asse..> 04-Jan-2015 11:57 2.1M
Inference-d-invarian..> 04-Jan-2015 11:58 1.5M
Integration-de l-inf..> 04-Jan-2015 21:25 3.4M
Intelligence-en-essa..> 05-Jan-2015 08:03 5.6M
Interrogation-de-gra..> 03-Jan-2015 22:04 2.9M
La-gestion-du-trafic..> 03-Jan-2015 22:01 4.1M
Langage-de-mashup-Th..> 04-Jan-2015 21:24 4.1M
Les-logiciels-de-ges..> 03-Jan-2015 22:03 3.1M
Lh-rs-p2p-une-nouvel..> 04-Jan-2015 11:59 2.7M
Mesure-de-la-fragili..> 04-Jan-2015 21:24 3.8M
Meta-modelisation-du..> 04-Jan-2015 21:56 4.1M
Methode-de-classific..> 04-Jan-2015 11:58 1.3M
Methode-de-game-desi..> 05-Jan-2015 08:10 4.2M
Methodes-sequentiell..> 04-Jan-2015 21:27 2.2M
Mise-en-oeuvre-appli..> 04-Jan-2015 21:54 4.4M
Modele-et-experience..> 05-Jan-2015 08:01 3.8M
Modelisation-d-une-a..> 04-Jan-2015 21:53 5.0M
Modelisation-et-dete..> 04-Jan-2015 11:57 1.6M
Normalisation-et-App..> 03-Jan-2015 22:01 4.1M
Nouvelles-approches-..> 05-Jan-2015 08:09 2.3M
Planification-d-une-..> 05-Jan-2015 08:06 4.1M
Prise-en-compte-de-l..> 03-Jan-2015 22:04 2.8M
Qualification-system..> 04-Jan-2015 21:26 2.8M
Reconnaissance-de-co..> 03-Jan-2015 22:03 3.6M
Segmentation-supervi..> 04-Jan-2015 11:58 1.3M
Services-de-repartit..> 03-Jan-2015 21:59 4.7M
Techniques-visuelles..> 04-Jan-2015 21:27 2.7M
The-Emergence-of-Mul..> 03-Jan-2015 22:05 2.5M
Trigraphes-de-Berge-..> 03-Jan-2015 22:02 3.9M
Un-ilot-formel-pour-..> 05-Jan-2015 08:07 3.1M
Vers-une-capitalisat..> 03-Jan-2015 22:00 4.6M
Congrès d'informatique :
Application-Agnostic..> 03-Jan-2015 21:16 2.1M
Continuity-Editing-f..> 03-Jan-2015 17:35 4.0M
Double-WP-Vers-une-p..> 03-Jan-2015 17:36 4.0M
Effective-Reproducib..> 03-Jan-2015 21:18 2.0M
Enforcing-reuse-and-..> 03-Jan-2015 21:17 2.0M
Extracting-Bounded-s..> 03-Jan-2015 21:19 4.0M
Fingerprint-Quality-..> 03-Jan-2015 21:16 2.1M
GPU-Load-Balance-Gui..> 03-Jan-2015 21:18 4.0M
Minkowski-sum-of-pol..> 03-Jan-2015 21:17 2.0M
Quality-Assessment-o..> 03-Jan-2015 21:16 2.1M
Rester-statique-pour..> 03-Jan-2015 17:35 4.0M
The-Power-of-Polynom..> 03-Jan-2015 21:16 2.1M
Cours d'informatique :
Analyse-numerique-Co..> 03-Jan-2015 17:33 3.0M
Approches-m-k-firm-p..> 03-Jan-2015 17:27 3.7M
COURS-LA-CULTURE-INF..> 03-Jan-2015 17:25 3.8M
CRYPTANALYSE-DE-RSA-..> 03-Jan-2015 17:33 3.0M
Cours-Interconnexion..> 03-Jan-2015 17:34 3.0M
Cours-d-Analyse-et-C..> 03-Jan-2015 17:22 3.9M
Efficient-C++finite-..> 03-Jan-2015 17:30 3.5M
Efficient-C++finite-..> 03-Jan-2015 17:31 3.2M
Fondements-de-l-Info..> 03-Jan-2015 17:22 4.0M
INTRODUCTION-A-L-INF..> 03-Jan-2015 17:24 3.8M
Informatique-et-Ling..> 03-Jan-2015 17:24 3.8M
Initiation-a-l-infor..> 03-Jan-2015 17:26 3.8M
Intelligence-Artific..> 03-Jan-2015 15:16 2.5M
Introduction-a-l-ana..> 03-Jan-2015 17:27 3.7M
Introduction-a-la-ge..> 03-Jan-2015 17:26 3.8M
Le-routage-externe-B..> 03-Jan-2015 17:32 3.1M
Le-systeme-d-informa..> 03-Jan-2015 17:32 3.1M
Lecture1_Linear_SVM_..> 03-Jan-2015 14:57 2.4M
Lecture2_Linear_SVM_..> 03-Jan-2015 14:56 2.4M
Lecture3_Linear_SVM_..> 03-Jan-2015 14:56 2.4M
Lecture4_Kenrels_Fun..> 03-Jan-2015 14:55 2.4M
Lecture5_Kernel_SVM...> 03-Jan-2015 14:55 2.4M
Lecture6_SVDD.pdf.htm 03-Jan-2015 14:54 2.4M
Lecture7_Cross_Valid..> 03-Jan-2015 14:54 2.4M
Lecture8_Multi_Class..> 03-Jan-2015 14:57 2.4M
Lecture9_Multi_Kerne..> 03-Jan-2015 14:53 2.5M
Lecture10_Outilier_L..> 03-Jan-2015 14:53 2.5M
Les-reseaux-sans-fil..> 03-Jan-2015 15:17 2.5M
NooJ-pour-l-Intellig..> 03-Jan-2015 17:30 3.2M
Outils-Logiques-pour..> 03-Jan-2015 15:15 2.8M
Presentation-de-la-r..> 03-Jan-2015 17:33 3.0M
Projet-IP-SIG-Signal..> 03-Jan-2015 15:16 2.5M
Robotique-Mobile-PDF..> 03-Jan-2015 15:16 2.6M
Systeme-informatique..> 03-Jan-2015 15:17 2.5M
Systemes-Multi-Agent..> 03-Jan-2015 17:28 3.5M
Tutoriel-Android-TP-..> 03-Jan-2015 14:57 2.3M
Understanding-SVM-th..> 03-Jan-2015 14:57 2.4M
Une-histoire-de-la-m..> 03-Jan-2015 17:28 3.5M
Une-introduction-aux..> 03-Jan-2015 17:31 3.1M
Vers-une-signalisati..> 03-Jan-2015 17:25 3.8M
Caract´erisation automatique d’organisations cellulaires
dans des mosa¨ıques d’images microscopiques de bois.
Application `a l’identification des files cellulaires
Guilhem Brunel
To cite this version:
Guilhem Brunel. Caract´erisation automatique d’organisations cellulaires dans des mosa¨ıques
d’images microscopiques de bois. Application `a l’identification des files cellulaires. Bioinformatics.
UNIVERSITE MONTPELLIER II SCIENCES ET TECHNIQUES DU LANGUEDOC,
2014. French.
HAL Id: tel-01079815
https://tel.archives-ouvertes.fr/tel-01079815
Submitted on 3 Nov 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Distributed under a Creative Commons Attribution - NonCommercial - NoDerivatives 4.0
International LicenseDélivré par UNIVERSITE MONTPELLIER 2
Préparée au sein de l’école doctorale SIBAGHE
Et de l’unité de recherche mixte AMAP
Spécialité : BIO INFORMATIQUE
Présentée par GUILHEM BRUNEL
Soutenue le 1
er octobre 2014 devant le jury composé de
M. Francis COLIN, chargé de recherche, INRA, Nancy Rapporteur
M. Marc JAEGER, directeur de recherche, CIRAD, Montpellier Examinateur
M. Jean-Michel LEBAN, directeur de recherche, INRA, Nancy Examinateur
M. Grégoire MALANDAIN, directeur de recherche, INRIA, Sophia-Antipolis Rapporteur
M. Gérard SUBSOL, chargé de recherche, CNRS, Montpellier Examinateur
M. Jean-Frédéric TERRAL, professeur, UM2, Montpellier (SIBAGHE) Examinateur
M. Philippe BORIANNE, ingénieur de recherche, CIRAD, Montpellier Invité
M. Yves CARAGLIO, ingénieur de recherche, UM2, Montpellier Invité
CARACTERISATION AUTOMATIQUE
D’ORGANISATIONS CELLULAIRES DANS
DES MOSAÏQUES D'IMAGES
MICROSCOPIQUES DE BOIS.
Application à l'identification des files cellulaires.
[Tapez une citation prise dans le
document ou la synthèse d'un passage
intéressant. Vous pouvez placer la
zone de texte n'importe où dans le
document. Utilisez l'onglet Outils de
zone de texte pour modifier la mise en
forme de la zone de texte de la
citation.]12
UNIVERSITE MONTPELLIER 2
ECOLE DOCTORALE SIBAGHE
Doctorat
Bio-informatique
GUILHEM BRUNEL
CARACTERISATION AUTOMATIQUE D’ORGANISATIONS CELLULAIRES
DANS DES MOSAÏQUES D'IMAGES MICROSCOPIQUES DE BOIS.
Application à l'identification des files cellulaires.
Thèse codirigée par Marc JAEGER et Gérard SUBSOL
Soutenue publiquement le 1
er octobre 2014
Jury :
Francis COLIN Chargé de recherche, INRA, Nancy Rapporteur
Marc JAEGER Directeur de recherche, CIRAD, Montpellier Examinateur
Jean-Michel LEBAN Directeur de recherche, INRA, Nancy Président
Grégoire MALANDAIN Directeur de recherche, INRIA, Sophia-Antipolis Rapporteur
Gérard SUBSOL Chargé de recherche, CNRS, Montpellier Examinateur
Jean-Frédéric TERRAL Professeur, UM2, Montpellier (SIBAGHE) Examinateur
Philippe BORIANNE Ingénieur de recherche, CIRAD, Montpellier Invité
Yves CARAGLIO Ingénieur de recherche, UM2, Montpellier Invité34
RESUME
Résumé
Ce travail se concentre sur l'analyse d'images numériques biologiques. Il vise à définir et mettre en œuvre
des processus de mesures automatiques de données biologiques à partir d’images numériques dans un
cadre de traitement de masse, et aborde notamment : l’incidence des choix méthodologiques sur la
stabilité des résultats, l’étude de la validation des mesures produites et les limites de la généricité des
méthodes et modèles appliquées à la biologie végétale.
La réflexion est menée dans le cadre de l’étude de certaines organisations cellulaires, et plus
particulièrement de l’identification et l’analyse automatique de files cellulaires dans des mosaïques
d'images microscopiques de bois. En effet, l'étude des tendances biologiques le long de ces structures est
nécessaire pour comprendre la mise en place des différentes organisations et maturations de cellule. Elle
ne peut être conduite qu'à partir d'une grande zone d'observation du plan ligneux. Pour cela,
nous avons mis en place un nouveau protocole de préparation (rondelles de bois poncées) et de
numérisation des échantillons permettant d'acquérir entièrement la zone d'observation sans biais
nous avons développé une chaîne de traitement permettant l'extraction automatique des files
cellulaires dans des mosaïques images numériques.
nous avons proposé des indices de fiabilité pour chaque mesure effectuée afin de mieux cibler les
études statistiques à venir.
Les méthodes développées dans la thèse permettent l’acquisition et le traitement rapide d’un volume
important de données. Ces données devraient servir de base à de nombreuses investigations : des analyses
architecturales des arbres avec le suivi de file cellulaire et/ou la détection de perturbations biologiques,
des analyses de variabilité intra et inter arbres permettant de mieux comprendre la croissance endogène
des arbres.
Mots-clés : Traitement d'image, file cellulaire, image microscopique de bois, fusion de données,
mosaïque, reconnaissance d'organisations.5
Abstract
This study focuses on biological numeric image processes. It aims to define and implement new
automated measurements at large scale analysis. Moreover, this thesis addresses : the incidence of the
proposed methodology on the results reliability measurements accuracy definition and analysis proposed
approaches reproducibility limits when applied to plant biology.
This work is part of cells organization study, and aims to automatically identify and analyze the cell lines
in microscopic mosaic wood slice pictures. Indeed, the study of biological tendencies among the cells
lines is necessary to understand the cell migration and organization. Such a study can only be realized
from a huge zone of observation of wood plane. To this end, this work proposes :
a new protocol of preparation (slices of sanded wood) and of digitizing of samples, in order to
acquire the entire zone of observation without bias,
a novel processing chain that permit the automated cell lines extraction in numeric mosaic
images,
the definition of reliability indexes for each measurement allowing further efficient statistical
analysis.
The methods developed during this thesis enable to acquire and treat rapidly an important volume of
information. Those data define the basis of numerous investigations, such as tree architectural analysis
cell lines following and/or detection of biological perturbations. And it finally helps the analysis of the
variability intra- or inter- trees, in order to better understand the tree endogenous growth.
Keywords: image processing, cell files, wood microscopic images, reliability indexes, pattern
recognition, data fusion.67
REMERCIEMENTS
Je tiens à remercier mes directeurs de thèse, Marc Jaeger et Gérard Subsol, pour la confiance
qu'ils m'ont accordée en acceptant d'encadrer ce travail doctoral, pour la rigueur qu’ils m’ont
imposée et les conseils avisés qui m’ont permis de progresser dans cette phase délicate de «
l'apprenti-chercheur ».
Je tiens tout particulièrement à remercier Philippe Borianne pour son encadrement, ses conseils
avisés, sa disponibilité et son coaching efficace tout au long de ces trois années. Et Yves
Caraglio pour son aide et ses conseils précieux en biologie.
Une thèse ne pouvant se faire seul, je remercie les techniciens toujours disponibles et efficaces
(Merlin Ramel, François Pailler et Michael Guéroult), ainsi que Nora Bakker et Marie-Laure De
Guillen pour avoir géré les tracasseries administratives, les autres scientifiques de l’équipe
(Christine Heinz, Frédéric Borne et Sébastien Griffon) et enfin les autres thésards, stagiaires ou
post-doctorants que j’ai pu côtoyer pendant cette période (Pol, Jimmy, Dimitri, Annes, Diane,
Vincent, entre autres…). Plus généralement, je remercie les membres de l'UMR AMAP au sein
de laquelle j’ai réalisé ce travail pour leur agréable présence au quotidien.
Un grand merci à tous les extérieurs qui m’ont aidé dans la réalisation de ce travail : Jean
Frédéric Terral (UM2), Philippe Montésinos (LG2IP), Bruno Clair (LMGC), Christophe Godin
(INRIA), Cyrille Rathgeber (LERFoB) et Vincent Bonhomme (University of Sheffield, UK).
Je tiens à remercier également le Labex NUMEV et l'Ecole doctorale SIBAGHE qui ont cru en
mon sujet de thèse et qui l'ont financé.
Je n'oublie pas mes parents, ma sœur et ma famille pour leur contribution, leur soutien et leur
patience. Je tiens à exprimer ma reconnaissance envers Emmanuelle Coque qui a eu la
gentillesse de me supporter pendant ces 3 ans de thèse.
Enfin, j'adresse mes plus sincères remerciements à tous mes proches et amis (Anthony, Cyril,
Guilhem, Quentin, Nicolas, Paul, et bien d'autres), qui m'ont toujours soutenu et encouragé au
cours de la thèse et de la réalisation de ce mémoire.8
PREFACE
Le manuscrit de thèse écrit sous la forme de compilation d’articles s’adresse à un large public
d’anatomistes du bois et de bio-informaticiens. Pour une lecture aisée et agréable pour les deux
communautés, chaque chapitre comporte des informations importantes pour la compréhension
des thèmes abordés et ce, sans rentrer dans les détails techniques tels que le paramétrage des
protocoles, filtres, etc. Pour connaître les détails, une notification des publications avec le
chapitre concerné est donnée afin de pouvoir s’y référer.
Dans un souci de clarté, la structure de chaque chapitre, bâti sur le même plan, contient trois
parties. D’abord, nous présentons un rappel du contexte avec ou non un complément
bibliographique afin de préciser l’objet, le cadre ou la portée de la partie. Ensuite, nous donnons
la description des contributions et des méthodes développées ou utilisées. Enfin, nous discutons
des résultats marquants déjà publiés, et, lorsque nécessaire, nous ajoutons des compléments
d’informations commentés.9
LISTE DES PRODUCTIONS SCIENTIFIQUES REALISEES DANS LE
CADRE DE LA THESE
Ce travail prend la forme d’une thèse sur articles et est basé sur quatre publications
respectivement numérotées de I à IV (cf. liste ci-dessous), acceptés dans des revues à comité de
lecture ou des conférences internationales à comité de lecture avec acte.
Publications acceptées dans des revues ou conférences internationales à comité de lecture
I. PMA'12. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2012. Automatic characterization
of the cell organization in light microscopic images of wood: Application to the identification of the cell
file. In Guo, Y., Kang, M. Z., Dumont, Y. Eds, Plant growth modeling, simulation, visualization and
applications. The Fourth International Symposium on Plant Growth Modeling, Simulation, Visualization
and Applications, IEEE, Shanghai, China, 31 October-3 November, pp. 58–65.
II. AOB'14. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2014. Automatic Identification
and Characterization of Radial File in Light Microscopic Images of Wood. In: Annals of Botany. doi:
10.1093/aob/mcu119.
III. FSPM'13. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio, Y. 2013. Defining reliability
coefficients in an automated method of identification and characterization of radial files in microscopic
images of gymnosperms. In Nygren, P., Lintunen, A., Godin, C., Nikinmaa, E., Sievänen, R. Eds,
Proceedings of the 7th International Conference on Functional Structural Plant Models, Saariselka,
Finland, 14 June 2013, pp. 82–84.
IV. SCIA'13. Brunel G, Borianne P, Subsol G, Jaeger M. 2013. Simple-Graphs Fusion in Image
Mosaic: Application to Automated Cell Files Identification in Wood Slices. In Kämäräinen, J. K.,
Koskela, M. Eds, Image analysis: 18th Scandinavian Conference, SCIA 2013, Espoo, Finland, June 17-
20, 2013. Proceedings, 2013, pp. 34–43.
Autres productions
Publication
Borianne P, Brunel G. 2012. Automated valuation of leaves area for large-scale analysis needing data
coupling or petioles deletion. In Guo, Y., Kang, M. Z., Dumont, Y. Eds, Plant growth modeling,
simulation, visualization and applications. The Fourth International Symposium on Plant Growth
Modeling, Simulation, Visualization and Applications, IEEE, Shanghai, China, 31 October-3 November,
pp. 50–57.10
Posters
1
ère Journée Scientifique du Labex NUMEV 2012 – Montpellier, France.
→ http://gbrunel.fr/posters/GBrunel_NUMEV_2012.pdf
7th International Conference on Functional-Structural Plant Models – Saariselka, Finland.
→ http://gbrunel.fr/posters/GBrunel_FSPM_2013.pdf
18th International Conference of Scandinavian Conferences on Image Analysis – Espoo, Finland.
→ http://gbrunel.fr/posters/GBrunel_SCIA_2013.pdf
2
nde
Journée Scientifique du Labex LABEX NUMEV 2013 – Montpellier, France.
→ http://gbrunel.fr/posters/GBrunel_NUMEV_2013.pdf
3
ème Journée Scientifique du Labex NUMEV 2014 – Montpellier, France.
→ http://gbrunel.fr/posters/GBrunel_NUMEV_2014.pdf11
TABLE DES MATIERES
0 ETAT DE L'ART 15
1 MATERIEL 22
1.1 LE MATERIEL VEGETAL 22
1.1.1 LES CLADES ET ESPECES : ESSENCES DE TRAVAIL 22
1.1.2 LA CROISSANCE ET L'ANATOMIE DES VEGETAUX 23
1.2 PROTOCOLES DE PREPARATION ET D'ACQUISITION DES ECHANTILLONS 25
1.2.1 LES PREPARATIONS DU PLAN LIGNEUX 26
1.2.2 PROTOCOLE 1. LES COUPES HISTOLOGIQUES COLOREES 26
1.2.3 PROTOCOLE 2. PONÇAGE DE RONDELLES DE BOIS 27
1.2.4 LA NUMERISATION DES ECHANTILLONS 27
1.3 RESULTATS DES ACQUISITIONS & DISCUSSIONS 28
2 METHODES 32
2.1 SEGMENTATION DES IMAGES 32
2.1.1 GENERALITES SUR LES METHODES DE SEGMENTATION 32
2.1.2 CHAINE DE TRAITEMENT : DE L'IMAGE A L'ELEMENT STRUCTURANT 34
2.1.3 APPLICATION DE LA SEGMENTATION AUX CELLULES 37
2.1.4 BILAN DE MISE EN ŒUVRE DE LA SEGMENTATION 38
2.2 MODELISATION DES ARRANGEMENTS 40
2.2.1 DEFINITION DE LA MODELISATION DANS LE CADRE DES FILES CELLULAIRES 40
2.2.2 PROCESSUS D'IDENTIFICATION DES ARRANGEMENTS 41
2.2.3 MISE EN ŒUVRE DE L'IDENTIFICATION DES FILES CELLULAIRES 45
2.2.4 CONCLUSION SUR LA MISE EN ŒUVRE DE LA MODELISATION 47
2.3 FUSION DES DONNEES 48
2.3.1 MOSAÏQUES DES RESULTATS 48
2.3.2 PRESENTATION D'UNE METHODE GENERIQUE DE FUSION DE GRAPHE 49
2.3.3 AGREGATION DES RESULTATS DE FILES CELLULAIRES 49
2.3.4 CONCLUSION 52
2.4 MESURES ET FIABILITES 55
2.4.1 RESULTATS NUMERIQUES 55
2.4.1.1 Mesure des paramètres 55
2.4.1.1.1 La circularité 55
2.4.1.1.2 La surface 56
2.4.1.1.3 Le périmètre 56
2.4.1.2 Séparations des composants 59
2.4.2 FIABILITE 59
2.4.2.1 Niveau global 60
2.4.2.2 Niveau des composants 61
2.4.2.3 Niveau de l'élément 62
2.4.2.3.1 Le périmètre 6312
2.4.2.3.2 La surface 64
2.4.2.3.3 La circularité 65
2.4.3 CONCLUSION SUR LA MISE EN ŒUVRE DE LA FIABILITE DES MESURES 65
2.5 TYPAGE CELLULAIRE 66
2.5.1 DESCRIPTION DE LA METHODE 66
2.5.2 ETUDES PROSPECTIVES 67
2.5.3 CONCLUSION SUR LA MISE EN ŒUVRE DU TYPAGE CELLULAIRE 69
3 APPLICATION ET RESULTATS 71
3.1 IMPLEMENTATION 71
3.2 APPLICATION AUX FILES CELLULAIRES 72
3.2.1 JEU D'ESSAI 72
3.2.2 MISE EN ŒUVRE DE LA DETECTION AUTOMATIQUE DES FILES CELLULAIRES 74
3.2.3 LIMITES 77
3.2.4 PERFORMANCES 78
3.3 AUTRES APPLICATIONS 79
3.3.1 LA ROBUSTESSE DE LA METHODE DE SEGMENTATION 79
3.3.2 EVALUATION QUANTITATIVE DE LA SEGMENTATION 83
3.3.3 INTERET DES APPROCHES MULTI-ECHELLES POUR MAITRISER LA SUR-SEGMENTATION DU WATERSHED
85
3.3.4 GENERICITE DE LA METHODE POUR LA DETECTION DE CELLULES 87
3.4 UTILISATION DANS UN QUESTIONNEMENT BIOLOGIQUE 89
3.4.1 CONTEXTE D'ETUDE 89
3.4.2 METHODOLOGIE 90
3.4.3 AUTOMATISATION DES PROCESSUS 90
3.4.4 CONCLUSION SUR L'AUTOMATISATION DANS LE CADRE D'UN QUESTIONNEMENT BIOLOGIQUE 92
4 CONTRIBUTIONS ET PERSPECTIVES 94
5 REFERENCES BIBLIOGRAPHIQUES 100
6 ANNEXES 107
7 INDEX 117
8 PUBLICATIONS 118131415
0 ETAT DE L'ART
Les plantes sont-elles des ordinateurs ? Les objets illustrés à la figure 1 ne sont pas la création
d’un génie de l’informatique doué d’une intuition artistique. Il s’agit d’une tête de chou
romanesco (Brassica oleracea), un proche parent comestible du brocoli et d'une inflorescence de
lobélie géante (Lobelia telekii). Chacun des fleurons du chou romanesco est une reproduction en
miniature du chou romanesco entier, ce qui lui confère sa beauté fascinante. Les mathématiciens
appellent ces formes répétitives des fractales (Mandelbrot 1983). Par son schéma de croissance
suivant une séquence d’instructions répétitives, le chou romanesco semble avoir été généré par
un ordinateur.
Comme dans la plupart des végétaux, l’apex (extrémité) des tiges en croissance élabore de façon
répétée un motif de feuille, de bourgeon, de tige… Ces schémas de développement répétitif sont
à la fois génétiquement déterminés et soumis à la sélection naturelle. Cette prédétermination peut
donner toutes sortes de formes en fonction du type de croissance, de l'échelle considérée et de la
maturation des objets considérés. Ces structures peuvent être représentatives de la croissance des
plantes.
Figure 1. Plante ou art informatique ? A droite, un chou romanesco (Brassica oleracea) ; à gauche, une
lobélie géante (Lobelia telekii). Les végétaux ont des schémas de développement répétitif pouvant former
des structures telles que des spirales, fractales, lignes, etc.
Comment poussent les arbres ? Contrairement à la plupart des animaux, les végétaux ont une
croissance qui ne se limite pas aux périodes embryonnaires et juvéniles, mais, au contraire, qui
perdure toute la vie : c’est la croissance indéfinie (ou indéterminée). Ainsi, à tout moment de leur
vie, les plantes possèdent des organes embryonnaires, des organes en croissance et des organes
matures. Si les végétaux croissent de façon indéfinie, c’est qu’ils produisent constamment des
tissus indifférenciés appelés méristèmes, qui se divisent quand les conditions le permettent pour
produire de nouvelles cellules. Le développement de l’arbre résulte de la croissance primaire (en 16
rose sur la schéma ci-dessous) concernant l’allongement et la ramification des axes, et de la
croissance secondaire (en bleu sur la schéma ci-dessous) portant sur leur épaississement au cours
du temps (Wilson 1984).
Illustration issue de Campbell Biologie 4ème édition
Figure 2. Les croissances primaire et secondaire d'une tige ligneuse. On peut suivre la progression de la
croissance secondaire en examinant les sections dans lesquelles apparaissent en succession ses parties les
plus vieilles, i.e. les cernes visibles sur une coupe de tronc d'arbre.
La réduction de notre empreinte environnementale et l'utilisation efficace des ressources
naturelles sont des enjeux sociétaux et scientifiques du 21ème siècle. De plus en plus d’approches
ont tendance à considérer la plante sous des aspects structuraux et fonctionnels pour les
problématiques de séquestration du carbone et de bois-énergie (Guo et al. 2011). Mais ces
approches, qu’il s’agisse de la croissance secondaire et de ses variations inter ou intra spécifiques
ou des relations entre croissances secondaire et primaire, s’appuient très souvent sur des études
fragmentaires du fait des coûts d’obtention des données (Rossi et al. 2009).
La disposition des tissus, la forme et la taille des cellules, est appelée plan ligneux. Celui-ci est
caractéristique de chaque essence. La description de la croissance primaire peut être plus ou 17
moins étendue grâce à des approches rétrospectives (Barthélémy and Caraglio 2007 ; Krause et
al. 2010) alors que les études dendrochronologiques sont généralement limités à sur des parties
du plan ligneux (carottage). Mais, plus le niveau d’observation est fin, plus les données
existantes concernent une partie réduite du plan ligneux. La croissance secondaire résulte de
l’activité cambiale qui est entre autre à l’origine du bois (xylème) et donc des différents éléments
cellulaires qui le constituent (plan ligneux).
Pour mettre en rapport les observations internes avec les interprétations réalisées dans le cadre de
l’observation de la morphologie externe, il est nécessaire d’étudier simultanément différents
éléments de l’architecture végétale (Barthélémy and Caraglio 2007) en particulier de distinguer
les caractéristiques anatomiques des éléments constitutifs de la plante (i.e. axes principaux,
secondaires et réitérations) au fil du temps et de constituer un échantillon suffisamment
significatif pour utiliser les outils statistiques.
La maturation et le typage biologique (Lachaud et al. 1999) des cellules peuvent être approchés
par l’étude de leur forme, de leur taille, de leur contenu, et de leur distribution spatiale
indépendamment de leur organisation spatiale. Ces notions permettent d’aborder les
changements anatomiques qui caractérisent les phases de production et de différenciation du
xylème (Thibeault-Martel et al. 2008), sans pour autant réellement expliquer les mécanismes de
production ou de croissance du bois.
En effet, la compréhension des mécanismes de la croissance de l’assise cambiale passe par
l’étude de la rythmicité des motifs cellulaires, de leur perturbation ou de leur modification dans
l’espace et dans le temps. Les fluctuations et les influences de l’environnement sur la
différenciation des éléments du bois (issus des divisions des cellules cambiales) demandent de
suivre la production au sein d’organisations cellulaires spécifiques. L’introduction d’une
trajectoire spatio-évolutionnelle est nécessaire pour aborder ces problèmes. Pour simplifier, deux
organisations sont considérées : d’une part le cerne de croissance qui représente la production
cellulaire à un temps donné (Heinrich 2007), et d’autre part la file cellulaire qui représente
l’activité d’une initiale au cours du temps (Rozenberg et al. 2004).
Par exemple, (Nicolini et al. 2003) soulignent l’importance de l’organisation de la croissance
secondaire en étudiant le long de cernes de croissance successifs les motifs cellulaires, leur
rythmicité spatiale, leur variabilité pour caractériser les stratégies d’occupation de l’espace mises
en place par la plante. Pour autant cette approche ne permet pas d’aborder les mécanismes de
différenciation des cellules et de mise en place des motifs et structures cellulaires, c’est-à-dire les
mécanismes dépendant du temps. De son côté, le suivi dynamique très précis de la production
cambiale au niveau des initiales (Rossi et al. 2006 ; Rathgeber et al. 2011) est techniquement
limité à une petite portion du plan ligneux. Ainsi, l’étude des files cellulaires, résultat a
posteriori de la production cambiale et des fluctuations locales et globales, se présente comme 18
une piste prometteuse pour permettre d’appréhender la mise en place, la différenciation et la
rythmicité temporelle des cellules (Gindl 2001).
Les questions biologiques portant sur les interactions entre le développement et la croissance des
arbres sous contrainte de l’environnement (Moëll and Donaldson 2001) demandent de pouvoir :
faire la part de la contribution aux fonctions de conduction et de stockage des différents
types cellulaires dans le plan ligneux ;
appréhender la gamme de variabilité des caractéristiques des éléments cellulaires
(éléments de vascularisation, fibres, cellules de rayons, parenchymes verticaux) ;
décomposer la variabilité en identifiant et différenciant celle due à l’ontogénèse de celle
due à la réponse environnementale.
Mais ces questions biologiques et les caractérisations associées se trouvent extrêmement
contraintes du fait de la lourdeur des protocoles et de la difficulté de l’acquisition des
informations de masse. En effet, la compréhension fine des mécanismes de croissance et leur
modélisation passent par la recherche des invariants au sein d’échantillons d’observation
importants restituant la variabilité intra et inter espèces.
L’évolution technologique permet de limiter significativement les temps de préparation des
sections transversales complètes d’axes et d’élargir ainsi les champs d’observation. Par exemple,
l’utilisation d’une polisseuse (voir §1.2.3) automatique programmée peut nous éviter de recourir
à des coupes histologiques trop fastidieuses à préparer. Combinée à une acquisition d’image
pilotée par une platine à déplacements programmés, ce type de support nous donne rapidement
accès à une information de qualité sur des zones élargies du plan ligneux. Mais cette technologie
se heurte à la capacité de cumul des données et de son traitement. L'acquisition d'une rondelle de
10 cm de diamètre à un grossissement de x200, nécessite une mosaïque d'environ 1000 images. Il
y a en moyenne 500 cellules par image. Evaluer manuellement les surfaces des cellules nécessite
environ 40 mn par image à l’aide d’un éditeur d’image (ImageJ, Photoshop). L’identification
d'organisations cellulaires impose d’étudier plusieurs cernes successifs dans plusieurs unités de
croissance, ce qui représente une quantité d’images trop importante pour un traitement manuel.
Habituellement, le comptage ne s’effectue donc que sur 3 files par coupe (Rossi et al. 2006), du
fait des coûts prohibitifs en temps des traitements.
L’automatisation de l’étude des files cellulaires permettrait d’aborder des liens plus étroits avec
les aspects fonctionnels et l’écologie des espèces en pouvant considérer une meilleure
appréciation de la gamme de variabilité des phénomènes : le bois représente un enregistrement
en continu des modifications du développement de l’arbre (partie ontogénique, la moins connue)
et de son environnement (le plus travaillé notamment en dendrochronologie et
dendroclimatologie). Cependant, il est fondamental de s'assurer de la fiabilité des résultats 19
produits et des solutions proposées. Dans l’idéal, il serait souhaitable de pouvoir introduire des
éléments quantitatifs caractérisant la qualité dans les traitements automatisés et leur production.
L'automatisation de l'observation des structures cellulaires est l’un des nouveaux enjeux de la
botanique structurale (Quelhas et al. 2011) qui fait appel à des compétences pluridisciplinaires.
En (bio)-imagerie, la segmentation des cellules est un problème largement traité dans la
littérature (Baggett et al. 2005 ; Fourcaud et al. 2008). Par exemple, (Park and Keller 2001)
combinent quatre approches classiques d’analyse d’image : l’algorithme du watershed (Vincent
and Soille 1991), les snakes (Mcinerney and Terzopoulos 1999), l’analyse multi-résolution
(Jeacocke and Lovell 1994), et la programmation dynamique pour segmenter les cellules dans les
images. Dans le contexte spécifique de l'imagerie du bois, la segmentation des cellules est
généralement combinée au typage cellulaire, c'est-à-dire à la caractérisation biologique de la
cellule. Par exemple, (Marcuzzo et al. 2009) et (Wang et al. 2008) typent les cellules à l’aide de
classifieurs Support Vector Machine (Scholkopf and Smola 2001), méthode supervisée
développée à partir des considérations théoriques de Vladimir Vapnick (Vapnik 1963) sur les
statistiques de l’apprentissage. La difficulté majeure porte ici sur la constitution de jeux
d’apprentissages suffisamment représentatifs pour rendre compte de la variabilité intrinsèque des
individus.
Pour l’étude des organisations cellulaires, certains auteurs introduisent des modèles
géométriques à base topologique permettant de décrire le voisinage des cellules. Par exemple,
(Jones and Bischof 1996) ou (Kennel et al. 2010) s’appuient sur un graphe d’adjacence orienté
de cellules décrivant leur relation topologique locale pour extraire les files cellulaires d'images
de Gymnospermes. Plus précisément les cellules sont extraites par application de l’algorithme de
ligne de partage des eaux sur l’image convertie en niveau de gris ; le graphe d’adjacence des
cellules est alors construit à partir du diagramme des bassins versants. Un typage des cellules
obtenu par un arbre de décision construit à la volée à partir d’un jeu de données annotées
(CART) (Breiman et al. 1984) permet alors d’extraire de ce graphe les alignements de trachéides.
Cette méthode est sensible au jeu d'apprentissage utilisé lors de la construction de l’arbre de
décision et son paramétrage.
Du point de vue technique, nous n’avons pas trouvé de solution logicielle permettant une
détection automatique des files cellulaires. Des outils commerciaux spécialisés, comme WinCell
(Hitz et al. 2008), existent pour l'analyse des cellules du bois sans toutefois permettre de
reconnaître et caractériser sans aide de l'opérateur les organisations cellulaires. Les possibilités
d’enrichissement de fonction sont restreintes voire impossibles. Des plateformes commerciales
telles que Visilog (Travis et al. 1996), proposent un environnent riche mais pas suffisamment
spécialisé : il est possible de réaliser des macros fonctions (assemblage et paramétrage de
fonctionnalités de base) mais sans possibilité d’ajouter des fonctionnalités de bases qui se
révèlent incontournables dans notre cas pour modéliser les files cellulaires.20
Les plateformes open source de type ImageJ (Clair et al. 2007), Fiji (Schindelin et al. 2012),
Orfeo (Inglada and Christophe 2009) restent donc une option intéressante car elles permettent
d’enrichir les codes sources de fonctionnalités particulières et de définir des macros spécialisées
tout en facilitant le partage et la diffusion des méthodes. Il est donc possible de développer de
nouvelles fonctionnalités qui permettent l'automatisation des traitements. Nous privilégierons
donc cette solution de développement technique.
Notre objectif est donc de définir et construire une chaine de traitement comprenant la
préparation ainsi que l'acquisition des échantillons et la définition d'une méthode générique
d'identification automatique de composants et de leurs arrangements à partir d'images
numériques microscopiques. Pour suivre les arrangements sur de larges zones d'observation,
nous avons mis au point une méthode d'agrégation des résultats en mosaïque pavant tout l'espace
d'étude. Cette méthode est appliquée et testée au cas particulier des files cellulaires pour l'étude
des tendances biologiques le long des files, nécessaire à la compréhension de la mise place des
différentes organisations et maturations cellulaires, c'est-à-dire à la compréhension de la
croissance endogène des plantes.
Pour réaliser ce travail, nous avons décidé d’adopter une approche hybride consistant à plaquer
sur une approche relativement classique un regard ou un questionnement plus large. En
particulier nous nous sommes intéressés à :
l’incidence de choix méthodologique sur la stabilité des résultats, i.e. comment les étapes
du traitement vont interagir et compenser les faiblesses des opérations en amont et en
aval ;
la validation des mesures produites, i.e. comment « garantir » l’exactitude des mesures
réalisées : quels approches ou outils peuvent être développés pour les qualifier ;
la généricité des méthodes et modèles appliquées à la biologie végétale, i.e. à partir de
quand une méthode doit être spécialisée pour produire des résultats utilisables.
Le chapitre 1 est consacré au matériel biologique, aux méthodes de préparation et d’acquisition
de ce matériel. Le lecteur intéressé pourra se reporter à une première partie (§ 1.1) traitant des
spécificités des végétaux et des essences échantillonnées. La seconde partie (§ 1.2) porte sur un
état de l’art des méthodes de préparation des coupes histologiques, ainsi que sur la mise en place
d’un nouveau protocole consistant à préparer des rondelles de bois poncées pour la numérisation.
Enfin la dernière partie est consacrée au protocole d'acquisition et au jeu de données “images” à
traiter.
La méthode d’analyse d’image est décrite dans le chapitre 2. Nous argumentons cette
présentation sous forme de “blocs”, puis décrivons le détail de chaque bloc. Le paragraphe 2.1
explicite les procédés conduisant à la segmentation. Ensuite le (§ 2.2) détaille la méthode
d'identification des files cellulaires grâce à un parcours sous double contrainte d’un graphe. Une 21
fois les files créées par image nous montrons comment créer une mosaïque de files (§ 2.3) tout
en évitant les problèmes de stitching qui apparaissent quand on fusionne des images pour en faire
une mosaïque. Les deux dernières parties portent respectivement sur le calcul des paramètres et
sur leur fiabilité.
Enfin, les résultats obtenus au cours de la thèse sont présentés et discutés dans le chapitre 3. Ils
sont principalement produits par l’application de la méthode dans le cadre de la recherche
automatique de files cellulaires. D’autres applications seront présentées dans le paragraphe (§
3.3).
Les 4 grandes parties de l’étude ont fait l’objet chacune d’une publication dans une revue
internationale ou dans les actes d’une conférence internationale à comité de lecture. Les articles
sont regroupés en annexe et respectivement numérotés I à IV. Pour faciliter la lecture de ce
manuscrit, chaque partie reprendra les grandes lignes de l’article lui correspondant et précisera
les aménagements réalisés ou les résultats produits depuis la parution de l’article.
En complément, la figure 3 illustre les connexions entre les différents articles ainsi que les
analyses additionnelles réalisées. Les flèches verticales épaisses représentent la trame principale,
basée sur la mise au point des algorithmes de segmentation et d'identification. Les flèches
horizontales concernent les applications de la méthode aux files cellulaires.
Les résultats qui découlent de ce travail peuvent servir de base aussi bien à des investigations
scientifiques d'analyse de la distribution de caractéristiques internes (cellules) en fonction de
facteurs divers tels que les conditions de croissance ; une meilleure compréhension des
mécanismes de croissance des arbres et une amélioration des connaissances physiologiques
(zone de conductivité du tronc, pattern de croissance), qu’à des applications industrielles
vérifiant la qualité du bois à partir de méthodes non destructives de coupe de rameaux secondaire
ou de micro-carottage.
Figure 3. Liens entre les différentes parties (articles et analyses complémentaires) constituant le corps de
la thèse.22
1 MATERIEL
1.1 Le matériel végétal
1.1.1 Les clades et espèces : essences de travail
Depuis que les végétaux ont commencé à coloniser la terre ferme, il y a environ 500 millions
d’années (cf. figure 4), ils se sont fortement diversifiés, de sorte qu’on compte aujourd’hui plus
de 260 000 espèces, dont certaines occupent les milieux les plus hostiles, tels les pics
montagneux, les régions désertiques et polaires.
Illustration issue de Campbell Biologie 4ème édition
Figure 4. Arbre phylogénétique simplifié représentant quelques grands épisodes de l'évolution des
végétaux. Cette phylogenèse représente une hypothèse sur les liens de parenté entre les groupes de
végétaux. Les lignes pointillées indiquent que la phylogénie fait toujours l’objet de débats. Pendant la
thèse nous nous intéressons aux plantes vasculaires à graines.
Notre étude portera plus particulièrement sur les clades des plantes vasculaires à graines
modernes, les Gymnospermes et les Angiospermes, car elles représentent 90% des plantes
terrestres.
Les Gymnospermes sont des plantes faisant partie d'un sous-embranchement paraphylétique des
spermaphytes. Gymnospermes vient du grec “gymnos” qui veut dire “nue” et “sperma” qui veut
dire graine. Ils ne possèdent pas d’ovaire. Mais les Gymnospermes constituent un groupe en voie
de disparition. En effet, ce groupe n’a fait que régresser et compte aujourd’hui moins de 1 000 23
espèces. La plupart des Gymnospermes sont des conifères, et nous avons choisi des représentants
présents dans le sud de la France en raison de leur accessibilité qui sont le pin (Pinus nigra,
Pinus caribensis et Pinus brutia) et le sapin (Abies alba).
La division des Angiospermes regroupe les plantes à fleurs, et donc les végétaux qui portent des
fruits. Angiosperme vient du grec “angios” qui veut dire récipient. Ils regroupent la majeure
partie des espèces végétales terrestres, avec environ 250 000 espèces. Les Angiospermes
comprennent les dicotylédones et les monocotylédones. Ce groupe est particulièrement important
pour les humains et leur survie. En foresterie et en agriculture, il constitue les sources
essentielles de nourriture, de combustible, de produits du bois et de médicaments…
En raison de cette dépendance, il est indispensable de préserver la diversité de ces plantes
(Angiospermes et Gymnospermes compris). Nous avons choisi de travailler sur les essences de
chêne vert (Quercus ilex) et d'acajou (Pycnanthus sp.) comme représentant des Angiospermes
dicotylédones. Nous expliciterons dans la partie ci-dessous pourquoi les monocotylédones ne
sont pas étudiées.
1.1.2 La croissance et l'anatomie des végétaux
Les croissances primaire et secondaire se produisent simultanément dans les plantes présentant
un double développement. La croissance primaire ajoute des feuilles, des nouveaux axes et
allonge les tiges et les racines (la plante grandit), alors que la croissance secondaire augmente le
diamètre des tiges et des racines (la plante grossit) là où (généralement) la croissance primaire
est terminée. La figure 5 schématise la croissance d’un axe (tronc, branche, racine).
Illustration issue de Campbell Biologie 4ème édition
Figure 5. Vue d'ensemble des croissances primaire et secondaire.24
Chez les Angiospermes monocotylédones, peu d’espèces ont une croissance secondaire. Ce
groupe comporte notamment les orchidées, les palmiers, les bananiers et les graminées. Or le but
de la détection des files cellulaires est de suivre l’évolution de la croissance secondaire. C’est
pour cette raison que nous n’avons pas choisi de faire les expériences sur les monocotylédones.
La croissance secondaire s’effectue grâce aux méristèmes latéraux, plus précisément par le
cambium (du latin cambiare, «changer») et par le phellogène (du grec phellos, «liège»). Le
cambium produit vers l’intérieur des couches de tissus conducteurs supplémentaires appelées
xylème secondaire (bois) et vers l’extérieur du phloème secondaire (le liber) (cf. figure 6). Ce
sont les couches internes qui vont constituer les files, objet de notre étude (cf. figure 7).
Illustration issue de Campbell Biologie 4ème édition
Figure 6. Coupe transversale d'une tige de tilleul (Tillia sp.) de trois ans. Vers l'intérieur, les nouvelles
cellules créées se différencient en grandes cellules lignifiées de xylème secondaire ou bois. Vers
l'extérieur, les nouvelles cellules se différencient en petites cellules formant le liber, certaines cellules
contribuent à former l'écorce.
Le xylème secondaire mène à la formation de vaisseaux, de fibres, de parenchymes verticaux et
horizontaux. 25
Illustration issue de Campbell Biologie 4ème édition
Figure 7. Schéma de l'accumulation de cellules filles de xylème à partir d'une cellule mère cambiale
formant une file cellulaire.
Les deux types de cellules conductrices de sève brute, les trachéides et les éléments de vaisseaux,
sont des cellules allongées tubulaires qui meurent à maturité. Les vaisseaux sont de plus grosse
taille que les trachéides, et sont généralement absents chez les Gymnospermes qui possèdent,
eux, des canaux résinifères.
Dans notre étude nous considérons 3 types cellulaires :
- Les fibres : faisceaux de cellules résistantes, disposées dans le sens axial (de la tige),
assurant la rigidité et la résistance mécanique du bois.
- Les vaisseaux : cellules creuses, disposées dans le sens axial (de la tige), servant à conduire
la sève.
- Les rayons : cellules à orientation transversale et rayonnante par rapport à l’axe longitudinal
de l'axe (primaire ou secondaire), participant à la fonction de soutien.
Les autres types cellulaires sont considérés comme des fibres car avec un seul plan de coupe, il
est difficile de pouvoir identifier correctement tous les types cellulaires, notamment les tissus de
soutien (collenchyme et sclérenchyme) et le tissu assimilateur (parenchyme).
1.2 Protocoles de préparation et d'acquisition des échantillons
Le protocole complet d'acquisition des images comporte deux étapes : la première (préparation)
vise à nettoyer et contraster au mieux les structures cellulaires, la seconde (numérisation)
consiste à prendre un cliché de l'échantillon à l’aide d’un appareil photo numérique monté sur
l'optique du microscope.26
1.2.1 Les préparations du plan ligneux
Deux méthodes de préparation des échantillons pour obtenir des plans ligneux transversaux sont
utilisées avant la numérisation qui consiste en une prise de photographie de l’échantillon sous
microscope.
Le premier protocole (standard) consiste à effectuer des coupes histologiques fines des
échantillons avec un microtome. De par son temps de préparation long et minutieux, ce protocole
est mal adapté à de grandes zones d’études. De plus il induit des biais lors du pavage des images
pour reconstruire une mosaïque du plan.
Le second protocole étudié consiste à poncer des rondelles de bois. Il est particulièrement bien
adapté à l’étude de grandes zones et présente l’avantage d’être économe en temps. Pour l’instant
le protocole n’introduit pas de coloration de l’échantillon, ce qui entraine une différence entre les
parois et les lumens moins marquée que sur les coupes histologiques. Des tests sont actuellement
menés pour introduire une phase de coloration pendant ce protocole.
Clichés de l'auteur
Figure 8. A gauche, la polisseuse semi-automatique avec un plateau magnétique d’un diamètre de 300
mm (Tegramin 30 - Struers). A droite, le microtome automatique à lame vibrante (vibratome VT1200SLeica).
1.2.2 Protocole 1. Les coupes histologiques colorées
L’obtention d’une coupe transversale de 20-25 µm d’épaisseur produite à l’aide d’un vibratome
ou microtome (cf. figure 8) nécessite entre 5 à 15 minutes. Les coupes sont ensuite nettoyées et
colorées pour augmenter le contraste paroi-lumen, en utilisant des colorants se fixant
spécifiquement sur les parois pectocellulosiques tel que le carmin aluné. Cette phase de
nettoyage et de coloration dure environ 30 minutes. Par conséquent il est judicieux de prévoir
une heure pour un protocole complet par coupe. Cette méthode permet de réaliser des mosaïques
de coupes histologiques, aux imprécisions des tissus de juxtaposition près (problème de calage et
destructions ou déformations partielles lors de la coupe), sur quelques cernes selon les
dimensions de la carotte.27
N.B. : L’utilisation de colorant permet de faire ressortir des éléments désirés, par exemple le vert
d'iode fixateur de la lignine fait ressortir les parois des cellules.
Nombreux sont les colorants et les protocoles de coloration, mais nous ne nous étendrons pas sur
les différentes préparations (Bancroft and Gamble 2002).
1.2.3 Protocole 2. Ponçage de rondelles de bois
La préparation de rondelles de bois adaptées pour la numérisation est d’un grand intérêt pour
l’étude de grandes zones du plan ligneux. Avec un tel procédé, il n’y a pas de problème de
raccord. La taille d'acquisition est limitée par la taille du plateau de la polisseuse et par le
déplacement maximal de la platine de 10x10 cm². Pour notre étude nous avons mis en place un
protocole dont les grandes lignes sont résumées ci-dessous (pour plus d’information se référer à
l'article II.AOB'14 §Method).
Les rondelles de bois prélevées au centre des unités de croissance présentent une hauteur
maximum de 2,5 cm afin de passer sous le microscope. Séchées pendant 3 mois à l'abri du soleil
et de l’humidité elles sont ensuite poncées et polies à l’aide d’une polisseuse semi-automatique
(cf. figure 8) afin d’obtenir deux faces parfaitement parallèles et une face parfaitement polie sans
destruction des structures pour la numérisation. La fragilité de la surface, notamment sa forte
sensibilité à la poussière, nécessite des précautions particulières lors de la manipulation et de la
conservation des rondelles. Dès le polissage effectué, il est nécessaire de réaliser la numérisation
de la rondelle, car, sans contrôle très précis de l’hygrométrie et de la température de la zone de
stockage, la rondelle se dessèche et sa surface se déforme. Ces micros déformations
compromettent la netteté des images produites lors de la phase de numérisation.
1.2.4 La numérisation des échantillons
La numérisation consiste à produire une série ou succession d’images, communément appelée
mosaïque d’images couvrant la zone d’observation.
Les plans transversaux sont numérisés par une caméra LCD Olympus DP71 montée sur un
Microscope Olympus BX51 et équipée d'une platine mobile permettant par déplacement
progressif de la lame de créer une mosaïque d’images.
Un grossissement x200 est utilisé pour avoir des surfaces de cellules significatives sur des zones
d’observations suffisamment grandes pour permettre le recalage des images avoisinantes.
La position de l’image dans la mosaïque est donnée par le déplacement en X et Y de la platine.
Ici, la zone maximale d’observation est de 10x10 cm², soit une mosaïque d’environ 1500 images
pour une zone d’environ 10x10 cm². Chaque image est codée dans un système RGB (24 bits) et a
une définition de 1600x1200 pixels. Les images peuvent présenter un flou local ou périphérique
lié à la déformation optique de la lentille du microscope ou à des variations sensibles d’épaisseur 28
de l’échantillon et ce malgré la précision du protocole de préparation. Ces variations peuvent
provenir de l’utilisation du ruban double-face utilisé pour solidariser la rondelle à la platine lors
du polissage ou d'un effet de contrepoids qui fait que la platine ne tourne pas parfaitement sur un
plan orbital mais oscille légèrement.
1.3 Résultats des acquisitions & discussions
Toutes les images sont produites en couleur (24 bits) avec une résolution de 1600x1200 pixels.
Ci-dessous un exemple de quatre images acquises avec les différents protocoles de préparation et
de numérisation.
Cliché de l'UMR AMAP, 2010
Figure 9. Coupe histologique transversale de sapin (Abies alba) colorée au bleue de toluidine au
grossissement x200. Le colorant se fixe sur les tissus cellulosiques, donnant la couleur aux parois des
cellules. Les lumens sont vides est apparaissent donc en blanc (lumière du microscope).29
Cliché de l'UMR AMAP, 2010
Figure 10. Coupe histologique sans coloration de sapin (Abies alba) au grossissement x400. Le fond des
lumens est dans des tons roses, car la balance des blancs n'a pas été effectuée avant l'acquisition de
l'image. Les liserés noirs sur les contours de l'image sont dues à des effets optiques.
Cliché de l'auteur, 2013
Figure 11. Mosaïque de 4 coupes histologiques transversales de pin (Pinus nigra) colorées à la safranine
au grossissement x200. Les images ont étés raboutées à l'aide du logiciel libre Hugin. 30
Cliché de l'auteur, 2014
Figure 12. Acquisition d'une image d'une rondelle poncée non colorée de pin (Pinus nigra) au
grossissement x200 avec un éclairage épiscopique. Les lumens présentent une texture car on voit à travers
le reste de matériel biologique et des résidus du ponçage. En périphérie des images, il peut y avoir un flou
important provenant de la non planéité d'une des faces de la rondelle. Le contraste entre le lumen et la
paroi est moins marqué que sur les coupes histologiques.
Les images présentent une très grande variabilité due à différents facteurs :
La préparation : selon ce que veut observer le biologiste et selon le protocole d’étude, la
coloration des tissus biologiques sera différente.
Le grossissement : il dépend du champ d’étude que veut obtenir le biologiste. Pour
observer un petit élément structurant, le champ pourra être faible pour pouvoir le
comparer avec d’autres éléments, ou très fort pour le voir en détail.
L’essence : selon les différentes essences, l’organisation cellulaire est différente. On peut
ainsi différencier les résineux qui ont une organisation cellulaire simple, des feuillus qui
ont une organisation plus complexe. Il existe aussi une forte variabilité au sein d’un
même grand ensemble d’essences. Par exemple chez l’acajou (Picnanthus sp.) (figure 13,
à gauche), les vaisseaux apparaissent comme une déformation continue des cellules au
sein d’une file, alors que pour le frêne (Fraxinus angustifolia) (figure 13, à droite), ces
derniers semblent apparaitre anarchiquement entre les files.31
Cliché de l'UMR AMAP, 2010
Figure 13. A droite, coupe histologique d'acajou (Picnanthus sp.). L'apparition des éléments de vaisseaux
semble se faire graduellement, on arrive à voir à quelle file ils appartiennent. A droite, coupe histologique
de frêne (Fraxinus angustifolia). Les vaisseaux semblent apparaitre au milieu des files, on ne peut pas
distinguer leur file d'appartenance.
L’hétérogénéité des protocoles, des essences et des éléments structurants au sein même des
essences doit pouvoir être traitée par la méthode de détection des files cellulaires.
Le protocole de ponçage doit être repris et complété. Un échantillon de bois poncé a été produit
par le constructeur de la polisseuse comme étalon. Actuellement, les images produites au
laboratoire ne sont pas de qualité égale à celle du constructeur, rendant la détection des files
moins fiable. La difficulté majeure du protocole est de fournir un échantillon où les deux faces
sont parfaitement parallèles et planes. Les micro-déformations de la rondelle vont produire un
flou pouvant être très important pendant la numérisation. La surface polie est très fragile, elle
demande une précaution importante et ne doit pas être touchée sous peine d'être altérée. Les
rondelles polies doivent être conservées dans un milieu contrôlé pour atténuer les déformations.
Ainsi, nous avons opté pour une numérisation complète du plan directement après le polissage
sans conservation des échantillons. Le protocole est théoriquement reproductible, mais les
interventions opérateurs et les conditions de préparations (humidité, température…) ne
permettent pas d'assurer une reproductibilité parfaite des acquisitions.
Le chapitre suivant va décrire la méthode mise en œuvre pour traiter automatiquement les images
et d'en extraire les cellules et leur organisation. La méthode fut pensée pour autoriser les
traitements sur les images des Gymnospermes et des Angiospermes. L'étude principe a été
menée sur des images issues de coupes histologiques, car le protocole de ponçage a fini d'être
mis au point en début de 3ème année de thèse. Néanmoins des tests ont toujours étés menés en
parallèle pour s'assurer que la méthode soit transposable aux images issues du protocole de
ponçage.32
2 METHODES
2.1 Segmentation des images
La segmentation a pour but l'extraction d’objets structurants, ici des objets biologiques
élémentaires de l’image, comme par exemple les cellules. La segmentation d'image définit un
bloc de traitement, c’est un processus de rassemblement de pixels entre eux suivant des critères
prédéfinis, qui va former un partitionnement de l'image. Ces caractéristiques peuvent être
naturelles comme la colorimétrie ou plus complexe comme des critères géométriques (Shapiro
2001 ; Barghout and Lawrence 2003). Le but de la segmentation est de simplifier et/ou modifier
la représentation d'une image pour la rendre plus lisible et facile à analyser. Les pixels ayant des
critères semblables sont ainsi regroupés en régions, qui constituent un pavage ou une partition de
l'image. Il peut s'agir par exemple de séparer les objets du fond ou des objets entre eux.
N.B. Les différentes étapes du processus sont illustrées, ici, à partir d'une portion d'une image de
Sapin (Abies alba) colorée au bleu de toluidine et numérisée avec un grossissement de x200.
2.1.1 Généralités sur les méthodes de segmentation
À ce jour, il existe de nombreuses méthodes de segmentation, que l'on peut regrouper en trois
catégories (Davies 2005) :
1. La segmentation par régions (en anglais : region-based segmentation) correspond aux
algorithmes d'accroissement de régions. Ce type de segmentation consiste à prendre un
ensemble de petites régions uniformes dans l'image et à regrouper les régions adjacentes
de même critère (couleur, intensité, critères géométriques…) jusqu'à ce qu'aucun
regroupement ne soit plus possible. On y trouve par exemple les algorithmes de regiongrowing
(Verma et al. 2011) ou split and merge (Damiand and Resch 2003).
2. La segmentation par contours (en anglais : edge-based segmentation) s'intéresse aux
contours des objets dans l'image c’est-à-dire une transition détectable entre deux régions
connexes. La transition est souvent un ajustement brutal de l'intensité au niveau des
frontières des régions. On y trouve par exemple les algorithmes tels que le filtre de Canny
(Canny 1986), le watershed ou encore les snakes qui produisent un modèle déformable
local attiré ou repoussé par des points particulier de l'image (maximum ou minimum
locaux, ligne de crête…).
3. La segmentation par classification : la plus connue (et la plus simple) est sans doute le
seuillage qui consiste à binariser l'image en la réduisant à deux régions à partir d'un seuil
donné : la première est constituée des points de l'image dont la valeur est inférieure au
seuil donné, la seconde des points dont la valeur est supérieure ou égale au seuil donné.
Ce mécanisme peut être compliqué à souhait en utilisant simultanément plusieurs seuils
(multi-seuillage). Mais dans les faits, le seuillage n'est qu'un cas particulier de 33
classification : ces méthodes, largement développées pour la fouille de données, sont
utilisé autant par les banques pour repérer les « bons » clients sans facteur de risque
("scoring"), que pour l'analyse du génome pour repérer de nouveaux gènes ou qu'en
image pour classer les pixels. Elles présentent l'avantage de regrouper les points en
régions homogènes (selon un ou plusieurs critères donnés et un estimateur statistique ou
mathématique prédéfini). Par exemple, la méthode des k-moyennes (Duda 2001) (ou ses
adaptations à la binarisation d'images connues sous les noms de seuillage d'Otsu,
Huang...) (Otsu 1979) minimise la variance intra-classe et maximise la variance interclasse
en utilisant le plus souvent un estimateur de distance (euclidienne, de Manhattan,
de Mahalanobis…). La différence majeure : la classification est réalisée soit en fonction
d'un nombre de classes donné a priori, soit le nombre optimal de classes évalué à partir
d'analyses bayésiennes (C-means) (Dunn 1973) ou en fonction de limites préfixées
d'étalement des classes (Paiva's classification) (Paiva and Tasdizen 2010). La
segmentation de l'image est de facto obtenue par la classification des valeurs de ses
points.
N.B. : Il existe d’autres types de segmentation, comme par exemple des algorithmes mobilisant
les 3 catégories décrites. La profusion des méthodes illustre la difficulté à segmenter des images :
il n’y a pas de consensus sur une méthode, car une bonne segmentation dépend du contenu, de la
dynamique, du système de description (i.e. le système de couleurs) de l'image et de la nature des
zones à segmenter et de ce que l’on cherche à obtenir (Busin et al. 2009).
Dans les cellules végétales, la lamelle moyenne est l’espace intercellulaire, c'est-à-dire une
séparation physique entre deux cellules adjacentes. Elle contient essentiellement des composés
pectiques, ce qui lui donne une intensité différente de coloration par rapport à la paroi cellulaire.
La segmentation de ces cellules doit être continue, c'est-à-dire produire des contours fermés et
correspondre à la lamelle moyenne. L'algorithme du watershed (Najman and Schmitt 1994)
possède toute les caractéristiques pour produire une bonne segmentation des cellules végétales. Il
existe 3 méthodes différentes pour faire un watershed : les algorithmes par inondation simulent
une montée progressive du niveau d'eau à partir des minima du relief. Les algorithmes par
ruissellement suivent, à partir de chaque pixel de l'image, la ligne de plus grande pente jusqu'à
atteindre un minimum. Et finalement, les algorithmes topologiques proposent une déformation
progressive du relief, préservant certaines caractéristiques topologiques, jusqu'à ce que le relief
soit réduit à une structure fine correspondant à la ligne de partage des eaux. Ces trois méthodes
donnent des résultats sensiblement différents, mais toujours avec les mêmes caractéristiques. La
définition des images ne permet pas de dire expérimentalement quelle méthode est la meilleure
car les différences sont de l'ordre du pixel et on ne peut pas déterminer quels sont le(s) pixel(s)
de la lamelle moyenne. Aussi, nous avons choisi l'algorithme par inondation, car son
initialisation par minima locaux permet d'envisager de les filtrer (voir plus bas).34
Dans les chaînes de traitement d’images, la segmentation est une étape primordiale car elle
permet d’extraire les zones d'intérêt dont la qualité influence directement les résultats finaux tels
que les mesures des objets. Elle est souvent précédée d’une phase de prétraitement visant à
nettoyer l’image (par exemple en supprimant le bruit ou en normalisant la dynamique du signal
induit par les capteurs optiques), à rehausser les contrastes en ré-étalant ou compressant la
dynamique du signal (par exemple en utilisant des combinaisons de différents lissages de l’image
pour accentuer des traits caractéristiques), etc. En raison de la multitude de sources de bruits, et
surtout de la multitude d’effets de ces bruits sur une image, il n’existe pas de technique
générique, adaptée à toutes les situations. La segmentation est généralement suivie d’une phase
de calcul ou de modélisation des objets. Par exemple en imagerie médicale, les neurones sont
segmentés avant d’être mesurés.
2.1.2 Chaîne de traitement : de l'image à l'élément structurant
Dans Plant Modeling and Applications (papier I, PMA’12), nous décrivons la méthode de
traitement d’image que nous avons mise en place, qui, à partir de l’image native produit une
image binaire où les cellules sont détourées par un contour d’épaisseur d’un pixel. Les valeurs
des paramètres sont automatiquement évaluées pour s’adapter au mieux à chaque image. La
méthode est constituée de 4 étapes.
La première étape consiste à atténuer le bruit impulsionnel (vraisemblablement induit par un
effet thermique de la lampe du microscope) à l’aide d’une combinaison d’un filtrage médian (cf.
figure 14) et d’un lissage gaussien. 35
Figure 14. En (a) droite image native. En (b) application d'un filtrage médian avec un rayon de 3, le bruit
impulsionnel est supprimé sans influencer la morphologie des bassins. Respectivement (c) et (d)
application d'un médian avec un rayon de 10 et de 20. Avec des rayons élevés, le médian va "lisser" la
morphologie des bassins entrainant une modification brutale des structures.
La seconde étape consiste à rehausser le contraste entre les différentes zones de l’image
notamment entre parois et lumina des cellules. Nous utilisons la méthode de Différence de
Gaussiennes (Einevoll and Plesser 2005) qui consiste à soustraire à l’image faiblement floutée
une image fortement floutée. Avec un ratio de variance des Gaussiennes largement supérieur à
1.6 le filtre a un effet passe-bande après soustraction dont les intensités supérieures à 0 sont
celles des lumens et les intensités négatives ou nulles celles des parois (cf. figure 15).
Figure 15. Rehaussement du contraste de l’image par la méthode de Différence de Gaussiennes (DoG). A
gauche l'image résultante d'un faible DoG (σ = 3 pixels). Au centre, l'image résultante d'un fort DoG (σ =
(largeur image)/10). A droite, la soustraction des images A et B qui augmente le contraste lumen/paroi.
La valeur de l'intensité des pixels de la paroi est nulle.
La troisième étape consiste à convertir l’image en niveaux de gris par moyenne des canaux car
à partir de cette étape la couleur n’est plus significative. Le choix du système couleurs est un
aspect important du traitement de l'image. Plusieurs études ont montré que le "meilleur système"
dépend du contenu de l'image. Pour notre étude, nous avons choisi de conserver le système RGB
(Red Green Blue) qui correspond aux longueurs d'onde qui stimulent les trois cônes de l'œil
humain. Pour ne pas favoriser un canal, le passage en niveaux de gris est réalisé par moyennage
de canaux (cf. figure ci-dessous) et non par la luminance comme généralement utilisée dans la
littérature.36
Figure 16. Passage en niveau de gris. A droite, l'image est convertie par moyenne de canaux. A gauche,
l'image est convertie à l'aide d'une fonction de la luminance. Les différences ne sont pas perceptibles à
l'œil et sont de l'ordre de 1% sur les intensités. L'impact sur la suite du traitement est de l'ordre du pixel,
ne permettant pas de définir si une méthode est meilleure que l'autre. Nous avons choisi la moyenne de
canaux pour rester cohérent avec le système de couleurs choisi.
La quatrième étape consiste à segmenter et individualiser les cellules à l’aide de l’algorithme
du watershed. Avant son application, l'image est inversée (négatif de l'image) pour que les
germes du watershed correspondent aux bassins de l'image. Les lignes de crêtes obtenues
définissent les régions dont les limites correspondent aux contours des cellules. L’algorithme du
watershed est connu pour produire une sur-segmentation qui se traduit par des lignes qui coupent
anormalement des cellules. Ce phénomène est dû au fait que chaque minimum local (germe)
dans l'image produit un bassin versant. Nous avons implémenté une solution qui consiste à
étudier le profil d’intensité de chaque ligne de partage des eaux et à supprimer celles qui
présentent une dynamique d’intensité importante, caractéristique des passages paroi-lumen
(illustration ci-dessous).
Figure 17. Individualisation des cellules à l'aide de l'algorithme du watershed. Les lignes de bassin versant
correspondent à la lamelle moyenne de cellule. Dans la segmentation obtenue (image de gauche),
certaines lignes de partage des eaux ne correspondent manifestement pas à l’espace intercellulaire. Des
lignes fragmentent l’intérieur de certaines cellules. C’est un cas de sur-segmentation due à la présence de
plusieurs minima locaux au sein d’une même cellule. Il s’agit vraisemblablement de bruit atypique qui n’a 37
pu être supprimé par le lissage appliqué globalement à l’image. Suite à l'étude du profil d'intensité de
chaque ligne permet de supprimer la sur-segmentation comme illustré sur l'image de droite. A noter que
les lignes sont artificiellement grossies pour accroitre la visibilité.
2.1.3 Application de la segmentation aux cellules
Comme nous venons de le voir, le nettoyage du watershed permet d’éliminer les arêtes
surnuméraires. La méthode proposée consiste à analyser le profil d’intensité de chaque ligne du
watershed pour vérifier son homogénéité. Cette méthode convient bien aux images de files
cellulaires car elles présentent un contraste marqué entre le lumen et la paroi. Mais pour d’autres
images, cette méthode ne sera pas suffisante. Il existe des variantes du watershed permettant à la
construction des lignes d’atténuer voire de supprimer la sur-segmentation. On peut citer la
méthode du waterfall (Beucher 2012) qui va fusionner les bassins adjacents reversants. La
difficulté de cette méthode est de déterminer d'une part les critères de fusion idéale et d'autre part
les conditions d'arrêt, car si les critères permettent une fusion à chaque étape, il n'y aura à la fin
qu'un bassin résultant comprenant toute l'image. Les études que nous avons effectuées sur le
waterfall et sur le filtrage des minima locaux (germes) du watershed n’ont pas permis d'obtenir
de meilleurs résultats que la méthode actuelle. Cela est dû à la complexité des critères et au
nombre de niveaux de fusion. Nous pensons cependant que l’utilisation de variantes de
watershed telles que le waterfall ou le P-algorithme (Beucher and Marcotegui 2009) serait une
alternative satisfaisante pour la suppression de la sur-segmentation.
Une étude a été menée sur l’effet du flou optique souvent présent dans les images du fait des
déformations périphériques dues à la lentille du microscope ou au défaut de planéité de
l’échantillon. Des acquisitions d’une même zone de l’image avec des mises au point différentes
ont été réalisées pour évaluer la stabilité algorithmique de notre méthode. Nous avons conduit
une étude statistique sur la variabilité du détourage des cellules. Nous avons mis en évidence que
les lignes intercellulaires obtenues par l’algorithme de partage des eaux sont globalement
invariantes au floutage de l’image. En effet, elles correspondent aux courbes d’inversion des
pentes d’intensité : le lissage de l’image produit par le flou optique réduit la dynamique
d’intensités de l’image sans toutefois supprimer les changements de variation d’intensité et les
lignes de crête restent globalement inchangées (cf. figure 18). 38
Figure 18. Résultat du watershed sur des coupes transversales de pin colorées à la safranine. A gauche, les
lignes de crêtes sur une image nette. A droite, les lignes de crêtes sur une image floutée optiquement. Le
contour des bassins est quasiment identique entre une image nette et une image floue. Sur l’image nette,
on peut apercevoir un bassin surnuméraire dû à un décollement de la paroi lors de la coupe. Ce bassin sera
enlevé lors de la phase de suppression de la sur-segmentation au profit de la cellule du haut.
La figure 19 montre la comparaison d'une soixantaine d'aires de bassins normalisés obtenues à
partir d'une image faiblement et fortement floutée. Le coefficient de détermination tend vers 1
montrant que les bassins sont bien corrélés. La pente de la droite est légèrement inférieure à 1
indiquant une faible sous-évaluation sur les images floues. Le procédé donne des résultats
quasiment identiques quelle que soit la netteté de l'image.
Figure 19. A gauche, étude de la limite des bassins par la superposition des lignes de crêtes produite par
un watershed appliqué à une image progressivement floutée (avec un rayon de gaussienne allant de 1 à
15). Les lignes de crête sont affichées en différentes couleurs et en cas de stricte superposition ces
couleurs sont additionnées ; les points communs à toutes les lignes de crêtes sont affichés en blanc ; les
différences majeures sont dues à la sur-segmentation de l'algorithme du watershed. A droite, étude de la
surface des bassins. En abscisse, l'aire des bassins obtenus à partir d'une image nette. En ordonnée,
l'estimation de l'aire des bassins à partir d'une image artificiellement floutée. Le coefficient de
détermination tend vers 1 montrant que les bassins sont bien corrélés. La pente de la droite de régression
est faiblement inférieure à 1 indiquant probablement une faible sous-évaluation des zones de bassins dans
les images floues.
2.1.4 Bilan de mise en œuvre de la segmentation
La segmentation permet l'extraction des éléments structurants de l'image. La méthode proposée
est composée de deux étapes : une phase de préparation de l'image et une phase de segmentation
de l'image.
y = 0,9958x + 32,978
R² = 0,9946
0
2500
5000
7500
10000
0 2000 4000 6000 8000 10000
cell areas - blurred image
cell areas - sharp image
Cell areas in pixel
Cell areas39
La première étape consiste à nettoyer l'image de ces défauts (réduire le bruit impulsionnel, etc.)
et à augmenter le contraste entre les zones à extraire. Il existe une multitude de filtres et de
combinaisons de filtres pour réaliser cette étape. Nous proposons une chaîne de (pré)traitement
avec des filtres standard peu coûteux en temps de calcul et donnant des résultats satisfaisants.
Selon le contenu et la nature des images, chaque étape du (pré)traitement peut être revue et
complétée par des opérateurs plus adaptés : ainsi dans certains cas le filtre médian peut
avantageusement être remplacé par un filtre MeanShift ; ce dernier remplace l’intensité de
chaque point de l’image par celle du - du maximum local le plus proche (et non pas par celle de
la valeur médiane de l'ensemble des pixels de son voisinage). Pour notre étude nous n'avons pas
retenu ce filtre car il est très coûteux en temps de calcul et n'apporte pas un gain suffisant par
rapport au filtre médian.
La seconde étape consiste à individualiser les éléments à l'aide d'un opérateur de segmentation.
Dans le cas des files cellulaires en microscopie optique, la segmentation de ces cellules doit être
continue, c'est-à-dire produire des contours fermés, elle doit correspondre à la lamelle moyenne
(structure biologique séparant deux cellules) et doit être insensible au flou (présent en périphérie
des images). Pour ces raisons, nous avons choisi d'utiliser l'algorithme du watershed implémenté
par inondation, il réalise une segmentation des cellules satisfaisante : seules les cellules
comportant des inclusions, des décollements de paroi ou étant partiellement obstruées posent
problème.
A cette étape chaque cellule est individualisée mais il n'y a aucune relation entre elles. La
prochaine étape du traitement va permettre d’introduire les relations entre les cellules et
d'identifier automatiquement les organisations.40
2.2 Modélisation des arrangements
2.2.1 Définition de la modélisation dans le cadre des files cellulaires
Cette section décrit la conception d’un modèle visant à définir les objets d’étude et les règles
permettant d’identifier et de caractériser l’organisation des éléments structuraux précédemment
segmentés à un niveau d’observation donné. En général, la modélisation consiste le plus souvent
à définir des mécanismes complexes, qu’ils soient géométriques, physiques ou mathématiques
dont le but est de reproduire au mieux un comportement naturel expérimentalement observé et
foncièrement admis (ou assimilé). Le modèle ainsi conçu permettra de générer des instances
représentant potentiellement des expressions de la réalité (i.e. des réalisations « virtuelles »
présentant l’ensemble des caractéristiques des échantillons observés). Ces instances seront
utilisées par confrontation avec les observations annotées par les experts pour valider ou
invalider la cohérence et l’exactitude du modèle. Une fois validé, le modèle permet de proposer
des outils de mesure et de caractérisation des productions du modèle.
L'étude porte sur la caractérisation de l’organisation cellulaire dans le plan ligneux. Ces
organisations peuvent être de différents types : alignement pour les files cellulaires dans le plan
ligneux, circulaire pour les anneaux de croissance, en fuseau dans le plan tangentiel vertical pour
les rayons ligneux, en spirale pour les cellules de méristème racinaires…
Cela revient donc à chercher des arrangements particuliers de cellules qui suivent un
comportement connu a priori : la droite pour les files cellulaires, le cercle pour les anneaux de
croissance, la spirale pour les méristèmes racinaires de riz… Ces différents arrangements
peuvent être modélisés par des fonctions.
La construction et l'identification demandent de définir des règles permettant de trouver dans le
plan ligneux les arrangements locaux qui se rapprochent le plus des formes recherchées, et plus
généralement des propriétés (géométriques ou biologiques) attendues sachant que les
distributions spatiales des cellules présentent par essence même de nombreuses perturbations
rendant cette tâche plus ou moins complexe. Ces perturbations ont plusieurs origines, elles
peuvent venir de défauts de préparation (présence d'intrusions ou de déchirures), ou de réactions
internes de la plante (e.g. compression des cellules au pourtour des vaisseaux) ou correspondre à
un stress ponctuel ou permanent.
Classiquement, un modèle (d'identification des organisations cellulaires) comprend deux niveaux
: (i) un niveau d'exploitation exclusive des informations inhérentes à l'image (basée sur l'étude
des arrangements des pixels ou des structures élémentaires homogènes de l'image) et (ii) un
niveau d'apport d'une connaissance "a priori" caractérisant les organisations recherchées. Le
modèle doit de plus reposer sur des mécanismes devant être réversibles et robustes.41
La robustesse signifie que les organisations doivent être reconnues même en présence de
perturbations et la réversibilité signifie que les organisations doivent être reconnues quel que soit
le point de départ. A titre d’exemples, pour la spirale, on doit pouvoir partir du centre et arriver à
l'extrémité, ou l'inverse ; pour les alignements cela signifie pouvoir partir indifféremment d'un
bord de l'image ou de l'autre et avoir le même résultat.
L'exploitation de règles de voisinages dans un graphe d'adjacence va permettre de bâtir les
arrangements. Ces règles sont modélisées par des fonctions géométriques génériques. La
spécialisation de la méthode se fait par le biais de ces fonctions, dans lesquelles on va injecter
des connaissances a priori. Ainsi, une fonction de droite sera utilisée pour les alignements, une
fonction de cercle pour les anneaux de croissance, etc. L’analyse du graphe permet d’une part
d’extraire, si elle existe, l’orientation des arrangements et d’autre part de parcourir de proche en
proche les nœuds pour créer les arrangements.
2.2.2 Processus d'identification des arrangements
Dans notre étude nous nous intéressons aux files cellulaires distribuées selon des alignements
rectilignes.
La première étape consiste à extraire les objets structurants à savoir les cellules et ensuite décrire
leur topologie. Un graphe d’adjacence des bassins est alors introduit pour décrire les relations de
voisinage entre les différents bassins. C’est un graphe simple classiquement défini par un
ensemble de sommets et un ensemble d’arêtes. Plus précisément, chaque arête du graphe relie les
centres géométriques de deux bassins voisins, i.e. incidents à une même ligne de crête (cf. figure
ci-dessous).
Figure 20. A gauche : les lignes de crête, représentées en vert, produites par le watershed correspondent
globalement à la lamelle moyenne, l’espace entre les parois cellulaires ; les bassins sont une bonne
approximation des cellules. A droite : le graphe d’adjacence des cellules est construit à partir des lignes de
crête ; les chemins correspondant aux files cellulaires sont affichés en rouge.
La seconde étape consiste à trouver l’orientation des lignes. Un histogramme des arêtes du
graphe est construit à partir de l’angulation formée par chaque arête avec l’axe des abscisses. Le
maximum du profil sera assimilé à l’orientation principale de l’image (Jones and Bischof 1996).
Le profil peut aussi permettre de déterminer les orientations secondaires. Du fait de l’agencement 42
en quinconce des cellules, les arêtes de ce graphe sont orientées selon trois directions : la plus
représentée correspondant aux alignements cellulaires. On parlera de direction principale. Le
mode de plus grande amplitude indique l’orientation la plus représentée dans le graphe
d’adjacence, c’est-à-dire l’orientation principale des files (figure 21).
Clichés de l'UMR AMAP
Figure 21. Histogrammes représentant la distribution de l'angle entre les arêtes du graphe d’adjacence et
l’axe des abscisses. A gauche, le mode principal centré sur 0° correspond à des files horizontales. A
droite, l’histogramme semble montrer deux modes, un centré sur -90° et l’autre sur 90° ; ces valeurs sont
données sur l’intervalle [-90°, +90°], les deux modes ne forment par conséquent qu’un seul mode centré
sur 90° (ou -90°), qui correspond à des files verticales.
La troisième étape consiste à bâtir les arrangements, le processus comprend les règles de
voisinage sous la forme d'une fonction à minimiser. Pour les files cellulaires, nous proposons une
règle géométrique (fonction de droite) et une règle morphologique (fonction de similarité). La
fonction de similarité permet de lever les ambiguïtés quand il y a plusieurs bassins candidats (cf.
figure 23).
Le processus d’identification des files cellulaires dans une image est progressif et repose sur les
principes suivants : les files sont des alignements de cellules deux à deux similaires, i.e. proches
0
20
40
60
80
100
120
140
160
180
-90 -45 0 45 90
0
20
40
60
80
100
120
140
160
-90 -45 0 45 9043
en termes de taille, de forme et les alignements cellulaires sont indépendants de l’orientation de
l’image.
La construction des files est progressive et repose sur les 3 étapes suivantes : (i) la recherche
d’alignements sous une double contrainte spatio-géométrique, (ii) la gestion des recouvrements
et (iii) le chaînage des tronçons isolés.
i. La recherche d’alignements sous double contrainte spatio-géométrique
Elle permet d’extraire du graphe les plus longs chemins rectilignes de sommets
« géométriquement similaires », i.e. une succession de sommets dont la surface des bassins sousjacents
varie de manière graduelle. Ces alignements sont construits l’un après l’autre, par
agrégations successives de sommets. Plus précisément, il s’agit de trouver quel sommet w du
graphe doit être rajouté à l’extrémité v de la file en construction pour la compléter.
On définit l'ensemble Nk(v) des voisins de rang k du sommet v, ce qui correspond à tous les
sommets du graphe situés à une distance topologique k de v.
Le sommet solution w, s’il existe, est choisi parmi les sommets wk de l'ensemble Nk(v) et est le
sommet géométriquement le plus similaire et le moins éloigné de l'axe de la file. Dans les faits,
on ne garde que 2 candidats, les deux plus proches sommets situés de part et d’autre de l’axe
formé par le sommet v et le sommet précédent dans la file en construction (illustration figure 22).
Schéma de l'auteur
Figure 22. Schéma de la recherche des sommets candidats pour l'agrégation au sommet v courant.
L'exploration se fait en premier lieu au voisinage k=1 (en bleu). Si un bassin est choisi, il devient le
sommet courant et le processus réitère. Sinon la méthode cherche d'autres sommets sur un voisinage
étendu k=2 (en orange). Le processus de voisinage étendu itère jusqu'à k=5. Si aucun sommet n'est choisi
le processus s'arrête et la file (ou tronçon de) est créée.
L’indice de similarité géométrique (formule au §2.3.2) permet de choisir le candidat géométrique
le plus similaire du sommet v, i.e. dont le bassin sous-jacent est géométriquement le plus proche
du bassin sous-jacent au sommet v. Cet indice est bien adapté aux résineux dont la forme et la 44
surface des trachéides varie peu. Pour les Angiospermes, l’indice est un très bon indicateur de
ruptures brutales de taille tout en autorisant des variations continuelles et progressives de surface.
Figure 23. Comment choisir les sommets à rajouter à la file ? A gauche : choix trivial avec une angulation
et une similarité identique. Au centre : choix indéterminé, les bassins ayant une angulation et une
similarité de surface très proches. A droite : le choix du chemin dépend des critères que l'on veut
privilégier.
Si l’indice de similarité géométrique des sommets est supérieur à 0.5, alors aucun candidat du
rang considéré n'est retenu ; le processus est répété au rang suivant. La recherche des candidats
est ainsi progressivement élargie jusqu'au 5ème rang. Au-delà de cette distance la construction de
la file est arrêtée si aucun candidat n'est retenu. La largeur du voisinage étudié est une limite
expérimentale, arbitrairement fixée par les anatomistes du bois impliqués sur le projet.
Quand un sommet w est retenu, on vérifie si la réciprocité est vraie, i.e. si, à partir du sommet w,
on retombe sur le sommet v courant en utilisant comme direction de référence l'orientation
principale des files. S'il ne vérifie pas la condition de réciprocité, la construction de la file
s'arrête. Dans le cas contraire, les sommets situés sur le plus court chemin reliant v à w sont
rajoutés à la file par l’algorithme de Dijsktra (Cormen et al. 2001) ; dans le cas où w appartient
au voisinage de rang 1, aucun sommet intermédiaire n'est rajouté à la file. Enfin le sommet w
devient la nouvelle extrémité de la file et le processus de recherche est réitéré.
De manière pratique l'angulation maximale entre le sommet v et les sommets candidats vk est une
fonction décroissante qui dépend du rang du voisinage. Elle est de 45° au rang 1 et de 10° à
l'ordre 5. Ces seuils ont été fixés expérimentalement d'après les observations faites par les
anatomistes du bois. Dans la première étape de construction, l'axe de la file est donné par
l’orientation principale des files de l'image.
ii. La gestion des recouvrements
Pendant le processus de construction, la présence de déformations peut donner lieu à des
sommets appartenant à plusieurs arrangements. On choisit l'arrangement qui va minimiser la
dérive de la file, grâce au résultat de l’algorithme de Dijsktra. Les autres arrangements se verront
destitués des sommets en commun. 45
iii. Le chainage des tronçons isolés
Du fait de la présence d’intrusions, de déformations ou des limites algorithmiques du watershed,
le processus peut faire apparaitre des tronçons isolés (cf. figure 24). Un tronçon est un
arrangement qui ne parcourt pas l’image de part en part. Le principe de la fusion permet de
concaténer plusieurs tronçons, en utilisant les règles topologiques simples et ainsi d'établir des
lignes entières. L’idée repose sur une double hypothèse : (i) les arrangements traversent l’image
de part en part, (ii) et ils ne se croisent pas. Soient deux tronçons T2 et T2’ adjacents aux files A1
et A3 ; il est fortement probable que T1 et T2 soient deux parties d’un seul et même arrangement
A2. Actuellement seuls les cas typologiquement simples sont traités pour ne pas induire de faux
positifs dans la détection.
Schémas et clichés de l'auteur
Figure 24. Chainage des tronçons isolés. En haut, schéma théorique de la fusion des tronçons. Les
tronçons T1 et T2 sont compris strictement entre les files A1 et A3, ils seront fusionnés et identifiés
comme appartenant à la même file A2. En bas, application sur un cas réel. A gauche, résultat de la chaîne
de traitement sans chainage des tronçons. A droite, résultat après application de la méthode de chainage.
Les tronçons sont identifiés comme appartenant à une même file (même couleur).
Cette méthode permet de créer des files ou des tronçons de file sûrs. A noter que des cellules
isolées ou des artéfacts (dus à une erreur de segmentation ou à une résolution trop faible de
l’image ne permettant pas alors une bonne segmentation) peuvent n’appartenir à aucune file.
Nous ne cherchons pas à les raccorder à une file. Ces cas complexes sont laissés à l’appréciation
de l’utilisateur.
2.2.3 Mise en œuvre de l'identification des files cellulaires
Dans cette partie nous allons montrer l'application de la chaine complète de traitement
(segmentation et modélisation) et d'identification des files cellulaires (cf. illustration ci-dessous).46
Figure 25. Identification automatique des files de cellulaire avec une coloration aléatoire des files.
La représentation visuelle permet d'identifier facilement chaque file. On peut voir apparaitre sur
la droite de l'image des petits bassins supplémentaires due à l'épaisseur de la coupe entrainant un
écrasement de la paroi. L'algorithme du watershed va identifier ces structures comme des bassins
qui ne seront pas supprimés lors de la phase de traitement. Une gestion des cellules peut
permettre de fusionner les bassins entre eux.
Nous envisageons la formalisation d’une nouvelle méthode d'identification des files cellulaires
indépendante de l’ordre de parcours. La méthode teste toutes les combinaisons à partir d’un
nœud fictif de référence (Nœud Père Np) relié à tous les nœuds du bord de l’image. A partir de
Np, on calcule les scores pour tous les chemins permettant de revenir sur Np. Les scores sont
déterminés par la différence d’angulation entre les arêtes, l’orientation des files et la similarité
entre 2 bassins. Une fois tous les parcours réalisés, on dépile les files en fonction des scores, en
supprimant au fur et à mesure les trajets sélectionnés ainsi que les trajets contenant au moins un
nœud du trajet sélectionné. Cette méthode doit permettre d'identifier toutes les files ainsi que les
tronçons en une seule étape.
Nous avons vu que les files sont créées uniquement à partir de règles géométriques et
topologiques sur les bassins. Il est important de s’assurer de la robustesse de la détection des
bassins, c’est-à-dire que la méthode utilisée soit précise dans le détourage des cellules et
insensible au flou de l’image.
Sur l'évaluation de la précision de la mesure, la figure 26 présente la comparaison d'une
soixantaine d'aire de bassins normalisés obtenu à partir de mesures manuelles et automatiques.
Le coefficient de détermination tend vers 1, montrant que les aires des bassins sont bien
corrélées. La pente de la droite de régression est faiblement supérieure à 1 ce qui indique une
faible surévaluation de la méthode automatique. La méthode automatisée semble surévaluer les
mesures (ou l'expert les sous-évalues). La méthode automatique est cependant répétable. 47
Figure 26. Etude de la surface de bassin chez l'acajou (Pycnanthus sp.). En abscisse, les surfaces
normalisées obtenues à partir d'une segmentation manuelle. En ordonnée, celles obtenues à partir de la
méthode automatique. Le coefficient de détermination est proche de 1, montrant un bon ajustement des
surfaces.
Ici, seule la précision géométrique est étudiée : le décalage géométrique n’est volontairement pas
pris en compte car estimé négligeable au regard de la surface des cellules. Mais il va de soi que
l’étude pourrait être élargie au décalage, notamment pour évaluer le recouvrement géométrique
entre annotations expertes et segmentation algorithmique.
2.2.4 Conclusion sur la mise en œuvre de la modélisation
La modélisation des données est indispensable pour l'étude d'éléments possédant une
organisation, telle que les files cellulaires. Elle permet de suivre l'évolution des variations au sein
de ces organisations. Pour cela nous avons mis en place une méthode de parcours sous
contraintes de graphe. Le processus comprend d'une part des règles de voisinage sous la forme
d'une fonction paramétrable à minimiser (droite, cercle, spirale…) et d'autre part l'apport expert
d'une connaissance "a priori" caractérisant les organisations recherchées.
La méthode permet de détecter automatiquement les files cellulaires et les tronçons
probablement issus de la même file. Le processus est capable d'absorber des déformations
biologiques telles que celles produites par les vaisseaux et de concaténer des portions de files
grâce à des règles topologiques simples.
La méthode traite les images à la volée, c'est-à-dire une à une. Pourtant pour réaliser les analyses
statistiques, il faut pouvoir suivre les organisations sur une large zone d'étude. Le prochain
chapitre décrit la méthode de suivi d'organisations sur le plan ligneux complet.
y = 1,0477x + 0,0127
R² = 0,9991
0
3
6
9
0 2 4 6 8
automatique
manuelle48
2.3 Fusion des données
2.3.1 Mosaïques des résultats
L’assemblage d’images (ou stitching) est un procédé consistant à combiner plusieurs images qui
se chevauchent partiellement en vue de produire des images de très haute résolution (THR) ou
des panoramas. C’est un problème complexe, mais largement traité dans la littérature. La
majorité des méthodes d'assemblage d’images décrites nécessite un chevauchement exact entre
les images (Brown and Lowe 2007) et des radiométries identiques pour produire des résultats
sans déformation périphérique (Vercauteren et al. 2006 ; Clienti and Beucher 2010). D’autres
méthodes, telle que SIFT (Scale-Invariant Feature Transform) (Lowe 2004 ; Toews and Wells
2009) ou SURF (Speeded Up Robust Features) (Bay et al. 2006 ; Oyallon and Rabin 2013),
permettent de fusionner les images sans connaître a priori leur chevauchement grâce à des points
d'intérêt identifiés dans les deux images à apparier. Cette étape est souvent suivie d’un
étalonnage des images. Cette opération vise à minimiser les différences entre les images par la
correction des défauts optiques tels que les distorsions, l’exposition, le vignettage ou les
aberrations chromatiques. Les images THR restent complexes à manipuler du fait de leur taille
importante (environ 3 milliards de pixels pour des poids de 30 Go) et ce malgré l’augmentation
de la puissance des ordinateurs. En acquisition satellitaire, les images produites en THR sont
souvent découpées ou réduites pour être plus facilement traitées. Mais, même avec ce procédé,
les images ne peuvent être traitées sur des ordinateurs tous publics.
Pour s’affranchir de ces différentes difficultés techniques, notamment des corrections
radiométriques et du redécoupage de l’image THR, nous avons opté pour une approche
combinant le traitement à la volée des images composant la mosaïque et la fusion progressive
des résultats produits (Wyant and Schmit 1998 ; Sjö dahl and Oreb 2002). Pour faciliter leur
manipulation, les résultats sont décrits à l’aide d’un graphe. Un tel modèle est bien adapté aux
organisations cellulaires souvent caractérisées par un ensemble de règles connues a priori qui
servent à l’identification des structures à fusionner. La fusion des résultats de deux images
adjacentes se ramène donc à la fusion de deux graphes.
Dans notre cas, la limitation de la course de la platine du microscope réduit la zone d’observation
à une surface de 10x10 cm², décrite par une mosaïque d’environ 1500 images couleurs de
1600x1200 pixels. Les images peuvent montrer un flou local ou périphérique en raison des
déformations optiques ou dela non planéité locale des échantillons observés. Par contre, le
microscope est équipé d’une platine, dont le positionnement est connu et enregistré à chaque
prise de vue. 49
2.3.2 Présentation d'une méthode générique de fusion de graphe
Nous présentons une méthode générique pour l'agrégation des résultats par la fusion unique de
graphes disjoints. La méthode est basée sur une définition s’appliquant à des graphes simples
(i.e. non orientés et sans boucle). L’agrégation des (graphes de) résultats est réalisée à partir d’un
noyau de fusion, c’est-à-dire à partir d’un ensemble de couples de nœuds à fusionner. Cet
ensemble est obtenu à partir d’une fonction bijective définie par un produit de règles de fusion.
Il est rappelé qu'une fonction est bijective si et seulement si tout élément de son ensemble
d'arrivée possède un et un seul antécédent, c'est-à-dire qu'elle est image d'exactement un élément
de son ensemble de départ.
Dans notre cas d’étude un graphe simple est utilisé pour décrire l'organisation cellulaire. Un
graphe est dit simple s'il n'a pas de sommets en double, ni d’hyper-arcs (i.e. des arcs différents
joignant les mêmes sommets), ni de boucles. C’est-à-dire qu’il n’existera au plus qu’une seule
arête reliant le sommet X au sommet Y. La fusion des graphes se fera par la fusion des sommets
communs aux deux graphes, c’est-à-dire des sommets portant les mêmes caractéristiques. Le
noyau de fusion est décrit par un produit de termes normalisés décrivant uniquement les aspects
géométriques – position et taille – des cellules potentiellement fusionnables (papier IV,
SCIA'13). Un sommet n’est retenu que si sa position est dans un cercle dont le rayon correspond
à celui du cercle inscrit du bassin. La similarité des surfaces est définie par l’indice de similarité
géométrique noté GS. Défini entre deux sommets p et q, il est donné par la différence normalisée
des surfaces Sp et Sq.
| |
( )
Figure 27. Différence normalisée des surfaces Sp et Sq : ce critère est une adaptation de l’indice de
dissimilarité de Bray-Curtis (Bray and Curtis 1957) proposé pour comparer deux échantillons de même
taille.
Plus l’indice tend vers 0 (figure ci-dessus), plus les surfaces des cellules comparées sont proches
donc similaires ; en pratique, deux sommets sont considérés comme « identiques » dès que leur
indice de similarité géométrique est inférieur à 0,1.
N.B. : Les cellules du bord de l'image étant tronquées, elles sont supprimées du graphe avant le
processus de fusion.
2.3.3 Agrégation des résultats de files cellulaires
La méthode de fusion est indépendante du taux de recouvrement et du flou des images (cf. figure
28). En effet la méthode de détection du contour des cellules est globalement insensible au flou.
Les critères utilisés dans le noyau de fusion (position et taille) sont de ce fait invariants au flou 50
local de l’image. De plus, la connaissance du déplacement du microscope est un avantage pour
identifier les cellules potentielles à fusionner car on définit au préalable un référentiel commun à
toutes les images qui correspond aux coordonnées [0,0] de la platine.
Clichés et illustrations de l'auteur
Figure 28. En haut, chevauchement fort de deux images de Pin (Pinus sp.). En dessous, superposition des
graphes des deux images (en bleu et en rouge) et résultat de la fusion des graphes, les lignes sont en noir.
Au centre, chevauchement faible de deux images de Pin, avec le résultat de la fusion. Les résultats des
fusions sont sensiblement identiques : la différence provient des échanges locaux de cellules : lors de la
fusion, la cellule retenue est celle la moins floutée.
Le sommet issu de la fusion est représenté par le meilleur candidat des deux sommets, à savoir
celui associé à la cellule la moins floue. L'estimateur de flou local, basé sur la relation entre les 51
dynamiques locales et les différences d'intensité (cf. §2.4.2.2 - Niveau des composants), est
utilisé pour finaliser le choix.
La fusion des différents graphes d’adjacence des images de la mosaïque permet de suivre les
files radiales sur de grandes zones d’observation, ici deux cernes pleins (cf. figure 29).
Cliché de l'auteur
Figure 29. Files radiales traversant une mosaïque de 7 images. La méthode ne fusionne pas les images,
mais les graphes obtenus pour chaque image. Ici, nous avons fait une recomposition automatique des
deux files du graphe mais un pavage manuel des images à des fin de visualisation.
La transition entre deux cernes successifs est caractérisée par une rupture morphologique des
cellules. Cette rupture n'affecte pas le processus de fusion des graphes car le processus de fusion
des graphes est basé uniquement sur une agrégation locale des cellules périphériques. L'approche
est stable en ce qui concerne l'évolution des propriétés des cellules.
Le taux de recouvrement des images doit être au moins d’une cellule. Dans les faits, il est
expérimentalement fixé à 3 cellules. Il prend toute son importance dans le cas des Angiospermes
qui présentent de fortes singularités du fait de la diversité (de forme et de taille) des différentes
structures biologiques (cf. figure 30) La présence de vaisseaux entrainent des déformations
cellulaires progressives ou brutales importantes. Les images contiennent des cellules de tailles et
de formes très variables : il n’est pas rare de voir des vaisseaux 10 à 20 fois plus gros que des
fibres. Dans ce cas-là, le recouvrement des images est délicat : il est actuellement laissé à la
discrétion du biologiste lors de l'acquisition.
Cliché de l'auteur
Figure 30. Cas des Angiospermes (ici de l’acajou, Pycnanthus sp.) : la fusion des graphes fonctionne dans
le cas de recouvrement total du vaisseau. La file centrale (en rouge) est bien assemblée, du fait du
recouvrement total des vaisseaux. Mais l’écrasement des fibres produit par le développement des 52
vaisseaux provoque des discontinuités dans les files périphériques (verte et bleue), que la méthode de
fusion ne peut corriger
Il est nécessaire de mettre en place une approche de concaténation de files à partir de l’étude du
voisinage des files, similaire à l’approche présentée dans (Article I.PMA'12) et sommairement
décrite dans le chapitre §2.2.2 « Processus d'identification des arrangements ».
2.3.4 Conclusion
L'étude des tendances biologiques le long des files est nécessaire pour comprendre la mise en
place des différentes organisations et maturations de cellule. Elle ne peut être faite qu'à partir
d'une grande zone d'observation du plan ligneux. Les images produites par le microscope sont
données sous la forme d'une pile d’images « spatio-localisées » à traiter. Les résultats produits
devront être compilés afin de pouvoir suivre les structures sur tout le plan. Pour cela nous avons
mis au point une fonction générique d'agrégation de graphe simple, basée sur une involution.
Elle permet la fusion à la volée des résultats produits par chaque image. La fonction de fusion
doit être spécialisée en fonction de l'objet d'étude. Pour les files cellulaires, cette spécialisation
passe par l'ajout de règles géométriques insensibles au flou de l'image. Cette contrainte est
d'autant plus importante car les images prises au microscope présentent des déformations
périphériques. La méthode permet de reconstituer une mosaïque entière du plan de coupe.
Il pourrait être intéressant de remplacer dans la fonction de fusion les termes de position par un
terme relatif à la dynamique de la cellule : ce point nécessite de caractériser le flou local de
l’image pour normaliser la signature de chaque cellule. Un tel indicateur est présenté dans la
définition des coefficients de pertinence (Article III, FSMP'13), et est utilisé pour valider les
résultats quantitatifs produits. L’utilisation de coefficient pour corriger les mesures effectuées est
sérieusement envisagée, notamment pour homogénéiser la signature d’intensités des cellules.
Bien que non testée, la méthode de fusion des graphes devrait pouvoir s'étendre aux
organisations en spirales et en cercles (figure ci-contre) du moment qu'au moins un des sommets
d'extrémité des arcs est commun aux 2 images.53
Schéma de l'auteur
Figure 31. Schéma de la fusion théorique d'un cercle ou d'une spirale. A gauche, les arcs bleu et vert
appartiennent à la même image et ont un sommet en commun avec l'arc rouge de la seconde image. Les
cellules chevauchantes sont décalées pour une meilleure visibilité. Le processus de fusion va tout d'abord
fusionner l'arc bleu et l'arc rouge pour ne former qu'une seule structure. Il va ensuite fusionner l'extrémité
de l'arc vert avec la structure pour ne former plus qu'un seul arc bleu représenté dans le schéma de droite.
Par définition la méthode de fusion nécessite de tester pour chaque bassin l'ensemble des
candidats, ce qui représente une complexité algorithmique en O(n²). Pour optimiser cette
méthode, chaque sommet à traiter est trié selon une double clé sur les coordonnées [x ;y] et mis
dans une liste. Les sommets candidats seront les points suivant de la liste où la clé [x ;y] est
comprise dans le rayon du cercle inscrit du sommet à traiter. Trouver les sommets candidats
revient à parcourir une portion infime de la liste. La complexité de l'algorithme est donc ramenée
à O(n log(n)). Au grossissement utilisé, il y a en moyenne 1500 cellules par image, ce qui
représente 2 millions de cellules à traiter pour créer la mosaïque entière. Avec un temps
d'exécution estimés sur la base d'un accès mémoire de 10 nanosecondes par étape, il faudrait
11,11 heures de calcul pour une complexité en O(n²) et seulement 3,1 minutes en O(n log(n)).
Cette optimisation permet donc de traiter l'ensemble des sommets en un temps raisonnable.
La validation de la méthode nécessite une étude comparative des files identifiées par
l’assemblage d’images et par fusion de graphes résultats. Cette étude à venir, devrait permettre
de vérifier que les résultats produits sont rigoureusement identiques, et de comparer les temps de
calculs associés et les ressources nécessaires.
Suivre une file le long du plan ligneux n'est pas suffisant pour les études statistiques, il faut
pouvoir donner des mesures fiables caractérisant aussi bien les files, les cellules que les
composants des cellules. Le prochain chapitre sera dédié à l'étude des mesures et à l'importance
de la nature de celles-ci.5455
2.4 Mesures et fiabilités
2.4.1 Résultats numériques
Les utilisateurs attendent un ensemble de résultats numériques caractérisant la forme, la taille, la
nature des éléments structurants (Igathinathane et al. 2006) tant pour caractériser que pour typer
les structures cellulaires et leur arrangement. En anatomie du bois, ces éléments sont des
structures biologiques plus ou moins complexes (parois, lumina, cellules, files…). Leurs
caractéristiques sont définies par des paramètres automatiquement évalués.
Notre méthode produit plusieurs types de résultats correspondant à différents niveaux
d'observation.
Niveau global : les files cellulaires sont classées en fonction de leur longueur et de la
continuité des hauteurs des cellules les composant ;
Niveau de l'élément : les cellules sont caractérisées par les dimensions géométriques
(diamètre, forme ...) ;
Niveau des composants : les composants cellulaires (paroi, lumen) sont décrits par des
paramètres géométriques (taille, épaisseur, diamètre...), photométriques, d’entropie ou
d’homogénéité pour caractériser l’aspect des éléments.
Dans la pratique, seuls les paramètres géométriques sont utilisés car ils décrivent suffisamment
bien la cellule, l'apport d'autres informations étant rarement utilisé par les experts.
2.4.1.1 Mesure des paramètres
Pour chaque mesure, il faut trouver et proposer la méthode la plus adaptée à l'objet d'étude. Un
ensemble d'outils de calcul est déjà fourni par la plateforme ImageJ (Igathinathane et al. 2008),
mais ces outils ne sont pas adaptés à la caractérisation de structures ou de notions complexes.
2.4.1.1.1 La circularité
La circularité (Žunić and Hirota 2008) est un indice normalisé classiquement exprimé par le
rapport pondéré entre la surface et le périmètre de la cellule. Elle est calculée à partir de
l'expression suivante :
[ ]
[ ]
La circularité est donc donnée par une valeur variant entre 0 et 1, 1 étant la circularité du cercle
parfait. Bien que connu, ce paramètre reste délicat à utiliser : il est d’une part difficile de
déterminer le seuil significatif au-delà duquel l’objet peut / doit être considéré comme plus rond
qu’allongé, et d’autre part d’apprécier l’incidence réelle de la taille de l’objet sur la pertinence de
l’indice. 56
2.4.1.1.2 La surface
La surface (ou aire) est calculée à partir de la somme des pixels composant la cellule. La mesure
est donnée en pixels au carré. Lorsque nécessaire, la calibration de l’image est réalisée à partir
des grossissements optiques et numériques utilisés lors de la numérisation.
2.4.1.1.3 Le périmètre
Le périmètre est défini comme une approximation de la longueur réelle du bord de la cellule.
C’est un problème complexe largement étudié dans la littérature. Différentes définitions du
périmètre de régions discrètes existent (Sabri and Macdonald 2012), l’idée étant de fournir des
approximations les plus proches possible des mesures réelles attendues en fonction de la forme
des régions traitées (Igathinathane et al. 2008).
Dans les faits, le périmètre en tant que tel ne présente pas vraiment d’intérêt pour le typage ou la
caractérisation des cellules. Il intervient uniquement dans l’évaluation de leur circularité,
potentiellement discriminante pour différencier les rayons des cellules. De ce fait, c’est au final
plus le comportement que la valeur « vraie » du périmètre qui nous intéresse. A l’instar de
l’étude d'Igathinathane, nous avons recherché et comparé trois méthodes de calcul de périmètre
simples plutôt adaptées à la description de formes à dominante convexe et ovale.
La première méthode consiste à compter le nombre d'arêtes de contour. Elle se prête bien à
l'évaluation des périmètres de régions filiformes, mais moins à des formes “patatoïdales”
présentant des cotés obliques pour lesquelles la longueur des pentes du bord, décrites par des
marches d’escalier, sont surévaluées.
Dans ce cas-là, le périmètre doit être calculé en introduisant la prise en compte des diagonales.
Par exemple, l'algorithme implémenté dans ImageJ comptabilise le nombre de coins non
adjacents pour moduler le périmètre ; plus précisément le périmètre est défini par le nombre
d'arêtes du bord, auquel est retranchée la valeur ( √ ) pour chacun des coins. 57
√
( √ )
Le défaut majeur de cette méthode est que le résultat va dépendre de l'initialisation du point de
départ. La figure ci-dessous illustre le problème ; pour le premier cas on va trouver 4 coins et
pour le second 5 coins.
On aura au plus un écart maximal de ( √ ) entre deux structures identiques selon la façon de
parcourir le contour.
La troisième méthode (que nous appellerons New) consiste à donner un poids à chaque pixel en
fonction du nombre de pixels voisin et de la pente à décrire. En 4-connexité, les pixels d'angle
(en 1 sur l'illustration ci-dessous) ont un score de racine carré de 2 représentant la pente. Les
pixels d'extrémités (en 2 sur l'illustration ci-dessous) ont un score de deux fois racine carré de
1,25 représentant la double pente. Enfin les pixels de contours (en 3) ont un score de 1.
Perim = ∑ Pixel d'angle) + ∑ Pixel d'extrémité) + ∑ Pixel de contour)
Les figures ci-dessous montrent l'évolution des méthodes de calculs par rapport au périmètre
attendu réel, avec une variation du rayon du disque de 0 à 50.
Périmètre58
y = 1,0537x + 1,8258
R² = 0,9999
0
50
100
150
200
250
300
350
0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000
Périmètre calculé avec ImageJ
Périmètre réel du disque
Périmètre Réel / ImageJ
Perim ImageJ
Linéaire (Perim ImageJ)
y = 1,0551x + 2,1171
R² = 0,9999
0,000
50,000
100,000
150,000
200,000
250,000
300,000
350,000
0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000
Périmètre calculé avec New
Périmètre réel du disque
New
New Meth
Linéaire (New Meth)
y = 1,2732x + 4
R² = 1
0,000
50,000
100,000
150,000
200,000
250,000
300,000
350,000
400,000
450,000
Périmètre calculé avec Arête
0,000 50,000 100,000 150,000 200,000 250,000 300,000 350,000
Périmètre réel du disque
Arête
Arrête
Linéaire (Arrête)59
Le coefficient de détermination R² représente la fraction de la variance de y "expliquée" par la
corrélation de y avec x. Le R² est proche de 1, ce qui signifie que les périmètres sont fortement
corrélés et que presque 100% de la variance de y est expliquée.
Courbe 1, on surévalue le périmètre et on a un décalage de 1,8 à l’origine.
Courbe 2, on surévalue le périmètre et on a un décalage de 2,1 à l’origine.
Courbe 3, on surévalue le périmètre et on a un décalage de 4 à l’origine.
Avec les trois méthodes on surestime le périmètre du cercle. La méthode d’ImageJ a la pente la
plus proche de 1 (y = 1,0537x) et le plus faible décalage à l’origine. Elle donne donc une
meilleure approximation du périmètre que les autres méthodes.
2.4.1.2 Séparations des composants
Chaque cellule est composée de deux structures anatomiques (lumen et paroi) qu’il convient de
différencier avant toute mesure : cette différentiation conditionne la nature des mesures
effectuées. Le lumen est plutôt caractérisé par sa surface, la paroi par son épaisseur (Guo et al.
2011). Par ailleurs, la définition de paramètres même apparemment simples n'est pas partagée :
l’épaisseur de la paroi en est une très bonne illustration, aucun consensus n’ayant été trouvé
auprès de la communauté des anatomistes du bois. Ce paramètre peut être exprimé de différentes
manières : une distribution de valeurs, la valeur moyenne ou médiane de ladite distribution, des
valeurs prises selon l’orientation de la file ou sa normale.
Pour notre part, les lumens et les parois sont identifiés par répartition des points de la cellule en
deux groupes selon leur intensité : d’une part les points clairs correspondant au lumen, et d’autre
part les points sombres correspondant à la paroi. La limite sombre / clair est automatiquement
évaluée par l'algorithme des 2-moyenne qui présente l’avantage d’être un bon compromis entre
efficacité et généricité. En l’absence de formalisation précise, nous avons choisi d’exprimer
l’épaisseur de la paroi non pas par une valeur mais par l’ensemble de toutes les épaisseurs
mesurables à partir de son contour externe. Cette distribution est calculée à partir d’une carte de
distances orientées. La façon dont elle sera utilisée est laissée à la convenance de l'utilisateur.
2.4.2 Fiabilité
Dans le cadre d’un traitement de masse il est intéressant de pouvoir qualifier l’exactitude de ces
évaluations. Un indice de certitude est donc attribué à chaque paramètre calculé, qu’il porte sur
les cellules, ses constituants ou leurs alignements.
Intuitivement, les mesures seront plus ou moins proches de la valeur réelle en fonction du cumul
des erreurs liées à la qualité de l’image, la configuration biologique, les approximations
algorithmiques,… Il est donc important de donner à chaque type de résultat une fiabilité estimée.60
2.4.2.1 Niveau global
Une file f doit être suffisamment longue pour être significative : sa longueur Lf est donc
comparée à un seuil L automatiquement obtenu à partir de la distribution des longueurs
calculées. De même, une file est normalement composée de cellules proches, en termes de forme,
de taille et d’aspect. Pour simplifier, ces trois critères sont ramenés à la seule hauteur des cellules
prises en tout point dans la direction normale à la file : cette simplification est une modélisation
de la conséquence du mécanisme de maturation des trachéides. Ce mécanisme n’est pas
transposable aux feuillus : mais dans la pratique, ce seul critère semble être suffisant pour
caractériser la variation continue observée au sein des files cellulaires des Angiospermes. En
conséquence, les hauteurs Hj et Hj+1 des cellules consécutives de la file f sont comparées. Le
coefficient de fiabilité Rf de la file f est donc définit par un produit de termes normalisés variant
entre 0 à 1.
( (
))∏(
| |
)
Plus le coefficient est proche de 1, plus la file f est dite fiable.
Le coefficient de fiabilité globale permet de caractériser les files, tant en termes d’expression
significative que de comportement géométrique : une « bonne » file est une file suffisamment
longue et dont la taille des cellules varie de manière graduelle. Ce coefficient permet de filtrer
directement les files (cf. figure 32). Les files ayant un bon coefficient sont représentées en vert,
celles ayant un mauvais coefficient en rouge. Les teintes rouges-orangées traduisent des
configurations présentant des coupures ou de fortes discontinuités. Cet estimateur est bien adapté
pour les résineux présentant des arrangements cellulaires très organisés et continus. Pour les
Angiospermes, ce coefficient permet de visualiser rapidement les éléments de vaisseaux et les
files adjacentes. Ces files sont intéressantes pour l'analyse des contraintes géométriques
endogènes des files causées par les vaisseaux.
Cliché de l'auteur
Figure 32. Le coefficient de fiabilité Rf
, permet un affichage intuitif de la fiabilité des files cellulaires : les
files qui sont moins fiables (discontinues ou hétérogènes) apparaissent dans des tons chauds (jaune à
rouge).
Cet indicateur est finalement une note très intégrative des files identifiées. Plus complets que les
indices de performance évoqués en première partie des résultats, ils sont également plus délicats 61
à expliquer : au-delà de la fiabilité de l’identification même de la file, ils reflètent sa qualité. Par
exemple, certains alignements, représentés en jaune sur l’image de droite, semblent
« visuellement corrects » alors que leur coefficient est plutôt mauvais : ce sont des variations de
surface trop fortes qui les pénalisent. Ainsi, la 3ème file orange en partant de la gauche parait
bonne, mais on peut voir de petits bassins introduits dans la file, ils sont issus d'une sursegmentation
due à un décollement de la paroi. Ils peuvent être filtrés pour des analyses
statistiques grâce aux coefficients des cellules.
2.4.2.2 Niveau des composants
Par analogie, un coefficient de fiabilité peut être défini pour toute mesure géométrique, à
condition de savoir à quels critères elle est sensible. Ainsi, contrairement à la surface des
cellules, la surface du lumen dépend du flou local de l’image. Cela provient des algorithmes
utilisés pour segmenter l’image ou les portions de l’image. Les cellules sont obtenues par
watershed : cette méthode n’est pas sensible au flou car même si l’étalement de l’histogramme
est réduit, la ligne de fusion des bassins est préservée tant que les minima locaux ne disparaissent
pas. Les minima locaux sont juste décalés sous l'effet du flou. Le lumen est, quant à lui obtenu
par l'algorithme des k-moyennes : les points de la cellule sont répartis en deux classes, la classe
des faibles intensités et la classe des fortes intensités. L’évaluation du seuil est laissée à
l’algorithme. Cette classification est sensible à la dynamique des intensités car la réduction de la
dynamique supprime les faibles différences, changeant ainsi la répartition des points dont
l’intensité est proche du seuil de segmentation. Le coefficient de fiabilité pour la surface des
lumens est donc directement lié au niveau de flou. Il est donc nécessaire de caractériser ce flou
pour estimer l’erreur commise sur la mesure des surfaces (ou de l’épaisseur) des éléments
constituant la cellule. Nous utilisons un indicateur de flou local introduit dans (Ladjal 2006) qui
reflète les deux propriétés suivantes. L’image est d’autant moins floue que la variation
d’intensité est rapide et, elle est d’autant plus floue que la variation totale d’intensité est grande.
La rapidité de variation des intensités est caractérisée par le maximum local de la norme du
gradient, et la variation totale dépend de l’amplitude locale de l’image. Le flou est défini par
l'expression suivante où p(x) représente l'intensité de pixel d'un bassin et p'(x) la variance.
| |
| |
La figure 33, illustre le comportement cohérent de l’estimateur de flou, calculé à partir de
cellules prises sur des images numériquement perturbées par un flou gaussien incrémental.62
Cliché de l'auteur
Figure 33. A gauche, relation entre un flou gaussien appliqué à une cellule et la valeur de l'estimateur de
flou local. L'estimateur de flou (en bleu) décrit bien l'augmentation du flou. Les croix en rouge
représentent la valeur de l'estimateur pour les cinq cellules de droite optiquement floutées. Elles sont
positionnées sur le graphe en fonction de leur variance. À droite, les cinq cellules avec en couleur la
correspondance de la valeur de l'estimateur. Les lumina les plus flous sont colorés dans les tons rouges,
les plus nets dans les tons verts.
Lorsque le coefficient est élevé, le flou est fort. Le coefficient de fiabilité de la surface du lumen
(ILS) est défini ci-dessous. Le seuil de Ts est défini par l'étude de la variation des lumina en
utilisant un flou gaussien simulé. Les surfaces supérieures au seuil ne sont donc pas
significatives.
{
Cet indicateur de flou permet de filtrer les résultats pour ne garder que les cellules les plus nettes.
Il est notamment utilisé dans la fonction d’appariement des cellules pour la création de
mosaïques d'images (Article IV, SCIA'13). A terme, il pourrait également fournir un facteur
correctif aux mesures évaluées sur les zones plus ou moins assujetties à un flou optique.
2.4.2.3 Niveau de l'élément
A chaque mesure, une étude des facteurs d'influence est effectuée. Par exemple la précision des
surfaces, du périmètre, de la circularité sont sensibles à la taille des objets mesurés. Nous
cherchons à mieux appréhender les variations de précision d’une mesure en fonction d’une taille.
La mesure retenue est la surface, a priori la moins sensible aux variations locales périphériques
des objets. L’objet d’étude est le cercle discret d’Andrès (Andres 1994) car il se rapproche le
plus de la forme d'une cellule théorique ; défini par une double inéquation diophantienne, il
présente les mêmes propriétés de symétrie que le cercle euclidien. Le rayon du cercle est
progressivement augmenté et les valeurs réelles sont comparées avec différentes méthodes de
calcul.
3
4
5
6
7
8
9
10
0,3 0,6 1 1,4 1,7 2,1 2,5 2,7
valeur de l'estimateur du flou
valeur du flou gaussien
Flou Numérique Flou Optique63
2.4.2.3.1 Le périmètre
La figure ci-dessous représente l’erreur relative de chaque méthode par rapport au périmètre réel.
Les méthodes 2 et 3 convergent vers un même palier à -0.1. Ce qui représente une erreur de 10%
par rapport à la valeur théorique. Le palier est atteint pour un rayon 20. La méthode des arêtes
tend vers un palier, avec une erreur de 30%. La méthode d’ImageJ donne les meilleurs résultats
et est optimisée. Seul problème, elle est sensible à la rotation. Elle peut varier d’une valeur de
√ . Pour avoir une erreur maximale de 1%, Il faut que le nombre de pixels soit de 60. Ce
qui représente un rayon de 10 pixels.
√
( √ )
NB : Les cellules ont en moyenne un rayon de 21,4 pixels. Les bassins avec des rayons faibles
correspondent souvent à des cellules d'insertions ou des erreurs de segmentation. Un filtrage sur
la taille des bassins peut donc permettre à l'utilisateur de supprimer ou d'identifier ces cas.64
2.4.2.3.2 La surface
L'étude a aussi été menée pour l'aire avec les cercles discrets et la méthode de comptage des
pixels disponible sous ImageJ. La figure ci-dessous montre l'évolution de la mesure par rapport à
la valeur théorique.
La taille des cellules varie de 500 à 4000 pixels. Par rapport à un cercle discret, on commet une
erreur d’environ 10%.
Le R² vaut 1, ce qui signifie les valeurs estimées sont fortement corrélées aux valeurs attendues.
On sous-évalue l’aire d’environ 9.8%. La méthode produit une erreur constante de 10%, pour des
cellules ayant une aire supérieure à 500 pixels, due un effet de discrétisation du cercle (marche
d'escalier). Pour des cellules avec une aire inférieure à 500 pixels, l’erreur devient importante.
y = 0,9812x - 33,315
R² = 1
0
1000
2000
3000
4000
5000
6000
7000
8000
0 2000 4000 6000 8000 10000
Aire théorique / IJ
theo
Linéaire (theo)65
2.4.2.3.3 La circularité
Nous avons vu que l'aire et le périmètre sont sensibles à la taille des objets calculés. Pour que la
circularité soit fiable, il faut que le périmètre de l'objet soit supérieur à 10 pixels. Les tests menés
sur la circularité confirment ce seuil. Par exemple, un cercle discret avec un rayon de 1 sera
représenté comme un carré ou une croix et sa circularité sera maximale du fait qu'on ne puisse
pas représenter mieux un cercle si petit. Les valeurs en dessous du seuil ne seront plus
significatives.
2.4.3 Conclusion sur la mise en œuvre de la fiabilité des mesures
L’étude statistique des mesures des éléments biologiques est indispensable pour l’étude des
tendances et des invariants, comme par exemple la mise en place des canaux résinifères ou des
vaisseaux. Pour réaliser ces études statistiques, il faut produire des résultats en très grandes
quantités. Produire en grande quantité nécessite de mettre en place des outils de contrôle qualité
afin d'assurer les résultats produits pour les études statistiques. Pour garantir la pertinence des
mesures, nous avons mis en place des indices de fiabilité basés sur les méthodes mises en œuvre
et sur la réalité biologique (longueur et continuité des files). L'indice est un produit de différents
termes normalisés. Ces termes sont la transcription d'un effet (facteur d'influence) sur la mesure :
le flou va être pondérateur de la mesure des composants cellulaires, tandis que la taille des
éléments va être un facteur de pondération de la mesure des cellules. Ces fonctions de fiabilité
combinent indépendamment différentes dimensions (ou échelles d’observation) : de la file aux
composants de la cellule. L'approche est générique, les termes peuvent être complétés/modifiés
en fonction des méthodes de mesure utilisées ou des propriétés des organisations à détecter. Ces
indices permettent ainsi de retenir les files les plus significatives ou de mettre en avant des
perturbations ou configurations biologiques particulières.
En utilisant trois dimensions (cellules, files, composants), l'étude a montré que les résultats
peuvent être qualifiés avant d'être filtrés par l'utilisateur. La méthode donne la distribution des
indices de fiabilité, mais ne fixe pas de seuil de caractérisation. Ce seuil est laissé à l'attention de
l'utilisateur. La mise en place de ces indices a été confrontée à l'expérimentation et la validation
sur des formes de référence (mesures réelles et théoriques). Les conclusions de ces
expérimentations ont permis l'extrapolation des fonctions de fiabilité pour l'étude des files
cellulaires.
Ces indices caractérisant les facteurs d'influence peuvent être utilisés pour proposer un correctif
sur les mesures. Une courbe d'étalonnage du flou pourrait être mise en place pour proposer un
coefficient de correction à appliquer à la valeur évaluée. Les indices de fiabilité permettraient
ainsi de définir la pertinence d'un résultat et aussi de proposer un correctif quand l'utilisateur le
souhaite.66
2.5 Typage cellulaire
Le typage cellulaire est l’ultime étape : il permet de classifier les différentes cellules (fibres,
trachéides, vaisseaux, rayons,…). Il est réalisé à partir de la caractérisation géométrique et
densitométrique des bassins versants associés aux sommets du graphe d’adjacence des cellules.
Contrairement aux travaux de (Kennel et al. 2010) et (Jones and Bischof 1996), la classification
supervisée a été écartée du fait de la difficulté avérée de constituer des jeux d’apprentissage
suffisamment complets et représentatifs de la variabilité biologique existante.
2.5.1 Description de la méthode
Un arbre de décision permettant de discriminer chaque structure anatomique a été établi avec les
anatomistes du bois à partir des deux hypothèses suivantes :
Le périmètre des cellules, noté P, permettant de différencier les « grosses » structures des
cellules globalement « petites ».
La circularité des cellules, noté C, permettant de différencier les rayons globalement
allongés des vaisseaux globalement circulaire.
Les seuils (S) utilisés dans l’arbre de décision (ci-dessus) sont automatiquement réévalués pour
chaque image par une classification des valeurs numériques produites réalisées par une
classification par 2-moyenne.
Un résultat du typage est présenté ci-dessous sur une image de Gymnosperme.67
Cliché de l'auteur
Figure 34. Typage automatique des cellules sur une coupe transversale d'acajou (Pycnanthus sp.). Les
vaisseaux sont colorés en vert, les fibres en bleu et les rayons en gris. Hormis le typage des cellules
hybrides (cf. §2.5.2), le typage avec des règles simple est bon.
Nous appelons "cellule hybride", des cellules en voie de spécialisation ou de transition, ne
répondant plus tout à fait aux critères classiques de fibres et pas tout à fait aux critères des
vaisseaux.
2.5.2 Etudes prospectives
Actuellement il n'y a pas de consensus des botanistes sur les critères réellement discriminants
pour typer les cellules hybrides. Les cellules en violet sont identifiées par tous comme étant des
vaisseaux. Après discussion la cellule jaune serait aussi un élément de vaisseau car la texture de
la paroi est plus diffuse (cf. figure 35, flèches en jaune). La cellule bleue devrait être pour les
mêmes raisons assimilée à un vaisseau bien que les experts la classent comme une fibre à cause
de sa taille.68
Cliché de l'auteur
Figure 35. Reconnaissance des vaisseaux chez une Angiosperme (acajou - Pycnanthus sp.). Les cellules
colorées en rose et en jaune sont des éléments de vaisseaux du fait de leur taille, alors que la cellule
colorée en bleue serait une fibre. La transition fibre – vaisseaux est difficile à apprécier : les cellules
prennent des critères géométriques qui ne sont ni totalement ceux des fibres, ni totalement ceux des
vaisseaux. La caractérisation porte sur d’autres critères, ici la granularité de la paroi.
Une étude prospective a été menée pour caractériser les types cellulaires à partir de leur valence
(cf. figure 36). La valence d'une cellule est définie par le nombre de cellules voisines qu'elle
possède. Théoriquement les fibres possèdent entre 4 et 6 voisins selon la position sur le cerne.
Tandis qu'un élément de vaisseau ou un rayon en possèdera beaucoup plus.
Cliché de l'auteur
Figure 36. A gauche, colorisation en fonction de la valence sur une coupe de sapin (Abies alba). Les
cellules sont colorées graduellement en fonction du nombre de voisin. En bleu les cellules avec une faible
valence, en vert les cellules avec une valence proche de la valeur théorique et en marron les cellules avec
une forte valence.69
Les tendances théoriques sont bien suivies. Des éléments perturbateurs (artéfacts de
segmentation, intrusions, ponctuations, etc.) peuvent faire augmenter le nombre de voisins d'une
cellule, mais les rayons et vaisseaux (facilement reconnaissables) sont bien discriminés. La
valence peut être utilisée pour identifier et supprimer les ponctuations, dont leur valence est
toujours de 2. Pour les typages complexes, la valence n'apporte pas d'information supplémentaire
permettant d'effectuer un choix. Seule l'étude de la texture des parois semble pouvoir à terme de
lever l'ambiguïté.
2.5.3 Conclusion sur la mise en œuvre du typage cellulaire
Le typage cellulaire consiste à classifier les cellules en trois catégories : les fibres, les rayons et
les vaisseaux (cf. §1.2.2). Il est souvent réalisé à partir d'au moins deux plans de coupes pour
trouver les indices permettant la classification. Nous proposons une méthode simple, basée sur
un arbre de décision expert, pour typer les cellules à partir d'un seul plan de coupe. Les
discussions avec les experts et les études prospectives montrent que le typage est un problème
très complexe sur un seul plan de coupe. Des pistes de travail ont malgré tout été identifiées,
comme par exemple l'ajout d'indices texturaux de paroi pour différencier les éléments. 7071
3 APPLICATION ET RESULTATS
3.1 Implémentation
La méthode a été implémentée en Java et intégrée sous forme de plugin à la plateforme ImageJ.
ImageJ (Schneider et al. 2012) est un logiciel multi-plateforme et open source de traitement et
d'analyse d'images développé par le National Institute of Health ; il peut être utilisé sur n'importe
quel ordinateur capable d'exécuter les plates-formes Java (Mac OS X, Linux x86 ou Microsoft
Windows), ce qui en fait un produit idéal à utiliser dans la plupart des laboratoires. Des
bibliothèques libres, tel que Java Universal Network/Graph Framework
(http://jung.sourceforge.net/doc/index.html) pour la gestion des graphes sont utilisées pour avoir
une structure de données efficace. A titre indicatif, le plugin permet de traiter des images de
1600x1200 pixels en moins de 20 secondes sur un ordinateur doté d’un processeur Intel Q720
cadencé à 1.6 GHz.
Cliché de l'auteur
Figure 37. Interface d'mageJ avec la fenêtre du plugin ouverte. Le plugin permet de choisir si l'on veut
traiter une mosaïque ou juste une image et de sauvegarder les étapes intermédiaires du traitement.72
3.2 Application aux files cellulaires
Les résultats obtenus au cours de la thèse sont présentés et discutés dans ce chapitre. Dans un
premier temps, nous présentons le jeu d'essai sur lequel la méthode a été testée pendant son
développement. Ensuite, nous montrons un exemple de détection automatique de file cellulaire.
Les limites de la méthode sont discutées et illustrées en troisième partie. Et pour finir, des études
(réduites) de performance de l'ensemble de la méthode et des perspectives à court terme sont
présentées.
3.2.1 Jeu d'essai
L’étude expérimentale consiste à comparer les résultats produits par notre méthode à ceux issus
d’un jeu de données expert constitué de 12 images (cf. figure 38) dont les cellules ont été
manuellement détourées par des anatomistes du bois. Les différentes expérimentations
permettent d’évaluer les limites de notre méthode notamment à travers des contextes
biologiques, des protocoles de préparations ou des conditions d’acquisition divers et variés. Les
expérimentations sont essentiellement motivées par des questions simples : notre méthode estelle
adaptée aux Angiospermes et aux Gymnospermes, sensible aux protocoles de préparation, à
la présence de flou optique, au niveau de luminosité, etc. ?7374
Clichés de l'UMR AMAP
Figure 38. Panel d'images du jeu d'essai. Les images proviennent de 5 espèces différentes d'arbres (cf.
§1.2.1) issues de différents protocoles de préparations. Pour plus d'information sur les essences et
protocoles d'acquisition par image, se référer à l'annexe 1.
3.2.2 Mise en œuvre de la détection automatique des files cellulaires
Nous avons choisi d'illustrer et détailler le résultat de toute la chaine de traitement sur une image.
Les résultats des images du jeu d'essai (ci-dessous) sont présentés en annexe. Les résultats sont
illustrés avec l'image de Sapin (Abies alba) colorée au bleu de toluidine et numérisée avec un
grossissement de x200. La figure 39 présente le résultat de la détection automatique des files (cf.
§2.2). Les files sont colorées aléatoirement. La figure 40 montre la colorisation des files en
fonction de leur score (cf. §2.4). Comme la fusion ne donne pas de représentation visuelle, pour
illustrer son principe et le résultat, nous avons découpé l'image en 4 sous-parties de taille et de
chevauchement inégaux (cf. figure 41 et 42). 75
Cliché de l'auteur
Figure 39. Résultat de la modélisation des files cellulaires. Chaque file est aléatoirement colorée. 88% des
files sont reconnues par la méthode avec un temps d'exécution de 10,4 sec.
Cliché de l'auteur
Figure 40. Résultat du processus de fiabilité des files (cf. §2.4.2.1). La colorisation des files cellulaires
est fonction de leur fiabilité. Les files qui sont moins fiables (discontinues ou hétérogènes) apparaissent
dans des tons chauds (jaune à marron).76
Cliché de l'auteur
Figure 41. Découpage de l'image en 4 sous-parties de taille et de chevauchement inégaux. La méthode de
fusion doit être indépendante de la dimension de l'image. Seul le chevauchement compte pour la fusion.
Les cellules du bord de l'image ne sont pas prises en compte pour la fusion, car elles sont tronquées et
donc erronées.
Cliché de l'auteur
Figure 42. Les quatre images sont traitées l'une à la suite de l'autre. Les zones noires de l'image sont les
portions de file qui n'ont pas de sommet en commun avec au moins une des images. Les cellules du bord
de l'image ne sont pas prises en compte pour la fusion car elles sont biaisées. Nous préconisons un
chevauchement minimal de 3 cellules pour s'assurer qu'au moins une cellule éloignée du bord soit en
commun.77
La méthode de reconnaissance automatique d'organisation permet la détection des files
cellulaires sur des mosaïques d'images numériques. La représentation des files permet d’une part
de contrôler visuellement leur parcours, et, d’autre part de choisir les plus pertinentes pour une
étude statistique. En moyenne 80% des files sont automatiquement reconnues. Les 20% de files
cellulaires non reconnues sont compensées par le nombre d'images que peut traiter la méthode.
La fusion des résultats permet de suivre les files sur l'ensemble du plan ligneux. L'intégration des
résultats dans un outil de visualisation et de correction des files, est un plus pour l'utilisateur.
3.2.3 Limites
La limite majeure à l’identification automatique des files est inhérente au contenu des images,
c'est-à-dire soit aux caractéristiques photométriques de l’image, soit aux configurations
biologiques. Les images présentant une dynamique d’intensités localement inversée - par
exemple la jonction bois d'hiver / bois d'été (figure 43, image du bas), restent difficile à traiter.
Notre méthode reposant sur le contraste de l'image, les bassins versants correspondant aux
cellules sont alors mal détectés et de ce fait, la détection des files est erronée et incomplète. De la
même manière, les images de rondelles de bois poncé (non colorées) sont traitées en réflexion :
la lumière ne traverse pas l’échantillon. De ce fait, les lumens apparaissent d’une couleur
quasiment semblable à celle des parois, en tout cas, pas suffisamment contrastée pour garantir
une bonne reconnaissance des bassins versants et par là-même une bonne identification des files.
A contrario, les coupes de bois non colorées traitées en transmission c’est-à-dire traversées par la
lumière, sont moins contrastées que les coupes colorées. Toutefois la différence paroi/lumen est
suffisamment prononcée pour permettre à l’algorithme d’identifier correctement les files.
Pour les organisations cellulaires complexes (cf. figure 43, image du haut), c’est-à-dire pour
lesquelles les alignements cellulaires ne sont pas intuitifs, de nouvelles règles des parcours et de
reconstruction devront être établies avec les biologistes.78
Cliché de l'auteur
Figure 43. En haut, frêne coloré à la safranine. La détection des cellules est bonne, la méthode ne produit
que des tronçons à cause de la complexité de l’organisation biologique. En bas, sapin coloré au bleu de
méthylène ; l’identification est biaisée par la présence d’inversion locale de contraste au niveau de la
jonction bois été/hiver.
3.2.4 Performances
A ce stade de notre travail, la performance globale de la méthode de traitement est
essentiellement une appréciation qualitative, i.e. une évaluation qui compare de manière assez
globale les résultats produits aux annotations expertes. Les temps « de traitement », le nombre de
cellules détectées et les pourcentages de files identifiées sont présentés au tableau 1. Le tableau
montre que la méthode automatique détecte un nombre cohérent de cellules en environ 80 à 100
fois moins de temps que l’expert en fonction des préparations, des configurations anatomiques
ou des grossissements utilisés et que globalement notre méthode fonctionne bien (88% de files
bien détectées en moyenne) sur des images présentant une organisation structurée avec un
contraste paroi/lumen marqué.
Tableau 1. Résumé de quelques résultats significatifs : la taille des images, le nombre de cellules
extraites, le temps CPU obtenu sur un ordinateur équipé d'un processeur Intel Xeon à 2,3 GHz et le
nombre de files détectées en pourcentage par rapport au nombre de files identifiées par l'expert. Pour
l'expertise, les cellules ont été détourées manuellement sur le logiciel ImageJ. Les résultats sont donnés
pour un représentant de chaque essence.
Espèce Taille
(pixels)
Nombre
cellule
(expert)
Temps
expert
(sec)
Nombre
cellules
(plugin)
Temps
plugin
(sec)
% de
files
détectées
Pycnanthus sp. 1024x768 1302 2520 1359 14,3 86
Abies sp. 1360x1024 787 1300 800 12,4 88
Pinus nigra 1600x1200 1794 2750 1873 23,2 92
Pinus
caribensis 1360x1024 819 1500 828 11,5 9179
Pinus brutia 1600x1200 1411 2450 1458 16,1 83
Quercus ilex 1600x1200 1623 3460 1724 16,2 62
L’appréciation de la performance est loin d’être triviale. Nous pourrions mettre en place un
indice de performance basé sur un rapport entre les effectifs des classes « vrai positif », « faux
positif » et « faux négatif » (Pavez et al. 2011). A l’échelle locale de la cellule, il s’agirait
d’évaluer le taux de recouvrement entre cellules annotées par l’expert et cellules segmentées par
l’application ; la classe « vrai positif » serait définie par l’intersection de la segmentation experte
avec la segmentation automatique, et représenterait les pixels de l’image communs aux deux
annotations ; les classes « vrai positif », « faux positif » (les pixels annotés par l’expert non
présents dans l’image segmentée par l’application) et « faux négatif » (les pixels de l’image
segmentée par l’application non annotés par l’expert) seraient définies par la réunion de la
segmentation experte avec la segmentation automatique ; le rapport des effectifs des deux
ensembles ainsi définis exprimerait une « performance » du recouvrement des annotations
expertes et algorithmiques. A l’échelle globale, il s’agirait d’évaluer le taux de similitude dans la
succession des cellules des files décrites par l’expert et celles identifiées par l’application. La
limite actuelle à la mise en place de ces indicateurs est finalement le manque de données expertes
car la segmentation manuelle est longue et fastidieuse, et souvent incomplète, i.e. l'image n'est
pas entièrement traitée.
3.3 Autres applications
De nombreuses questions n’ont pas pu être approfondies du fait du nombre restreint de jeux de
données cellulaires à disposition. Nous avons choisi de les aborder à travers des
expérimentations menées sur d’autres objets d’étude.
3.3.1 La robustesse de la méthode de segmentation
La méthode de segmentation a été développée pour traiter des images couleurs de cellule de bois.
Les images couleurs peuvent être vues comme des images multi-spectrales simples décrites par
la réponse de trois longueurs d’onde du spectre visible.
Mais qu’en est-il pour le traitement d’images composées de plus de trois longueurs d’onde prises
sur un spectre élargi ?
On s’intéresse à des images de champ de crevettes prise par satellite qui devraient être bien
adaptées à une segmentation par watershed car les champs peuvent être assimilés à des bassins
de type "cellule". L’idée est de segmenter les limites des champs pour dresser un plan cadastral.
Les images sont acquises à partir d'images multi-spectrales satellitaires en Inde. Les tests sont
menés sur une sous-partie (1720x1416 pixels) de l’image native pour accélérer les traitements80
(cf. figure 44). La taille est néanmoins suffisante pour vérifier les points clés dans la méthode de
traitement et la méthode de comparaison mise en place.
Clichés de l'UMR AMAP
Figure 44. Segmentation automatique d'une image satellitaire de champs de crevettes. A gauche, l'image
native, la rivière au centre de l'image a déjà été filtrée par l'opérateur. A droite, le résultat de la
segmentation en surimpression. Certain champ sont bien segmentés, mais on observe une sursegmentation
assez importante pour les zones texturées.
Plusieurs auteurs proposent des stratégies différentes pour traiter de telles images : l’une d’entre
elles consiste à segmenter séparément chaque canal puis à fusionner le résultat de la
segmentation (Frontera-Pons et al. 2013). Une autre consiste au contraire à combiner au mieux
par ACP les différents canaux et ne travailler que sur les premières composantes obtenues
(Tarabalka et al. 2010).
Du fait du nombre peu élevé de bandes spectrales dont nous disposons, nous avons opté pour des
combinaisons idoines de certains canaux (cf. ci-dessous), classiquement utilisées en
télédétection.81
Clichés de l'UMR AMAP
Figure 45. En haut à gauche, recomposition avec les canaux [Red, Green, Blue]. En haut à gauche,
recomposition [Red, Nir, Pan]. En bas, recomposition [Red, Nir]. Le canal Nir correspond au proche
infrarouge (Near infrared), sa longueur d'onde est comprise entre 0,78 et 3 µm. Le canal Pan correspond
au Panchromatique qui ne discrimine pas les couleurs, c'est-à-dire dont la sensibilité à la longueur d'onde
de la lumière est similaire à celle de la vision humaine.
Les images sont traitées par le processus de segmentation mis au point pour l’identification des
files cellulaires (voir §2.1.2).82
Clichés de l'auteur
Figure 46. Lignes de crête respectivement obtenues à partir des images RGB (en haut à gauche),
RedNirPan (en haut à droite) & RedNir (en bas à gauche). Quelques différences sont observables mais
globalement, le résultat est largement sur-segmenté par rapport à l'image de référence (en bas à droite)
Les images de watershed sont sur-segmentées du fait des textures des structures étudiées (cf. cidessus).
Les champs de crevettes non entretenues sont progressivement recolonisés par la
mangrove et donc envahis par un couvert végétal.
Ce cas illustre :
La difficulté à réduire la texture par filtrage préalable à la phase de segmentation ou par
homogénéisation des zones (quantification de couleur, meanshift…). En clair, il est
difficile de filtrer les minima locaux de l’image.
La nécessité de bien traiter la réduction de la sur-segmentation : a priori, la solution serait
plutôt d’approfondir des méthodes de fusion de bassins adjacents homogènes. Le
watershed est globalement un bon algorithme à condition de pouvoir bien préparer 83
l’image, c'est-à-dire bien réduire le bruit, l’effet texture,… De ce fait, il ne peut seul
conduire à un résultat satisfaisant dans la majorité des cas.
3.3.2 Evaluation quantitative de la segmentation
Les images de cellules ne nous pas permis d’évaluer la précision de la segmentation du
Watershed. Les lignes de crête se positionnent relativement bien par rapport à l’espace
intercellulaire et l’algorithme est indépendant du flou local. Mais en l’absence de segmentation
de référence, il nous a été impossible de quantifier l’erreur de segmentation. Là encore, les
champs de crevettes ont pu être utilisés pour mener ce type d’expérimentation : il existe en effet
des jeux d’images annotés qui définissent les cadastres actuels de référence.
La comparaison d’images segmentées ou labellisées est en soi assez complexe. De nombreuses
approches sont présentées dans la littérature (McCune et al. 2002) et ont été discutées lors de
réunions avec des télédétecteurs :
Indice de Kappa (de Cohen) qui exprime la réduction proportionnelle de l'erreur obtenue
par une classification, comparée à l'erreur obtenue par une classification complètement au
hasard. Un Kappa de 0,75 signifie que 75% des bonnes classifications ne sont pas due au
hasard.
Indice de Jaccard qui indique le recouvrement de deux régions : il est définit par le
rapport entre l’intersection et la réunion des deux surfaces à comparer.
Indice de Dice qui exprime la similarité entre deux échantillons. Il se défini comme le
double de l'intersection de deux lots (échantillons de valeurs), divisé par l'union de ces
deux lots.
Indices de sensibilité et de spécificité, initialement développés pour les analyses
médicales basées sur les comparaisons des classes «vrais positifs», «faux positifs», «faux
négatifs» et «vrais négatifs», pour déterminer la validité de tests diagnostiques
quantitatifs. La sensibilité d’un signe pour une maladie est la probabilité que le signe soit
présent si le sujet est atteint de la maladie considérée. La spécificité d’un signe pour une
maladie est la probabilité que le signe soit absent si le sujet n’est pas atteint de la maladie.
Indices de précision et de rappel développés pour la fouille de données ou les systèmes
de recherche documentaire. Le rappel est défini par le nombre de documents pertinents
retrouvés au regard du nombre de documents pertinents que possède la base de données.
La précision est le nombre de documents pertinents retrouvés rapporté au nombre de
documents total proposé par le moteur de recherche pour une requête donnée. Ces
indices, souvent opposés aux précédents, peuvent également se transposer à la
comparaison de deux échantillons par l’étude des effectifs des classes «vrais positifs»,
«faux positifs», etc.84
Pour notre étude nous avons choisi de travailler avec les indices de précision et de rappel.
Comparer deux contours implique de se donner une marge de tolérance : on compare deux
contours à x pixels près. Cette marge de tolérance est décrite par la surface obtenue par dilations
successives d’une des lignes de crête. A gauche, le dilaté des lignes de référence (cf. figure cidessous),
à droite le dilaté des lignes du watershed (obtenu dans les 2 cas par 3 dilatations
successives).
Clichés de l'auteur
Figure 47. Dilatation des lignes de crête de l'image de référence (à gauche) et des lignes du watershed (à
droite).
On note L les lignes de crête du watershed, R les lignes de référence, LD(x) la surface obtenue par
x dilatation de L, et RD(x) la surface obtenues par x dilatations successives de R
Les « vrais positifs » sont les points identifiés comme limite par le watershed et dans l’image de
référence.
Les « faux positifs » sont points identifiés comme limites par le watershed mais pas dans l’image
de référence
|
̅̅̅̅̅̅̅ Où « | » est la différence ensembliste et « - » est le complémentaire
Les « faux négatifs » sont les points non retenus par le watershed mais identifiés comme limites
dans l’image de référence.
̅̅̅̅̅̅̅ 85
Obtenir les effectifs des classes consiste à dénombrer les points noirs dans les images
précédentes. Les indices de précision et de rappel sont définis comme suit :
Ce qui donne les résultats suivants :
Images VP3 FP3 FN3 précision rappel
RGB 62618 158989 30610 0,28256328 0,67166516
RNirPan 84249 170182 13437 0,33112710 0,86244702
RNir 79207 160982 65303 0,32976947 0,54810740
Les indices varient entre 0 et 1, 0 quand la comparaison est mauvaise et 1 quand elle est bonne.
Les résultats produits ne sont pas satisfaisants, car :
le "nettoyage expert" supprime une partie des lignes ne faisant pas partie des champs de
crevette, alors que l'algorithme prend en compte toute l'image.
les indices sont établis pour comparer des images de même granularité : il est nécessaire
de développer des indices idoines permettant de prendre en considération les zones sursegmentées
ou les zones sous-segmentées, i.e. comparer un bassin de l’image de
références avec la somme de n bassins de l’image calculée (et inversement).
3.3.3 Intérêt des approches multi-échelles pour maitriser la sur-segmentation du
watershed
La conclusion du §2.1 insiste sur la nécessité de mettre en œuvre des méthodes permettant de
maitriser voire de supprimer la sur-segmentation du watershed. Nous y avons parlé
essentiellement des méthodes de filtrage des minima locaux a priori ou de fusion de bassins
similaires a posteriori. Ici nous mettons à profit le jeu d’essai multi-spectral pour aborder le
problème sous l’angle du filtrage multi-échelles : du fait, de leur forte sur-segmentation, les
images de champs de crevettes se prêtent mieux que les images des cellules à ce type
d’expérimentation.
Des tests ont étés menés en utilisant une pyramide de gaussiennes pour filtrer progressivement
les minima locaux de l’image et identifier les lignes de crête invariantes au lissage (figure 48).
Les bassins qui disparaissent entre deux niveaux consécutifs de la pyramide de lissages sont
ignorés ; leur germe (minimum local) est considéré comme du bruit. 86
Clichés de l'auteur
Figure 48. Variation arbitraire (0, 3, 6 et 10) de la valeur du flou minimal lors du DoG, avant l'application
du watershed sur l’image RedNirPan
Les lignes de crête sont sensiblement modifiées à chaque filtrage (figure ci-dessus), les germes
de l’algorithme n’étant pas identiques : l’idée de ce filtrage « multi-échelle » consiste à ne
conserver que les lignes qui apparaissent à tous les niveaux de filtrage. Les différents résultats
sont fusionnés en ne gardant que les points de poids les plus élevés c'est-à-dire communs à
plusieurs images (cf. figure 49).87
Clichés de l'auteur
Figure 49. A gauche, chaque watershed est tracé dans une couleur primaire : les points communs aux
quatre watershed apparaissent en blanc. A droite, la subdivision blanche correspondant aux arêtes
communes aux quatre watershed notée par le symbole ∩.
Images VP FP FN précision rappel
∩RNirPan (3) 51674 71056 35031 0,42103805 0,59597486
∩RNirPan (5) 69289 53441 20060 0,56456449 0,77548713
La segmentation avec l'application multi-échelles empirique améliore les résultats. Il est difficile
de juger de la pertinence de l'indice car la sur-segmentation est principalement dans des zones
« hors bassin » et des limites légèrement décentrées. Toutefois, le tableau semble montrer des
meilleurs résultats quand on augmente le nombre de niveaux de la pyramide de flou. Une telle
méthode serait donc à approfondir pour contrôler la segmentation, à condition de savoir maîtriser
le niveau (nombre) et le pas (valeur) de flou à appliquer.
3.3.4 Généricité de la méthode pour la détection de cellules
La méthode de segmentation a été développée pour identifier des cellules végétales à partir
d'images acquises au microscope. Mais qu’en est-il pour la détection d'autres types de cellules ?
On s’intéresse à des images de cellules de muscle de souris qui devraient être bien adaptées à une
segmentation par watershed car elles sont séparées par un espace intercellulaire rappelant la
paroi des cellules végétales. L’idée est de segmenter le contour des cellules pour les mesurer
automatiquement.8889
Clichés de Melissa Bowerman (2013)
Figure 50. Image native de cellule de muscle et image de la segmentation automatique en surimpression.
Les cellules sont pour la plus part individualisées. On observe des phénomènes de sur- et soussegmentation.
La segmentation des cellules semble satisfaisante (figure 50). 88% des cellules sont correctement
segmentées, si on exclut les bassins présents sur le fond de l'image. On observe des soussegmentations
sur certaines cellules, car le contraste de la limite intercellulaire est trop faible, le
minima local sera commun pour les cellules.
La méthode peut segmenter des images cellulaires autres que végétales, si le contenu de l'image
possède les mêmes caractéristiques photométriques, i.e. globalement deux couleurs dont une
représente les objets structurants (ici les cellules).
3.4 Utilisation dans un questionnement biologique
Nous allons nous intéresser à une étude sur les files cellulaires réalisées dans l'UMR AMAP et
aux apports que pourrait apporter l'automatisation du traitement des files cellulaires dans ce
contexte.
3.4.1 Contexte d'étude
La croissance d’une plante se décompose en une succession dans le temps d’évènements
biologiques tels l’allongement des tiges, la mise en place des feuilles, la floraison ou encore la
fructification. La phénologie des plantes représente l’étude du déroulement et de la durée de ces
évènements. Elle est connue pour être, en plus des facteurs endogènes, modulée par
l’environnement et le climat, qui en contexte méditerranéen impose à la végétation des
conditions de croissance particulières rythmées par l’alternance de deux phases de dormance et
de deux phases de végétation. Dans ce contexte d'étude nous avons choisi de travailler sur la 90
réactivation cambiale et dynamique de la xylogenèse en fonction de l’architecture chez Pinus
brutia. C'est-à-dire sur l'étude des files cellulaires à partir de l'assise cambiale.
3.4.2 Méthodologie
Les prélèvements sont issus d'un micro-carottage, pris au milieu d'une unité de croissance. Ils
sont ensuite préparés en suivant un protocole de coupe histologique et mis sous lame et lamelle.
La numérisation de chacun des prélèvements est faite à l’aide d’un microscope Leica muni d’une
platine, d’une caméra. Pour chaque prélèvement, des photos du cambium et du cerne en cours de
formation sont prises, afin de déterminer les vitesses de croissance (nombre de cellules en
fonction du temps). Pour chacune des phases de croissance, le nombre de cellules dans chaque
zone est compté manuellement dans 10 files cellulaires à l’aide du logiciel de traitement
d’images ImageJ.
Illustration de Charlène Arnaud (UMR AMAP)
Figure 51. Utilisation d'ImageJ pour le comptage manuelle des cellules de file cellulaire. Pendant la
première phase de maturation des cellules, on peut voir que l'arrangement des files cellulaires n'est pas
rectiligne.
Le comptage de cellules pour 10 files cellulaires sur un cerne prend environ 10 minutes hors
préparation. Pour l'étude, il y a 11 prélèvements par arbre, sur une dizaine de représentants.
3.4.3 Automatisation des processus
Pour répondre aux remarques des rapporteurs, nous avons commencé à traiter des images ayant
été annotées pendant l'étude. Seuls des résultats préliminaires et expérimentaux sont présentés
lors de la soutenance orale. Nous avons testé l'intégralité de notre méthode d’identification 91
automatique des files cellulaires sur des portions de bande d'image car nous n'avons plus à
disposition les images non fusionnées.
Cliché de l'auteur
Figure 52. En haut, comptage manuelle des cellules de 5 files sur une coupe transversale de Pin. En bas,
identification et caractérisation automatiques des files cellulaires. Le code couleur correspond de l'indice
de fiabilité. On peut voir par superposition le détourage automatique des cellules.
Le traitement d'une bande image par la méthode automatique est inférieur à 10 secondes sur une
machine standard (Processus double cœur Intel ® Xeon ® 2.27 GHz avec 6 Go de RAM). La
totalité de l'image est traitée. Seules les cellules du bord de l'image ne sont pas prises en compte 92
car elles sont tronquées. Contrairement à l'approche manuelle, la méthode va, en plus du
comptage des cellules par file, produire d'autres types de résultats (surface, circularité, épaisseur
de la paroi, etc.) et donner des indices des fiabilités pour caractériser et/ou filtrer les files et les
résultats.
3.4.4 Conclusion sur l'automatisation dans le cadre d'un questionnement biologique
La méthode que nous proposons annote une image six fois plus rapidement que l’expert et
permet un traitement complet de l'image. Plus que le gain de temps, la méthode va permettre
d'accéder automatiquement à d'autres types de mesure permettant l'ouverture à de nouveaux
questionnements scientifiques. L’étude sur le Pin aurait pu aborder la “Dynamique de la
différenciation et de la maturation cambiale chez Pinus brutia. Quelles contraintes endogènes ?”.9394
4 CONTRIBUTIONS ET PERSPECTIVES
Ce travail traite de la difficulté de mise en place des processus de mesures automatiques de
données biologiques à partir d’images numériques dans un cadre d’approches statistiques. Les
questions qui m’ont motivé portent sur :
l’incidence des choix méthodologiques sur la stabilité des résultats, i.e. comment les
incertitudes des différentes briques d’un processus complexe peuvent ou ne peuvent pas
se compenser,
l’étude de la validation des mesures produites, i.e. quels outils ou approches peuvent être
développés pour « garantir » l’exactitude des mesures réalisées,
la généricité réelle des méthodes et modèles appliquées à la biologie végétale, i.e. à partir
de quand une méthode doit être spécialisée pour produire des résultats utilisables par des
botanistes ou des anatomistes,…
Autant de questions « philosophiques » qui ont conditionné l’approche et la réalisation de mon
travail. L’approche et la réflexion se veulent volontairement détachées, pas vraiment théoriques
mais plutôt abordées dans l’absolu, en dehors de tout contexte applicatif… L’idée est bien de se
détacher du cadre d’étude pour être le plus générique possible. Bien évidemment, une fois
formalisés, concepts et méthodes sont ensuite spécialisés, i.e. adaptés à l’identification des files
cellulaires dans des mosaïques d’images, voire plus quand le temps l’a permis.
Répondre à ces questions nécessitent d’adopter une approche hybride consistant à plaquer sur
une approche classique un regard ou un questionnement plus large que nécessaire, plus critique,
peut-être plus profond…
L’objectif de ce travail était le développement de procédures de détection automatique
d'organisations cellulaires à partir de mosaïques d'images microscopiques de bois. L'étude des
tendances biologiques le long des files est en effet nécessaire pour comprendre la mise en place
des différentes organisations et maturations de cellule. Elle ne peut être conduite qu'à partir d'une
grande zone d'observation du plan ligneux. La méthode de préparation des échantillons
biologiques et la mise au point d'algorithmes devaient permettre d’acquérir une description
(organisation, distribution et dimension) des objets étudiés en des temps raisonnables, à des fins
d’analyses statistiques. La méthode s’applique aussi bien sur le clade des Gymnospermes que sur
celui des Angiospermes. Les acquisitions de coupes histologiques colorées de bois ou de plan
ligneux poncé peuvent être traitées par la méthode.
Le premier apport de ce travail est la mise au point d'une chaine de préparation des échantillons
permettant l'acquisition de mosaïque d'images. Les principaux résultats obtenus sont les suivants.95
1. La définition d'un protocole de préparation de rondelles de bois poncées adapté à l’étude
de grandes zones, qui présente l’avantage d’être économe en temps et sans biais de
découpe physique (a contrario de la coupe histologique) pour la construction d'une
mosaïque.
2. Un protocole pour traiter des images produites à partir de coupes histologiques. Cette
méthode permet d'obtenir un meilleur contraste entre les structures biologiques
(lumen/paroi) par la coloration des échantillons.
3. La définition d'un protocole de large numérisation des échantillons, permettant, grâce à
une succession d’images, de former une mosaïque couvrant la zone d’observation.
Un apport de la thèse est la définition d'un processus générique de détection automatique
d'organisations, que l'on a appliqué au cas des files cellulaires. Les principaux résultats obtenus
sont :
1. La mise en place d'une chaine de traitement pour la segmentation et l'individualisation
des cellules de chaque image à partir d’un algorithme de ligne de partage des eaux par
inondation. L'image est tout d'abord nettoyée à l'aide de filtres standards puis un
opérateur multi-échelles permet de rehausser le contraste entre les structures avant la
segmentation. Les cellules sont détourées au niveau de la lamelle moyenne. L'erreur
commise sur la mesure de surface des bassins est faible (en moyenne de 2,81% par
rapport à une segmentation manuelle experte). Ce pourcentage est du même ordre que
l'écart d'inter-variabilité expert. Elle est principalement due à la résolution de l'image qui
ne permet pas de savoir, au pixel près, où se trouve la ligne de crête. Mais, à l'inverse des
approches expertes, notre méthode est répétable. Les déformations optiques et de planéité
génèrent souvent dans les images des flous périphériques. Notre méthode est insensible
au flou de l'image, car elle se base sur des minima locaux stables au flou. Au terme de la
segmentation, les cellules peuvent être mesurées sans spatialisation.
2. La définition d'un graphe d'adjacence des cellules qui décrit les relations de voisinage
intercellulaires. Chaque arête du graphe relie les centres géométriques de deux bassins
voisins, i.e. incidents à une même ligne de crête.
3. La détection d'organisations dans le graphe à l'aide de règles de voisinage prenant la
forme de fonction à minimiser. Pour les files cellulaires, nous exploitons une règle
géométrique (fonction de linéarité) et une règle morphologique (fonction de similarité).
Les alignements sont construits l’un après l’autre, par agrégations successives de
sommets pris dans des voisinages progressivement élargis. En moyenne 80% des files
d'une image sont détectées, même avec des déformations biologiques telles que la
présence des vaisseaux. Ces déformations peuvent entrainer des coupures au sein de files
formant ainsi des tronçons fragmentés. Une méthode basée sur des règles topologiques
d’encadrement entre files permet de concaténer les tronçons appartenant à une même file. 96
Pour ne pas créer de faux positifs seuls les cas simples sont automatiquement traités, les
autres étant laissés à l’appréciation de l’utilisateur.
4. La mise en place d'une fonction de fusion des données permettant de suivre les files
cellulaires sur l'ensemble du plan ligneux. L’agrégation des files d’images consécutives
dans la mosaïque est réalisée par fusion de graphes à partir d’un noyau de fusion, c’est-à-
dire à partir d’un ensemble de couples de nœuds à fusionner. Cet ensemble est obtenu à
partir d'une fonction définie par un produit de termes génériques normalisés devant être
spécialisés. Pour les files cellulaires, seuls les aspects géométriques – position et taille –
sont nécessaires pour identifier les cellules candidates à la fusion. La fusion des graphes
est facilitée par à la connaissance du déplacement de la platine permettant de générer les
images constituant la mosaïque.
5. La définition d'indices de fiabilité permettant de caractériser la pertinence des mesures
produites au niveau des files, des cellules ou des composants cellulaires. Ces indices sont
des produits de différents termes normalisés. Chaque terme est une transcription d'un
facteur d'influence sur la mesure. Ces indices permettent ainsi de sélectionner les files les
plus significatives ou de mettre en avant des perturbations ou configurations biologiques
particulières. En pratique, la relative faiblesse potentielle du nombre de files utilisables
est compensée par la quantité d’images que l’on peut traiter.
Les méthodes développées dans la thèse permettent l’acquisition et le traitement rapide d’un
volume important de données. Ces données devraient permettre de conduire de nombreuses
investigations : des analyses architecturales des arbres avec le suivi de file cellulaire et/ou la
détection d'évènements biologiques remarquables ; des analyses de variabilité intra- et interarbres
pourront être lancées pour mieux comprendre la croissance endogène des arbres.
Pour des échantillonnages futurs, il serait intéressant de prévoir du matériel supplémentaire pour
éprouver la méthode à d'autres images issues de rondelles poncées. Nous avions à notre
disposition pour le jeu d'essai principalement des essences de Gymnospermes et assez peu
d'Angiospermes. Pour connaitre/évaluer les limites de la méthode, il serait nécessaire,
maintenant, de tester la méthode sur un large panel d'essences.
La thèse étant orientée vers la conduite ultérieure d’analyses scientifiques plutôt que vers
l’application industrielle, la priorité a été mise sur la robustesse et la précision des algorithmes.
Pour une utilisation en industrie, une optimisation des algorithmes pourra encore augmenter la
vitesse des traitements.
A court terme, plusieurs points abordés dans cette étude gagneraient à des développements
complémentaires :
L'étude du paramétrage des filtres pour le traitement d'images issues de bois poncé. Les
images des deux protocoles ayant des signatures différentes, il ne serait pas étonnant de
devoir créer deux jeux de paramètres à appliquer en fonction du protocole. Une 97
information complémentaire devra donc être rajoutée sur l'interface du plugin pour que
l'utilisateur puisse indiquer la nature de préparation de ses échantillons.
L'approfondissement des méthodes de segmentation des objets structurants. Comme nous
l'avons vu au §2.1.3, des variantes du watershed devraient permettre une meilleure
initialisation des germes de départ et une fusion plus appropriée des bassins
surnuméraires basées non plus sur les arêtes mais sur des informations portés par les
bassins (taille, texture, etc.). De telles méthodes rendraient les détections plus robustes et
devraient pouvoir couvrir une plus grande variabilité d'images.
L'implémentation de nouvelle méthode de modélisation des files présentée en fin du
§2.2.3 puis sa comparaison avec la méthode actuelle. La nouvelle méthode devrait
accélérer la détection des files et réduire le nombre des étapes. De par le fonctionnement
de cette dernière, les tronçons de file devraient être automatiquement raccordés dès leur
création.
Compléter et valider les indices de fiabilités présentés au §2.4.2.
A plus long terme, il s’agira d’étendre l’analyse à d’autres caractéristiques. Comme nous l'avons
vu au §2.2.1, les végétaux possèdent d'autres types d'alignements dans des tissus (spiral, cercle,
etc.). Théoriquement la méthode doit pouvoir traiter ces arrangements car nous l'avons pensé et
implémentée pour qu'elle permette la spécialisation (générique), c'est-à-dire qu'on puisse injecter
des connaissances expertes pour traiter différentes caractéristiques. Une étude devrait être menée
pour compléter le typage biologique. Cette partie, de par sa difficulté apparente, n'a été que peu
abordée. Il faudrait pouvoir à long terme rendre ces développements aussi fiables (à l’image des
indices de fiabilité sur les files) et pouvoir définir des indices de pertinence pour l'ensemble des
différents types biologiques.9899100
5 REFERENCES BIBLIOGRAPHIQUES
Andres E. 1994. Discrete circles, rings and spheres. Computer & Graphics 18: 695–706.
Baggett D, Nakaya M, McAuliffe M, Yamaguchi TP, Lockett S. 2005. Whole cell
segmentation in solid tissue sections. Cytometry. Part A: The Journal of the International Society
for Analytical Cytology 67: 137–143.
Bancroft JD, Gamble M. 2002. Theory and practice of histological techniques. London; New
York: Churchill Livingstone.
Barghout L, Lawrence WL. 2003. Perceptual information processing system. : 543.
Barthélémy D, Caraglio Y. 2007. Plant Architecture: A Dynamic, Multilevel and
Comprehensive Approach to Plant Form, Structure and Ontogeny. Annals of Botany 99: 375–
407.
Bay H, Tuytelaars T, Gool LV. 2006. SURF: Speeded Up Robust Features. Proceedings of the
ninth European Conference on Computer Vision.
Beucher S. 2012. Towards a unification of waterfalls, standard and P algorithms. CMM/Mines
Paristech publication.
Beucher S, Marcotegui B. 2009. P algorithm, a dramatic enhancement of the waterfall
transformation.
Bray JR, Curtis JT. 1957. An Ordination of the Upland Forest Communities of Southern
Wisconsin. Ecological Monographs 27: 325.
Breiman L, Friedman J, Stone CJ, Olshen RA. 1984. Classification and Regression Trees.
Chapman and Hall/CRC.
Brown M, Lowe DG. 2007. Automatic Panoramic Image Stitching using Invariant Features.
International Journal of Computer Vision 74: 59–73.
Busin L, Shi J, Vandenbroucke N, Macaire L. 2009. Color space selection for color image
segmentation by spectral clustering. 2009 IEEE International Conference on Signal and Image
Processing Applications (ICSIPA).262–267.
Canny J. 1986. A computational approach to edge detection. IEEE Transactions on Pattern
Analysis and Machine Intelligence.
Clair B, Gril J, Di Renzo F, Yamamoto H, Quignard F. 2007. Characterization of a Gel in the
Cell Wall To Elucidate the Paradoxical Shrinkage of Tension Wood. Biomacromolecules 9: 494–
498.101
Clienti C, Beucher S. 2010. Architectures flot de données dédiées au traitement d’images par
Morphologie Mathématique.
Cormen TH, Cazin X, Kocher G-L. 2001. Introduction to Algorithms. MIT Press.
Damiand G, Resch P. 2003. Split-and-merge algorithms defined on topological maps for 3D
image segmentation. Graphical Models 65: 149–167.
Davies ER. 2005. Machine vision: theory, algorithms, practicalities. Amsterdam ; Boston:
Elsevier.
Duda RO. 2001. Pattern classification. New York: Wiley.
Dunn JC. 1973. A Fuzzy Relative of the ISODATA Process and Its Use in Detecting Compact
Well-Separated Clusters. Journal of Cybernetics 3: 32–57.
Einevoll GT, Plesser HE. 2005. Response of the difference-of-Gaussians model to circular
drifting-grating patches. Visual Neuroscience 22: 437–446.
Fourcaud T, Zhang X, Stokes A, Lambers H, Körner C. 2008. Plant Growth Modelling and
Applications: The Increasing Importance of Plant Architecture in Growth Models. 101: 1053–
1063.
Frontera-Pons J, Ovarlez J-P, Pascal F, Chanussot J. 2013. Performance Analysis of Robust
Detectors for Hyperspectral Imaging. Proceedings of the IEEE International Geoscience and
Remote Sensing Symposium. Melbourne, Australie, 1–4.
Gindl W. 2001. Cell-wall lignin content related to tracheid dimensions in drought-sensitive
austrian pine (pinus nigra). Iawa Journal 22: 113–120.
Guo Y, Fourcaud T, Jaeger M, Zhang X, Li B. 2011. Plant growth and architectural modelling
and its applications. Annals of Botany 107: 723–727.
Heinrich L. 2007. Reaction wood varieties caused by different experimental treatments. TRACE,
Tree Rings in Archaeology, Climatology and Ecology 5: 224–232.
Hitz OM, Gärtner H, Heinrich I, Monbaron M. 2008. Wood anatomical changes in roots of
European ash (Fraxinus excelsior L.) after exposure. Dendrochronologia 25: 145–152.
Igathinathane C, Pordesimo LO, Columbus EP, Batchelor WD, Methuku SR. 2008. Shape
identification and particles size distribution from basic shape parameters using ImageJ.
Computers and Electronics in Agriculture 63: 168–182.
Igathinathane C, Prakash VSS, Padma U, Babu GR, Womac AR. 2006. Interactive computer
software development for leaf area measurement. Computers and Electronics in Agriculture 51:
1–16.102
Inglada J, Christophe E. 2009. The Orfeo Toolbox remote sensing image processing software.
Geoscience and Remote Sensing Symposium,2009 IEEE International,IGARSS 2009.IV–733–
IV–736.
Jeacocke MB, Lovell BC. 1994. A multi-resolution algorithm for cytological image
segmentation. Proceedings of the 1994 Second Australian and New Zealand Conference on
Intelligent Information Systems,1994. IEEE, 322–326.
Jones R, Bischof L. 1996. A graph–based segmentation of wood micrographs. In: Billard L,
Fisher NI, eds. Computing Science and Statistics, 28. Sydney: Interface Foundation of North
America, 12–20.
Kennel P, Subsol G, Guéroult M, Borianne P. 2010. Automatic identification of cell files in
light microscopic images of conifer wood. 2010 2nd International Conference on Image
Processing Theory Tools and Applications (IPTA). IEEE, 98–103.
Krause C, Rossi S, Thibeault-Martel M, Plourde P-Y. 2010. Relationships of climate and cell
features in stems and roots of black spruce and balsam fir. Annals of Forest Science 67: 402–402.
Lachaud S, Catesson A-M, Bonnemain J-L. 1999. Structure and functions of the vascular
cambium. Comptes Rendus de l’Académie des Sciences - Series III - Sciences de la Vie 322:
633–650.
Ladjal S. 2006. Estimation du flou dans les images naturelles. RFIA, .
Lowe DG. 2004. Distinctive Image Features from Scale-Invariant Keypoints. International
Journal of Computer Vision 60: 91–110.
Mandelbrot BB. 1983. The Fractal Geometry of Nature. Henry Holt and Company.
Marcuzzo M, Quelhas P, Campilho A, Mendonça AM, Campilho A. 2009. Automated
Arabidopsis plant root cell segmentation based on SVM classification and region merging.
Computers in Biology and Medicine 39: 785–793.
McCune B, Grace JB, Urban DL. 2002. Analysis of ecological communities. Gleneden Beach,
OR: MjM Software Design.
Mcinerney T, Terzopoulos D. 1999. T-Snakes: Topology Adaptive Snakes. MEDICAL IMAGE
ANALYSIS 4: 840–845.
Moëll MK, Donaldson LA. 2001. Comparison of segmentation method for digital image
analysis of confocal microscope images to measaure tracheid cell dimensions. IAWA Journal.
Vol. 22(3): 267–288.
Najman L, Schmitt M. 1994. Watershed of a continuous function. Signal Processing 38: 99–
112.103
Nicolini E, CARAGLIO Y, PÉLISSIER R, LEROY C, ROGGY J. 2003. Epicormic
Branches: a Growth Indicator for the Tropical Forest Tree, Dicorynia guianensis Amshoff
(Caesalpiniaceae). Annals of Botany 92: 97 –105.
Otsu N. 1979. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions
on Systems, Man, and Cybernetics 9: 62–66.
Oyallon E, Rabin J. 2013. An Analysis and Implementation of the SURF Method, and its
Comparison to SIFT. IPOL Journal · Image Processing On Line.
Paiva ARC, Tasdizen T. 2010. Fast semi-supervised image segmentation by novelty selection.
2010 IEEE International Conference on Acoustics Speech and Signal Processing
(ICASSP).1054–1057.
Park J, Keller JM. 2001. Snakes on the Watershed. IEEE Trans. Pattern Anal. Mach. Intell.:
1201–1205.
Pavez R, Mora M, Gonzalez P. 2011. Objective Comparison of Contour Detection in Noisy
Images. In: Martin CS, Kim S-W, eds. Lecture Notes in Computer Science. Progress in Pattern
Recognition, Image Analysis, Computer Vision, and Applications. Springer Berlin Heidelberg,
599–606.
Quelhas P, Nieuwland J, Dewitte W, Mendonça AM, Murray J, Campilho A. 2011.
Arabidopsis Thaliana Automatic Cell File Detection and Cell Length Estimation. In: Kamel M,
Campilho A, eds. Image Analysis and Recognition. Berlin, Heidelberg: Springer Berlin
Heidelberg, 1–11.
Rathgeber CBK, Rossi S, Bontemps J-D. 2011. Cambial activity related to tree size in a
mature silver-fir plantation. Annals of Botany 108: 429–438.
Rossi S, Deslauriers A, Anfodillo T, Morin H, Saracino A, Motta R, Borghetti M. 2006.
Conifers in cold environments synchronize maximum growth rate of tree-ring formation with
day length. New Phytologist 170: 301–310.
Rossi S, Simard S, Rathgeber CBK, Deslauriers A, Zan CD. 2009. Effects of a 20-day-long
dry period on cambial and apical meristem growth in Abies balsamea seedlings. Trees 23: 85–93.
Rozenberg P, Schüte G, Ivkovich M, Bastien C, Bastien J-C. 2004. Clonal variation of
indirect cambium reaction to within-growing season temperature changes in Douglas-fir.
Forestry 77: 257 –268.
Sabri M, Macdonald RL. 2012. Vasospasm: Measurement of Diameter, Perimeter, and Wall
Thickness. In: Chen J, Xu X-M, Xu ZC, Zhang JH, eds. Springer Protocols Handbooks. Animal
Models of Acute Neurological Injuries II. Humana Press, 473–479.
Schindelin J, Arganda-Carreras I, Frise E, Kaynig V, Longair M, Pietzsch T, Preibisch S,
Rueden C, Saalfeld S, Schmid B, Tinevez J-Y, White DJ, Hartenstein V, Eliceiri K, 104
Tomancak P, Cardona A. 2012. Fiji: an open-source platform for biological-image analysis.
Nature Methods 9: 676–682.
Schneider CA, Rasband WS, Eliceiri KW. 2012. NIH Image to ImageJ: 25 years of image
analysis. Nature Methods 9: 671–675.
Scholkopf B, Smola AJ. 2001. Learning with Kernels: Support Vector Machines,
Regularization, Optimization, and Beyond. Cambridge, MA, USA: MIT Press.
Shapiro LG. 2001. Computer vision. Upper Saddle River, NJ: Prentice Hall.
Sjö dahl M, Oreb BF. 2002. Stitching interferometric measurement data for inspection of large
optical components. Optical Engineering 41: 403–408.
Tarabalka Y, Chanussot J, Benediktsson JA. 2010. Segmentation and classification of
hyperspectral images using watershed transformation. Pattern Recognition 43: 2367–2379.
Thibeault-Martel M, Krause C, Morin H, Rossi S. 2008. Cambial Activity and Intra-annual
Xylem Formation in Roots and Stems of Abies balsamea and Picea mariana. Annals of Botany
102: 667 –674.
Toews M, Wells W. 2009. SIFT-Rank: Ordinal description for invariant feature correspondence.
IEEE, 172–177.
Travis AJ, HIRST DJ, CHESSON A. 1996. Automatic Classification of Plant Cells According
to Tissue Type using Anatomical Features Obtained by the Distance Transform. Annals of
Botany 78: 325 –331.
Vapnik V. 1963. Pattern recognition using generalized portrait method. Automation and Remote
Control 24: 774–780.
Vercauteren T, Perchant A, Malandain G, Pennec X, Ayache N. 2006. Robust mosaicing
with correction of motion distortions and tissue deformations for in vivo fibered microscopy.
Medical Image Analysis 10: 673–692.
Verma OP, Hanmandlu M, Susan S, Kulkarni M, Jain PK. 2011. A Simple Single Seeded
Region Growing Algorithm for Color Image Segmentation using Adaptive Thresholding. 2011
International Conference on Communication Systems and Network Technologies (CSNT).500–
503.
Vincent L, Soille P. 1991. Watersheds in Digital Spaces: An Efficient Algorithm Based on
Immersion Simulations. IEEE Transactions on Pattern Analysis and Machine Intelligence 13:
583–598.
Wang M, Zhou X, Li F, Huckins J, King RW, Wong STC. 2008. Novel cell segmentation and
online SVM for cell cycle phase identification in automated microscopy. Bioinformatics 24: 94 –
101.105
Wilson BF. 1984. The Growing Tree. Amherst: University of Massachusetts Press.
Wyant JC, Schmit J. 1998. Large Field of View, High Spatial Resolution, Surface
Measurements. International Journal of Machine Tools and Manufacture 38: 691–698.
Žunić J, Hirota K. 2008. Measuring Shape Circularity. In: Ruiz-Shulcloper J, Kropatsch WG,
eds. Lecture Notes in Computer Science. Progress in Pattern Recognition, Image Analysis and
Applications. Springer Berlin Heidelberg, 94–101.106107
6 ANNEXES
Images et Résultats
Panel d'images constituant le jeu d'essai et le résultat de la labellisation automatique de la
fiabilité des files cellulaires (8 pages).
N.B. Toutes les images sont prises à un grossissement de x200.
1. Coupe histologique de sapin (Abies alba), colorée au vert d'iode (Gymnospermes).
2. Coupe histologique de sapin (Abies alba), colorée au vert d'iode (Gymnospermes).
3. Coupe histologique de sapin (Abies alba), colorée au vert d'iode (Gymnospermes).
4. Coupe histologique d'acajou (Pycnanthus sp.), colorée au vert d'iode (Angiospermes).
5. Coupe histologique de sapin (Abies alba), non colorée (Gymnospermes).
6. Coupe histologique de pin (Pinus nigra), colorée à la safranine, avec un faible éclairage
(Gymnospermes).
7. Coupe histologique de pin (Pinus nigra), colorée à la safranine, avec un fort éclairage
(Gymnospermes).
8. Rondelle poncée de pin (Pinus nigra), non colorée (Gymnospermes).108
1. En haut, image native de sapin (Abies alba). En bas l'identification automatique des files de
cellulaires.109
2. En haut, image native de sapin (Abies alba). En bas l'identification automatique des files de
cellulaires.110
3. En haut, image native de sapin (Abies alba). En bas l'identification automatique des files de
cellulaires.111
4. En haut, image native d'acajou (Pycnanthus sp.). En bas l'identification automatique des files de
cellulaires.112
5. En haut, image native non colorée de sapin (Abies alba). En bas l'identification automatique des
files de cellulaires.113
6. En haut, image native de pin (Pinus nigra) avec un faible éclairage. En bas l'identification
automatique des files de cellulaires.114
7. En haut, image native de pin (Pinus nigra) avec un fort éclairage. En bas l'identification
automatique des files de cellulaires.115
8. En haut, image native de pin (Pinus nigra) issue du protocole de ponçage. En bas l'identification
automatique des files de cellulaires.116117
7 INDEX
angiospermes : la division des Magnoliophyta (ou Angiospermes) regroupe les plantes à fleurs, et donc les végétaux qui portent
des fruits. Angiosperme signifie « graine dans un récipient » en grec par opposition aux gymnospermes (graine nue). ... 22, 23,
24, 32, 45, 52, 61, 73, 95, 97, 109
bit : unité de codage informatique. Une image en 8 bits sera représentée en niveau de gris et une image 24 bits sera représentée
en couleur.................................................................................................................................................................................. 28
complexité algorithmique : la théorie de la complexité est un domaine des mathématiques, et plus précisément de l'informatique
théorique, qui étudie formellement la quantité de ressources (en temps et en espace) nécessaire pour la résolution de
problèmes au moyen de l'exécution d'un algorithme ................................................................................................................. 54
couleur : système de représentation de l'image. Le plus connu est le système RGB car c'est celui utilisé par la majorité des
capteurs CCD. Dans ce système, la couleur est définie par la combinaison additive de trois couleurs primaires plus ou moins
intenses. le Rouge, le Vert et le Bleu. Il existe plusieurs système de couleurs : le plus proche du système rétinien est le
système HLS (Teinte, Luminance, Saturation)....................................... 28, 29, 33, 34, 36, 37, 39, 46, 49, 63, 78, 80, 83, 88, 92
fibres : faisceaux de cellules résistantes, disposées dans le sens axial (de la tige), assurant la rigidité et la résistance mécanique du
bois.............................................................................................................................................17, 25, 26, 52, 53, 67, 68, 69, 70
graphe : un graphe est un ensemble de points, dont certaines paires sont directement reliées par un (ou plusieurs) lien(s). Ces
liens peuvent être orientés, c'est-à-dire qu'un lien entre deux points u et v relie soit u vers v, soit v vers u : dans ce cas, le
graphe est dit orienté. Sinon, les liens sont symétriques, et le graphe est non orienté ...18, 20, 42, 43, 44, 48, 49, 50, 52, 53, 63,
67, 96
gymnospermes : les Gymnospermes sont des plantes faisant partie d'un sous-embranchement paraphylétique des Spermaphytes
(plantes à graines) qui inclut les plantes dont l'ovule est à nu (non enclos dans un ovaire à la différence des Angiospermes) et
est porté par des pièces foliaires groupées sur un rameau fertile (cône). Le nom Gymnospermes provient du grec
gymnospermos signifiant « semence nue » ..............................................................................18, 22, 23, 25, 32, 73, 95, 97, 109
image native : L'image native est l'image produite par un système d'acquisition n'ayant pas subit de traitement (filtrage) .... 35, 36,
80, 81, 110, 111, 112, 113, 114, 115, 116, 117
intensité d'un signal : puissance ou force du signal. 'intensité d'un niveau de gris est une valeur entière variant entre 0 et 255 qui
représente la luminosité d'une teinte grise ..................................................................................33, 34, 36, 37, 38, 40, 52, 60, 62
mosaïque d'image : Une mosaïque d'image est la fusion de plusieurs images .. 4, 17, 19, 20, 26, 28, 49, 52, 53, 54, 63, 72, 95, 96,
97
phloème secondaire : Le phloème est le tissu conducteur de la sève élaborée qui est une solution riche en glucides tels que le
saccharose, le sorbitol et le mannitol chez les plantes vasculaires. Le phloème a aussi un rôle de réserve avec les parenchymes
et un rôle de soutien avec les fibres libériennes et les sclérites. Dans les troncs des arbres, le phloème peut faire partie de
l'écorce, pour cette raison son nom provient d'un dérivé du mot grec phloos qui signifie écorce.............................................. 24
pixels : partie élémentaire de l'image numérique (abv de Picture Element). Il porte une information qui dépend de la nature et du
codage de l'image. ............................................................................ 28, 33, 34, 36, 40, 41, 49, 57, 58, 64, 65, 66, 72, 79, 80, 85
prétraitement d'image : opération visant à modifier les valeurs des pixels d'une image .............................................................. 35
RGB : le système RGB (Rouge Vert Bleu en français) est le plus simple des systèmes de codage informatique des couleurs. Il est
composé de 3 canaux permettant d'afficher la couleur sur les écrans........................................................................................ 36
segmentation : la segmentation d'image est une opération de traitement d'images qui a pour but de rassembler des pixels entre
eux suivant des critères prédéfinis. Les pixels sont ainsi regroupés en régions, qui constituent un pavage ou une partition de
l'image. Il peut s'agir par exemple de séparer les objets du fond. Si le nombre de classes est égal à deux, elle est appelée aussi
binarisation. 18, 19, 20, 33, 34, 35, 37, 38, 39, 40, 46, 48, 62, 64, 70, 80, 81, 82, 83, 84, 86, 88, 90, 96, 98, 101, 102, 103, 104,
105
stabilité algorithmique : en analyse numérique, une branche des mathématiques, la stabilité algorithmique (ou numérique) est
une propriété globale d’un algorithmique numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens 38
stitching : l'assemblage de photos est un procédé consistant à combiner plusieurs images numériques se recouvrant, dans le but
de produire un panorama ou une image de haute définition ................................................................................................ 20, 49
traitement d'image : opération visant à extraire une information d'une image . 4, 11, 17, 19, 33, 35, 36, 37, 40, 46, 47, 49, 60, 72,
75, 79, 80, 81, 90, 91, 92, 93, 96, 97, 98, 102
xylème secondaire : le xylème (du grec xylon, « bois ») ou tissu xylémique, est un constituant des tissus végétaux formé de
l'association de vaisseaux, de cellules mortes ou vivantes de soutien et de cellules associées. ........................................... 24, 25118
8 PUBLICATIONS
Articles de références de la thèse (33 pages)
I. PMA'12. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2012.
II. AOB'14. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio Y. 2014
III. FSPM'13. Brunel G, Borianne P, Subsol G, Jaeger M, Caraglio, Y. 2013.
IV. SCIA'13. Brunel G, Borianne P, Subsol G, Jaeger M. 2013. Automatic Characterization of the Cell Organization in Light Microscopic Images
of Wood: Application to the Identification of the Cell File
Guilhem Brunel1,2, Philippe Borianne2
, Gérard Subsol3
, Marc Jaeger2
& Yves Caraglio2
1UMII; 2CIRAD – UMR AMAP
Montpellier, France
Guilhem.brunel@cirad.fr
3CNRS – LIRMM
Montpellier, France
Abstract — Automated analysis of wood anatomical sections is
of great interest in understanding the growth and development
of plants. In this paper, we propose a novel method to
characterize the cell organization in light microscopic wood
section images. It aims to identify automatically the cell file in a
context of mass treatment. The originality of the proposed
method is our cell classification process. Unlike many
supervised methods, our method is self conditioned, based on a
decision tree which thresholds are automatically evaluated
according to specific biological characteristics of each image. In
order to evaluate the performances of the proposed system and
allow the certification of the cell line detection, we introduced
indices of quality characterizing the accuracy of results and
parameters of these results. Those are related to topological
and geometrical characters of the cell file at both global and
local scales. Moreover, we propose an index of certainty for
selective results exploitation in further statistical studies. The
proposed method was is implemented as a plugin for ImageJ.
Tests hold on various wood section well contrasted images show
good results in terms of cell file detection and process speed.
Keywords: Image processing, pattern recognition, wood
microscopic images, cell segmentation, file identification.
I. INTRODUCTION
The development of the tree results from the primary
growth and secondary growth. The primary growth concerns
the extension and branching of the axes. Whereas the
secondary growth is on their thickening. Among others,
issues of carbon squestration and wood energy leads to
consider both structural and functional aspects using
acumulating approaches. Howhever, these approaches,
concerning secondary growth and its relationships between
secondary and primary growth, are based on fragmentary
studies, mainly raising from data acquisition costs.
Secondary growth results from the cambial activity, which is
among other things to the origin of wood (xylem) and
consequently the different cellular elements that constitute it.
The understanding of mechanisms of growth of the cambium
will go through the study of rhythmicity of cell patterns,
their disruption or modification through space and time.
Environment and its fluctuations influence the
differentiation of wood’s elements (from the divisions of
cambial cells) which constrain us to follow the production
of specific cell organizations. To simplify, two
organizations are considered: firstly the growth rings which
represents cell’s production at a given time [1], and secondly
the cell lines which represents the activity of an initial cell
during time [2]. For example, [3] underlie the importance of
secondary growth organizations by studing cellular patterns,
their spatial rhythmicity, their variability along different
growth rings. For its part, the study of cell lines is presented
as a promising enable to understand the development,
differentiation and temporal rhythmicity of cells [4].
Automating the study of cell lines should permit to closer
links with the functional aspects and ecology of species:
Wood is a continuous recording of changes in the
development of the tree (the lesser known) and its
environment (the most work, eg dendrochronology, treerings).
Progress in terms of the image acquisition devices and
their analysis allow us to consider the access to quality's
information on various extensive areas in the plant. Cross
section microscopic images analysis shows interest in both
cell feature characterization and detection but also for higher
structure character estimation as shown for instance by Wu
et al on root sections [5].
Automatic identification of wood cellular structures as
cell files is a new challenge in structural biology of plants
[6], which requires a multidisciplinary expertise.
In bio-imaging, cell segmentation has been intensively
studied by researchers in image processing with various
approaches [7][8][9]. For example, [10] combine four
classical algorithms to segment white blood cells in bone
marrow image: watershed [11], snake [12], multi-resolution
analysis [13] and dynamic programming. This kind of
approach based on mixing many algorithms, shows the
difficulty of segmenting cell images with high biological
variability. The algorythms should be adapted to the
application and to the specific cells characters. In particular,
for wood cross section, we have to consider both cell local
geometry and arrangement.
In such wood cellular organizations, some authors
propose to introduce some geometric models to describe the
topological neighborhood of cells. For example, [14] or [15]
rely on an oriented graph to extract cell files in images of the
gymnosperms.
From a technical point of view, we did not found any
software solution allowing automatic identification of cell
files. Some specific commercial tools as WinCell [23], exist
for the analysis of wood cells, but they do not allow
recognition and characterization of the cellular organization.
Moreover, it is not possible to add new functionalities. More
___________________________________
978-1-4673-0070-4/12/$31.00 ©2012 IEEE
2012 IEEE 4th International Symposium on Plant Growth Modeling, Simulation, Visualization and Applications
58generic commercial software such as Visilog [24], offer a
rich development environment in image processing but they
are quite expensive and not sufficiently specialized for our
application. Open source platforms as ImageJ [20][25] are
an attractive option: they allow to enrich the source code
with specific functionalities while facilitating the exchange
and dissemination of methods. Therefore we chose this
solution to implement our algorithm.
The proposed method of automatic identification and
modeling of cell files extends the research presented by [15].
In this work, cell file identification in light microscopy
images is based on a preliminary identification of the cells. It
is a supervised classification requiring the definition, then
the use of a large training database. As the variability of
wood anatomy is huge, significant results can be obtained
only for a limited number of wood species, sharing close and
simple anatomical features (gymnosperms in this case). We
introduce here a specific model of the cell lines recognition
avoiding supervised training and allowing results quality
quantification. Applying this model, as shown in the
following sections, we can build a generic tool suitable for
both gymniosperm and angiosperm wood cross section
images.
II. MATERIAL AND METHOD
A. Preparation and digitization
We aim to process histological stained sections of
angiosperm and gymnosperm wood, and more specifically of
Mahogany, Fraxinus Angustifolia, Pine Black, Pine
Carabinsis and Fir tree.
Wood cross sections of 20-25 µm of thickness are
produced with a vibratome. They are then immersed in an
aqueous chlorinated solution to clean the cellular content. A
colouring of the cell wall is then performed to increase the
contrast with the lumen. Various types of colouring agents
can be used as the methylene blue, the toluidine blue or the
safranine. The sections are then digitized by a Olympus
DP71 LCD camera mounted on a Olympus BX51
microscope. The magnification is choosen around ×100.
Figure 1. Images of histological stained wood sections. A: Fraxinus
(angiosperm) colored with safranin. B: Pinus Caribensis (gymnosperm)
colored with methylene blue. Notice the different anatomical structures:
Vessel (V), Ray (R), Fiber (F), Tracheid (T) and Resin Canal (RC).
Different anatomical structures as vessels, fibers,
tracheids, resin canals, or rays are visible around the cell
files (see Fig. 1). With such a magnification value, we can
count at least 20 consecutive cells and then distinguish the
cell files and the smallest interesting structure covers a
surface of at least 10 by 10 pixels.
The resulting images are in color (coded on 24 bits) with
a resolution close to 2000 by 2000 pixels.
B. Cell file processing
Identification of cell files is based on the search of
alignment of cells which share similar geometric (i.e. size,
shape) and densitometric (i.e. color) properties. The concept
of alignment implies a specific cellular organization which is
emphasized by the neighborhood relations between cells.
Our approach is divided into three steps (see Fig. 2): first
cell identification is performed in order to individualize the
cells in the image, then the cellular organization step detects
and individualizes the alignments of anatomical structures,
and finally, the classification step classifies anatomically and
types qualitatively the cell files. In the following sections,
we detail these three steps.
Figure 2. Overview of the cell file identification algorithm.
1) Cell identification step
Microscope images present a "pepper-and-salt" noise
inferred by the thermal effect of the lamp. We attenuate this
impulsive noise by applying a median filter of radius 3
pixels. Images show alternations of clear and dark areas
representing respecitvely the cell lumens and the cell walls.
To increase the contrast between the two areas, we apply the
Difference of Gaussian (DoG) [16] method. This is a
bandpass filter. It thresholds the frequencies corresponding
to the lumens. To obtain the lumens (see Fig. 3), the DoG
filter subtracts a Gaussian light blurred image (blurring
parameter close to the size of the cell wall) to the highly
blurred image (blurring parameter set to 1/10 of the image
width). Nota that the blurring parameters were set
experimentally and are different from the classical 1.6 ratio
used for DoG smoothing in edge detection.
Figure 3. Difference of Gaussian filtering on a cross-section of Mahogany
stained with toluidine blue. A: the image obtained by applying a small
Gaussian blurring (σ = 3 pixels). B: the image resulting from a strong
Gaussian blurring (σ = (image width)/10). C: subtraction of images A and B
which increases the contrast wall / lumen.
A B C
A B
RC
T
F
V
R
R
59We obtain an image where the walls have zero intensity
and the lumens have a higher intensity.
This colour image is then converted in grey levels.
Average colour channel value is used since no specific
channel seems significant. Moreover this conversion
simplifies specific process definition potentially resulting
from different colouring protocols.
The greyscale image cell extraction is obtained by the
classical Watershed algorithm [11]. The idea is to consider a
grey level image as a topographic relief, and to calculate the
watershed lines by “flooding” the relief. The resulting
watershed lines define a partition of the image. The ridge
lines constitute the intercellular boundaries and correspond
to the middle lamella. The lines of the ridges of the
Wathersed (fig. 4-c) give the boundary between two adjacent
watersheds. The dual graph is the adjacency graph of the
basins, it connects two by two the geometric centers of the
basins incident to the same edge. The basins are
superimposable to image cells, we speak of the adjacency
graph of the cells (Fig. 4-d).
Figure 4. Cell individualization of a Mahogany cross section. A: native
image. B: watershed segmentation result with the crest lines crossing the
lumen. C: cleaned watershed: the crest lines are replaced by curvilinear
edges shown in yellow; they correspond to the middle lamella; the points
extra yellow match the geometric center of the watershed therefore
biological cells. D: dual watershed graph. This adjacency graph, in green
connects cell centers with their neighbour; notice that the degree of vertices
is greater than four showing the staggered pattern of the cells.
2) Cellular Organization
Unlike approaches [15] and [14], our recognition of lines
based exclusively on a constraint path of the adjacency
graph of the cells. More specifically, the construction of cell
lines is based on the one hand on geometric criteria, in
particular the general orientation of adjacencies cell, and,
secondly on topological criteria, in particular on
configurations of cellular adjacency.
The edges of the adjacency graph represent connections
between neighboring cells and their orientations give an
indication of the preferred directions of the cell
arrangements. On our studies, cells are arranged in staggered
rows, and cell lines are rectilinear and two in two parallels.
Therefore, the orientations of edges adjacency follow three
directions: a main one, corresponding to the cell alignments
and two secondaries, corresponding to the organization in
staggered rows (fig. 4-d). To compute the main direction, we
use R. Jones (1996) method, studying the distribution of
angles formed by each edge of the adjacency graph with the
horizontal. The distribution is then trimodal : the major
mode shows the orientation most present in the adjacency
graph, that is to say the general orientation of the lines (Fig.
5).
Figure 5. Direction distribution histograms formed by edges of the
adjacency graph with the horizontal. A: The main mode centered on 0°
corresponds to horizontal lines; B: The histogram shows one mode splitted
on -90 and 90° values corresponding to vertical lines.
Considering now the lines. The construction is progressive
and based on four principles: alignment search, feedback
check, overlap management and chaining. The alignment
principle allows for each vertex V of the graph to find the
next vertex NV in the cell lines. Each vertex neighbor of V
is a potential candidate. We will retain one that maintains the
best spatial alignment (in a range of ± 35 °), and whose
underlying cell shows the highest geometrical similarities
with the previous one. The line is gradually built from the
initial edge, by successive additions of consecutive edges
preserving the geometric continuity. At each step, the drift of
the line is minimized under this geometrical constraint. We
chose the criterion of Bray-Curtis [21] (see Fig. 6) for
similarity cost evaluation since well adapted to surface
characterizations. When this criterion tends to zero, the
compared cells can be considered as similar.
Figure 6. Formula of Bray Curtis. Where « n » is the surface of current cell
and « m » is the surface of neighbor cell. When the criterion tends to 0, the
cells show a similar surface.
Each cell bellowing to a cell line path is given a score value :
the sum of the angle deviation with its predecessor and the
criterion of Bray-Curtis.
0
50
100
150
200
-90 -45 0 45 90
0
50
100
150
200
-90 -45 0 45 90
A B
A B
C D
60 The path of the line stops when there are not vertices
anymore candidate.
A cell line direction is independent from graph traversal
orientation. This property is used to validate or invalidate
any line segment or part of if. The process described above
is applied again starting from the end edge, by inverting the
direction of progress in the graph. We note this path as
"backward", opposed to the initial path "forward". This
define the principle of Forward / Backward : a line is
validated when both forward and backward paths are strictly
superposables. In the case where the paths are not identical,
the initial forward path is gradually reduced until reaching a
stable forward/backward sub-path. Specifically, whenever a
difference appears in backward path, the corresponding
segment is deleted from the original line: the edges and their
scores are released, initialized to an infinite value. The
backward tip is updated from the last reached position. In the
strictly superposable case, the score of each cell of the line is
decreased by half insuring higth stability of the line towards
overlaping (see below).
Indeed, a cell belongs to a unique file. This property
leads to the following rule: each vertex belongs to one cell
line and only one. In some cases, during its construction, a
line may use one or several cells, mobilized by a line already
constructed. In this case, each of these vertex is attributed to
the line for which its score is minimal: it is the principle of
overlaping. Two scenarii may occur:
The existing line keeps its vertex; the line under
construction will have to find another path or stop.
The existing line loses its summit to the detriment of
the line under construction. Here, all the summits of
the existing line situated after the lost summit are
released: their respective score takes an infinite
value, indicating they are again available.
Due to the presence of intrusions, tearings or a lack of
adjency (Fig. 7-a), it is not unusual to detect a given line in
splitted part.
Figure 7. A: Result of treatment chain without connection. B: result whit
connection (Bottom). There is one color by file.
The principle of merging allows to concatenate several
part of line, using simple topological rules, to establish
whole lines. The idea is based on two observations : (i) the
lines cross the image throughout, (ii) the lines do not
intersect (Fig. 8-a). As a result, if the parts T2 and T2 ' are
adjacent to the line F1 and F3, it is likely that T2 and T2 ' are
two parts of the same line F2. At present only the parts in
two same lines are concatenate that is to say as belonging to
the same line. In other scenarii the process is stopped.
Figure 8. A: a two neighbours connection scheme. Sections T2 and T2’ are
squeezed between lines F1 and F3; therefore T2 and T2' are probably
derived from a common file F2. B: a multiple neighbours scheme; in this
case, rules of adjency are used to drop the case in a two neighbours one.
3) Classification step
The cell typing is the ultimate step: it allows to classify
different cells (fibers, tracheids, vessels, rays, ...). It is
realized from geometric and densitometric characterization
of the watersheds associated with the vertices of the
adjacency graph of cells. Unlike the work of [15] and [14],
supervised classification was discarded because of the
difficulty of building learning games sufficiently complete
and discriminating, due to the existing biological variability.
A decision tree discriminates the anatomical structures. It
was established with wood anatomists from the two
following hypotheses:
1) The perimeter of cells, noted parameter T, allows to
differentiate the "big" structures from the "small" cells.
2) The circularity of cells, noted parameter C, allows
to differentiate rays (globally lengthened) from the vessels
(globally circular).
The decision tree given in Fig. 9 is applied to basins with
a clear area corresponding to the lumen. It requests two
threshold values which are automatically estimated for every
image. For each parameter, both values are calculated from
the grey image, from two disjoint groups using a two-means
clustering [22]. This classical method divides n observations
into two clusters, so minimizes the intra-classe variance and
maximizes the interclasse variance. The threshold is then
given by the median value between the upper bound of the
lowest group and the lower bound of the stronger group.
A
B
B
A
61Figure 9. Decision Tree. T represents the threshold of the perimeter and C
the threshold of circularity. The thresholds are automatically rated by a 2-
means clustering applied to all values from the image. Only cells with a
lumen are processed by the decision tree.
After the alignments identification and the biological
typing, we can deliver a set of figures characterizing the
shape, size, nature of biological structures (walls, lights,
cells, lines ...). These characteristics, of interest for
anatomists, are defined by self conditioned procedures. As
part of a mass treatment it is interesting to characterize the
accuracy of these assessments. Both caracteristic quality and
automated define parameters are computed defining indexes
of certainty. An index is assigned for each calculated
parameter. The certainty index concerns the geometric
parameters of structural elements and the steps of the
process of identifying lines.
At the scale of structural elements (fiber, vessels, radius
...), evaluation of this index depends on the parameter itself.
For example, the certainty of the surface or the shape of the
lumen is directly connected to the local degree of sharpness
of the image (Fig. 14): the boundary between the wall and
the lumen being obtained by distribution of the pixels of the
cell two intensity classes (light intensities and dark
intensities), it depends irremediably on local dynamics of the
image.
At scale structure elements (lines), evaluation of the
index depends on the construction process and the nature of
the result. To "certify" the cell lines, three criteria are used :
The overall score of the line, characterizing
topological relationships of the line with its
neighbors. The identification of the topological
position allows to assign a global additional score to
the line: 0 for a line crossing the image throughout, 1
for a line composed of simple parts, 2 for non
indentifided segment, 3 for single cell, 4 for defects.
The average of the scores of its cells obtained during
the construction of the line (not to be confused with
the index of certainty parameters). Each vertex
added to the line will be assigned a score defined by
the sum of the deviation of the angular aperture and
the similarity coefficient. This method allows to
restrict the path of the line without guaranteeing
possible overlapping or intersection with a nearby
line.
The length, characterizing the representativeness in
the image: the more a line is long, the more it is sure.
An index of certainty is assigned to the line according a
linear combinaison of these three scores. The indices of
certainties (parameters and lines) are used to filter or classify
the numerical results generated for each lines identified.
The indices of certainty of the lines are totally
independent from indices certainties of the parameters
associated with the cells.
The visual representation of the global score of the lines,
and in particular the use of a color code, allows a fast and
efficient processing check, distinguishing the whole lines
form the cellular insertions. The colour code is green for the
lines automatically identified, is blue for lines automatically
rebuilt and is red for complex configurations (Fig. 10).
Figure 10. Automatic identification of cell lines from a cross section of
mahogany. A: lines random colouring is used. B: colour qualifies the cell
files; the lines automatically identified in green, the lines automatically
rebuilt in blue and the complex configurations in red.
The method has been implemented in Java and integrated
as a plugin in the ImageJ free platform. We use additional
free libraries sush as the Java Universal Network / Graph
Framework [26] for efficient data structure management. We
are currently posting the application on the web [27].
III. RESULTS AND DISCUSSION
The tests were led from a sample of images
representative of biological variability, possessing a dozen
colored sections of different species of angiosperms (list)
and gymnosperms (list) (Fig. 11).
Figure 11. Extract from the test set consists of cross sections of angiosperms
and gymnosperms. A : mahogany colored with toluidine blue for which the
continuity of queues is preserved in spite of the vessel elements. B : fir
colored with methylene blue. C : black pine colored with safranin having
resin canals. D : fir colored with toluidine blue showing cells blocked.
A B
C D
A B
62A. Biological aspecsts
Moreover, the colour encoding can quickly locate the
complex biological configurations requiring the expertise of
an anatomist to be identified (in red, Fig. 12).
Figure 12. Automatic identification of cell lines of the extract on the game
of trying to figure 11. The colour code is given in figure 10.
As shown in the table below, our method works well on
images presenting a structured organization with a marked
wall / lumen contrast, in regard to data acquisition,
management of lines and the magnification used. For
configurations showing low colour contrast or complex
cellular organizations the lines are badly detected.
Table 1. Summary of some significant results: the size of images processed,
the number of cells extracted, the CPU time obtained on a machine with an
Intel Xeon at 2.3GHz and a Total Quality Index defined as the ratio of the
number of lines automatically identified and reconstructed on the total
number of lines.
Species Size
(pixels)
Cells
numbers Times (sec) Total
Quality (%)
Mahogany 1024x768 1359 14.3 83
Fir 1360x1024 800 12.4 92
Black Pine 1 1600x1200 1873 23.2 73
Caribean
Pine
1360x1024 828 11.5 91
Black Pine 2 1600x1200 1458 16.1 93
What about in terms of quantity, that is to say in terms of
numerical measures?
The overall rating of the line remains the most important
indicator. It enables us in particular to detect all single files:
all lines described as obvious by anatomists have an overall
zero score.
On the test set, the lines are automatically detected at
60% in the images. This figure is not significant since it
depends on the anatomical configurations. The unidentified
lines can be automatically excluded from statistical
processing. The amount lost can be easily offset by the
increase of the images treatable.
It is important to evaluate the accuracy of measurement.
The Figure 13 presents the comparison of about sixty
normalized aeras got from manual and automated method.
The coefficient of determination tends of 1 showing the
areas are well correlated. The slope of regression line is
weakly superior to 1 indicating a weak over-valuation of the
automated method. The weak gap of 0.0127 confirms the
middle error of 5% on right areas. The automated method
seems over-valuated the measurements (at least the expert
under-valuates the measures!). Only certainty: the automated
method is repeatable.
Figure 13. Basins surfaces study on Mahogany. In abcissa, the normalized
aeras got from the fully manual method. In ordinate, those got from the
automated method. The coefficient of determination is close to 1, showing a
very well adjustment of areas.
The major limit to the automatic identification of lines
comes from the image content, that is to say the photometric
characteristics of the image, and biological configurations.
Figure 14. A right cross sections of three native species. On the left, the
automatic identification of cell lines. A : not colored pine treated in
transmission; Detection is good despite the low constrate Wall / Lumen. B :
ash colored with safranin; Detection of cells is good, but the method only
produces sections due to the complexity of biological organization. C : pine
colored with methylene blue; Identification is biased by the presence of
local inversion of contrast at the joinction wood summer / winter.
The images with a dynamic intensity locally reversed, for
example the junction wood winter / summer wood (Fig. 14-
c), remain difficult to treat. Our method is based on the
image contrast, so watersheds corresponding to the cells are
badly detected, and thus the detection of files is incorrect
y = 1,0477x + 0,0127
R² = 0,9991
0
3
6
9
0 2 4 6 8
automated
manual
A
B
C
63and incomplete. The images of washer sanded wood
(unstained) are treated in reflection: light does not pass
through the sample. Thus the lumens appear in colour almost
close to the walls one, with not sufficient contrast to ensure
proper recognition of watersheds and proper identification of
lines. The wood sections not colored are treated by
transmission, crossed by light. They are less contrasted than
the stained sections. But the difference wall / lumen is
pronounced enough to allow the algorithm to correctly
identify the lines (Fig. 14-a). For complex cellular
organizations (Fig. 14-b), where cell alignments are not
obvious, new rules for the path and for the reconstruction
shloud be established with the biologists.
The files are created using only geometric and
topological rules on the basins. It is important to make sure
of the robustness of the detection of the basins, expecially
internes of insensitivity to blur and image orientation. A first
study was conducted on the absorption of the blur found in
images related to microsope views side effect or sample
flatness.
Figure 15. Compared watershed result on Pine cross section. A : crests lines
of a sharp image. B : crests lines of a blurred image. Outline of the basins is
nearly identical between a sharp and a blur image. On the sharp image, a
small additional basin of a detachment of the wall issued from cutting. This
basin is skipped during the supernumerary removal phase.
Acquisitions of the same zone of the image with different
focus were performed to evaluate the stability of our
computational method. In particular, we made a statistical
study on the variability of cropping cells. The intercellular
lines obtained by the algorithm of Watershed are generally
invariant to blurring of the image. Indeed, they correspond to
the curves reverse slopes of intensity: the smoothing of the
image produced by optical blur attenuates the intensity
without changing the look of intensity variations. The crest
lines remain unchanged (Fig. 15).
Figure 16. Basins surfaces study on Mahogany. In abcissa, the normalized
aeras got from sharp images. In ordinate, those got from blur images. The
coefficient of determination is close to 1, showing a very well adjustment of
areas.
Figure 16 shows the comparison of a sixty normalized area
obtained from a sharp and a blurred image. The coefficient
of determination tends to 1 showing areas are well
correlated. The slope of the regression line is slightly less
than 1 indicating low undervaluation on blurred images. The
difference of 0.0037 confirms the average error of 2.81% on
sharp image. The method gives results almost identical
regardless of the sharpness of the image
The method described is working correctly for images
that contain the one hand high contrast between the walls
and lumens (without local inversion of color) and other hand
a visible cellular organization. Under these conditions all the
obvious lines by qualified experts are correctly identified,
with a significant time save (a typical manual expert
identification requires ten hours on our samples). Moreover,
the index of certainty allows the selective exploitation of
results for statistical studies.
IV. CONCLUSIONS
Automated analysis of wood anatomical sections is of
great interest in understanding the growth and development
of plants. In a frame of over studies on wood structure, we
propose a original method for automatic detection of cell
lines, operational in mass treatment. It applies to digital
images of coloured transverse cut wood. Identification of
lines based on research alignment of cells presenting similar
geometrical and densitometric characteristics. The notion of
alignment implies to know how to set up the relations of
neighborhood between cells. Identification of lines is made
from an adjacency graph for the path constrained graph with
an orientation and similarity criteria. The originality of the
method compared to a supervised method is that it
automatically creates rules evaluated for each image and not
a set of rules to be applied on all images. The lines described
as obvious by anatomists are correctly identified by our
method, with a drastic drop of time cost. To "certify" the cell
lines, we have introduced the indices characterizing the
quality of results and parameters of these results. The
method described works correctly for images with high
contrast between the walls and lumens and a clear cellular
organization. Under these conditions all the obvious lines by
qualified experts are correctly identified. Moreover, the
index of certainty allows the selective exploitation of results
for statistical studies.
Three future work axes are being considered:
1. The enlargement of the major zones of study in
order to follow the lines of several rings (Fig. 17). For
this, it is necessary to adapt the processing of image
mosaics. Two problems are directly related: first, the
treatment of different photometric behavior in the same
image, in particular the transition wood winter /
summer wood. Secondly, the joining of the results at
the edges of the images pavement.
2. The study can be extended to sanded wood, for
which the contrast wall / lumen is less contrasted.
3. The enrichment of the cell typing method that is not
currently able to differentiate all kind of vessels. Work
y = 0,9963x + 0,0037
R² = 0,998
0,3
0,7
1,1
1,5
1,9
0,3 0,8 1,3 1,8
blur
sharp
A B
64on the walls texture can be considered to resolve the
limitation.
Cell file identification has to deal with other open difficulties
like the passage tree ring or the junction between the
different images. The construction of cell lines will be
reviewed to match between images that may or may not be
recovered.
Figure 17. Abutting mosaic of a cross section of Black Pine, colored with
safranin, 100x.
As a summary, this work is a first contribution to develop
methods for automatic image processing that will mainly to
identify and characterize, in mosaics depicting field’s broad
observation, cellular organizations, and the cells that
compose them. The implementation aims to obtain a rapid
cell typing, automatic and reliable to process statistically
significantly large sets of data.
ACKNOWLEDGMENT
The authors gratefully acknowledge Christine HEINZ for
her involvement in this work, her advices and availability. A
big thank to Michael GUEROULT without whom the
laboratory work would not have been possible.
This work is jointly funded by a doctoral fellowship of
the Labex NUMEV and the SIBAGHE Graduate School of
the University Montpellier 2 and by the Scientific Council of
the University Montpellier 2.
REFERENCES
[1] L. Heinrich, “Reaction wood varieties caused by different
experimental treatments,” TRACE, Tree Rings in
Archaeology, Climatology and Ecology, vol. 5, p. 224–232,
2007.
[2] P. Rozenberg, G. Schüte, M. Ivkovich, C. Bastien, and J.-C.
Bastien, “Clonal variation of indirect cambium reaction to
within-growing season temperature changes in Douglas-fir,”
Forestry, vol. 77, no. 4, pp. 257 –268, Jan. 2004..
[3] E. Nicolini, Y. Caraglio, R. Pélissier, C. Leroy, and J. Roggy,
“Epicormic Branches: a Growth Indicator for the Tropical
Forest Tree, Dicorynia guianensis Amshoff
(Caesalpiniaceae),” Annals of Botany, vol. 92, no. 1, pp. 97 –
105, Jul. 2003..
[4] W. Gindl, “Cell-wall lignin content related to tracheid
dimensions in drought-sensitive austrian pine (pinus nigra),”
Iawa Journal, vol. 22, no. 2, pp. 113–120, 2001..
[5] Haiwen Wu, Marc Jaeger, Mao Wang, Baoguo Li and Baogui
Zhang. 3D-Reconstruction and Visualization of Xylem
Vessels of Wheat Nodal Root. In: Li, B. and Jaeger, M. and
Guo, Y. (Eds). 2010. Proceedings,of Plant growth Modeling,
and their Applications (PMA09), Beijing,,China, November 9-
13, 2009, IEEE CPS, pp. 384-390
[6] P. Quelhas, J. Nieuwland, W. Dewitte, A. M. Mendonça, J.
Murray, and A. Campilho, “Arabidopsis Thaliana Automatic
Cell File Detection and Cell Length Estimation,” in Image
Analysis and Recognition, vol. 6754, M. Kamel and A.
Campilho, Eds. Berlin, Heidelberg: Springer Berlin
Heidelberg, 2011, pp. 1–11.
[7] M. K. Moëll and L. A. Donaldson, “Comparison of
segmentation method for digital image analysis of confocal
microscope images to measaure tracheid cell dimensions,”
IAWA Journal. Vol. 22(3), pp. 267–288, 2001.
[8] D. Baggett, M. Nakaya, M. McAuliffe, T. P. Yamaguchi, and S.
Lockett, “Whole cell segmentation in solid tissue sections,”
Cytometry A, vol. 67, no. 2, pp. 137–143, Oct. 2005.
[9] T. Fourcaud, X. Zhang, A. Stokes, H. Lambers, and C. Körner,
“Plant Growth Modelling and Applications: The Increasing
Importance of Plant Architecture in Growth Models,” Ann Bot
(Lond), vol. 101, no. 8, pp. 1053–1063, May 2008.
[10] J. Park and J. M. Keller, “Snakes on the Watershed.,” IEEE
Trans. Pattern Anal. Mach. Intell., pp. 1201–1205, 2001.
[11] L. Vincent and P. Soille, “Watersheds in Digital Spaces: An
Efficient Algorithm Based on Immersion Simulations,” IEEE
Transactions on Pattern Analysis and Machine Intelligence,
vol. 13, no. 6, pp. 583–598, Jun. 1991.
[12] Kass, A. Witkin, and D. Terzopoulos, “Snakes: Active contour
models,” Int J Comput Vis, vol. 1, no. 4, pp. 321–331, 1988.
[13] M. B. Jeacocke and B. C. Lovell, “A multi-resolution
algorithm for cytological image segmentation,” in Proceedings
of the 1994 Second Australian and New Zealand Conference
on Intelligent Information Systems,1994, 1994, pp. 322–326.
[14] R. Jones and L. Bischof, “A graph–based segmentation of
wood micrographs,” in Computing Science and Statistics, 28,
Sydney, 1996, pp. 12–20.
[15] P. Kennel, G. Subsol, M. Guéroult, and P. Borianne,
“Automatic identification of cell files in light microscopic
images of conifer wood,” in 2010 2nd International
Conference on Image Processing Theory Tools and
Applications (IPTA), 2010, pp. 98–103.
[16] G. T. Einevoll and H. E. Plesser, “Response of the differenceof-Gaussians
model to circular drifting-grating patches,” Vis.
Neurosci., vol. 22, no. 4, pp. 437–446, Aug. 2005.
[17] L. Breiman, J. Friedman, C. J. Stone, and R. A. Olshen,
Classification and Regression Trees, 1st ed. Chapman and
Hall/CRC, 1984.
[18] O. M. Hitz, H. Gärtner, I. Heinrich, and M. Monbaron, “Wood
anatomical changes in roots of European ash (Fraxinus
excelsior L.) after exposure,” Dendrochronologia, vol. 25, no.
3, pp. 145–152, Mar. 2008.
[19] A. J. Travis, D. J. Hirst, and A. Chesson, “Automatic
Classification of Plant Cells According to Tissue Type using
Anatomical Features Obtained by the Distance Transform,”
Annals of Botany, vol. 78, no. 3, pp. 325 –331, 1996.
[20] B. Clair, J. Gril, F. Di Renzo, H. Yamamoto, and F. Quignard,
“Characterization of a Gel in the Cell Wall To Elucidate the
Paradoxical Shrinkage of Tension Wood,”
Biomacromolecules, vol. 9, no. 2, pp. 494–498, 2007.
[21] J. R. Bray and J. T. Curtis, “An Ordination of the Upland
Forest Communities of Southern Wisconsin,” Ecological
Monographs, vol. 27, p. 325, Oct. 1957.
[22] E. Forgy, “Cluster analysis of multivariate data: efficiency vs
interpretability of classifications,” Biometrics, vol. 21, pp.
768–769, 1965.
[23] http://www.regentinstruments.com/
[24] http://www.noesisvision.com/fr/index.html
[25] http://rsbweb.nih.gov/ij/index.html
[26] http://jung.sourceforge.net/doc/index.html
[27]
http://umramap.cirad.fr/amap2/logiciels_amap/index.php?page
=ficeler
65TECHNICAL ARTICLE: PART OF A SPECIAL ISSUE ON FUNCTIONAL–STRUCTURAL
PLANT MODELLING
Automatic identification and characterization of radial files
in light microscopy images of wood
Guilhem Brunel1,2,*, Philippe Borianne2, Ge´rard Subsol3, Marc Jaeger2 and Yves Caraglio2
1
CIRAD – UMR A51 AMAP, France, 2
University of Montpellier 2, France and 3
LIRMM – CNRS,
University of Montpellier 2, France
* For correspondence. E-mail guilhem.brunel@cirad.fr
Received: 31 October 2013 Returned for revision: 9 January 2014 Accepted: 31 March 2014
†Background and AimsAnalysis of anatomical sections of wood provides important information for understanding
the secondary growth and development of plants. This study reports on a new method for the automatic detection and
characterization of cell files in wood images obtained by light microscopy. To facilitate interpretation of the results,
reliability coefficients have been determined, which characterize the files, their cells and their respective measurements.
† Methods Histological sections and blocks of the gymnosperms Pinus canariensis, P. nigra and Abies alba were
used, together with histological sections of the angiosperm mahogany (Swietenia spp.). Samples were scanned
microscopically and mosaic images were built up. After initial processing to reduce noise and enhance contrast,
cells were identified using a ‘watershed’ algorithm and then cell files were built up by the successive aggregation
of cells taken from progressively enlarged neighbouring regions. Cell characteristics such as thickness and size
were calculated, and a method was developed to determine the reliability of the measurements relative to manual
methods.
† Key Results Image analysis using this method can be performed in less than 20 s, which compares with a time of
approx. 40 min to produce the same results manually. The results are accompanied by a reliability indicator that can
highlight specific configurations of cells and also potentially erroneous data.
† Conclusions The method provides a fast, economical and reliable tool for the identification of cell files. The reliability
indicator characterizing the files permits quick filtering of data for statistical analysis while also highlighting
particular biological configurations present in the wood sections.
Key words: Functional–structural plant modelling, image processing, microscopic wood images, radial cell file,
reliability coefficients, cellular structure, light microscopy, Pinus canariensis, P. nigra, Abies alba, Swietenia.
INTRODUCTION
Tree development is the result of both primary growth, involving
the elongation and branching of the axes, and secondary growth,
consisting of their thickening over time. Many approaches have
been developed to study the structural and functional aspects of
plants, particularly when used to address issues of carbon sequestration
and wood energy. These approaches, however, whether
examining secondary growth and its inter- or intra-specific variations,
or the relationships between primary and secondary
growth, are often based on only fragmentary studies due to the
fact that data acquisition is often costly (Rossi et al., 2009).
The description of primary growth can be more or less
extensive thanks to retrospective approaches (Barthe´le´my and
Caraglio, 2007; Krause et al., 2010) while dendrochronological
studies are generally performed only on portions of the ligneous
plane (coring). Here, the more detailed the observation level,
the shorter the part of the ligneous plane described by the data.
Secondary growth originates from cambial activity, the source
of the wood (xylem), and thus from the different cells that make
up the xylem (ligneous plane).
The biological typing (Lachaud et al., 1999) of cells can be
approached byexamining theirshape, size and spatial distribution,
independent of theirorganization. The findings can then beused to
determine theanatomicalchangesthat characterizexylem production
and differentiation phases (Thibeault-Martel et al., 2008;
Gue´don et al., 2013) without truly explaining wood production
or growth mechanisms.
Indeed, the mechanisms of cambial growth can be understood
only by studying cell pattern rhythmicity and cell disruption or
modification in space and time. A spatio-evolutionary perspective
mustthereforebeintroducedtodiscusstheseissues.Environmental
fluctuations and their effects on the differentiation of wood elements
(originating from the divisions of cambial cells) require
production to be monitored in specific cellular organizations.
Here, for the sake of simplicity, we consider two organizations:
first, the growth ring that reflects cell production over a given
time (Heinrich, 2007) and, secondly, the cell file that reflects
the activity of the initial cell over time (Rozenberg et al., 2004).
Nicolini et al. (2003) highlighted the importance of secondary
growth organization by studying cell motifs, spatial rhythmicity
and the variability of successive growth rings to characterize
plant space occupation strategies. This approach does not,
however, addressthe mechanisms of cell differentiation or the construction
of cell motifs and structures, which are time-dependent
mechanisms. The precise, dynamic monitoring of cambial
# The Author 2014. Published by Oxford University Press on behalf of the Annals of Botany Company. All rights reserved.
For Permissions, please email: journals.permissions@oup.com
Annals of Botany Page 1 of 12
doi:10.1093/aob/mcu119, available online at www.aob.oxfordjournals.org
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from production at the initial cells (Rossi et al., 2006; Rathgeber et al.,
2011) is technically limited to a small portion of the ligneous
plane. Thus, the studyof cell files, which result from cambial production
and its local and overall fluctuations, is a promising approach
to understanding the establishment, differentiation and
temporal rhythmicity of cells (Gindl, 2001).
Biological questions concerning interactions between the development
and growth of trees under environmental constraints
(Moe¨ll and Donaldson, 2001) may be addressed by: (1) determining
the contribution made to conduction and storage by the different
cell types in the ligneous plane; (2) determining the variability
of cell characteristics (vascularization elements, fibres, ray cells,
vertical parenchyma); and (3) breaking down this variability by
identifying that which can be attributed to ontogeny and that
which can be attributed to an environmental response.
To interpret and compare internal observations with observations
of external morphology, various parts of the plant’s architecture
must be studied simultaneously (Barthe´le´my and Caraglio,
2007). In particular, observations should distinguish between the
constitutive anatomical features of the plant (i.e. trunk, branch)
over time, and generate a sufficiently large sample for the use of
statistical tools.
However, these biological questions and their associated
characterizations are highly constrained due to cumbersome
protocols and the difficulties inherent in acquiring large datasets.
Indeed, a precise understanding of growth mechanisms and their
modelling has mostly been achieved by searching for invariants
in large observation samples, thus restoring intra- and interspecies
variability.
Progress made in the preparation of complete cross-sections of
axes for ligneous plane observation from a macroscopic to a
microscopic level without using histological sections (polishing),
combined with modern image acquisition equipment (stage for
programmed movements, vibratome, etc.), today provide access
to quality information on broad areas of the ligneous plane.
This technology, however, is hampered by its limited ability to
manage and process data. Acquiring a slice 10 cm in diameter
at × 200 magnification requires a mosaic of about 1000 images.
On average, each image contains 500 cells and the manual evaluation
of each image requires about 40 min using an image editor
(ImageJ, Photoshop). Cellular arrangements are identified by
studying several successive rings in several growth units, and
here the numberof images required istoo large for manual processing.
Usually, counts are made on three files per section (Rossi et al.,
2006) to save time and reduce costs.
Automating the study of cell files would make it easier to establish
tighter links to the functional and ecological aspects of
the species by having a better appreciation of the range of phenomena
variability. Wood provides a continuous record of all
the developmental changes undergone by a tree (ontogeny, the
least known) and a record over time of its environment (dendrochronology
and dendroclimatology, the most studied). One particular
concern with automated methods is the need to assess and
quantify the reliability of their results. This means establishing
reliability indicators for the results produced.
The automated identification of cell structures is one of the
new challenges to be met in studies of the structural biology of
plants (Quelhas et al., 2011), and requires a multidisciplinary
approach. In matters of (bio)-imaging, cell segmentation is a
problem that has been widely discussed in the literature
(Baggett et al., 2005; Fourcaud et al., 2008). For example, Park
and Keller (2001) combined four conventional image analysis
approaches to segment cells: watershed algorithm (Vincent
and Soille, 1991), snakes (McInerney and Terzopoulos, 1999),
multi-resolution analysis (Jeacocke and Lovell, 1994) and
dynamic programming. In the specific context of wood, cell segmentation
is generally combined with the determination of cell
type, i.e. its biological characterization. For example, Wang
et al. (2008) and Marcuzzo et al. (2009) sorted cells using the
support vector machines (SVM) classification. This is a supervised
incremental training method where the major challenge
is to create the training data set that is sufficiently representative
to recognize the intrinsic variability of individuals.
Instudiesofcellularorganization,certainauthorshaveusedgeometric
models based on topology. This also provides a description
of the cell’s surrounding environment. For example, the studies of
Jones and Bishof (1996) and Kennel et al. (2010) were based on a
graph that was orientated so as to extract cell files from images of
gymnosperms. More specifically, cells are extracted by applying
the watershed algorithm to the converted greyscale image. The
adjacency graph of the cells is then built from the basin diagram.
Cell typing obtained by the supervised classification method
(CART; Breiman et al., 1984) can thus be used to extract tracheid
alignments from the graph. This method is sensitive to the reinforcement
training used to classify biological types.
From a technical perspective, the searches we conducted
failed to find any software solutions suitable for the automatic
identification of cell files. Specialized commercially available
tools such as WinCell (Hitz et al., 2008) are intended for use in
the analysis of wood cells, but do not recognize or characterize
cellular organizations. Users have only limited or no possibility
of improving their functions. By contrast, commercial platforms
such as Visilog (Travis et al., 1996) offer a rich environment, but
are not sufficiently specialized, because although it is possible to
create macro functions (by assembling and configuring basic
ones), it is impossible to add new basic functions.
Open source platforms such as ImageJ (Clair et al., 2007) are an
interesting option as their source codes may be enriched by special
functions, and specialized macros may be developed. At the same
time, they facilitate method sharing and dissemination. It is thus
possible to develop new functions for automated processing. We
thus preferred this solution for our technical development.
In this paper we describe a cell file detection method that is
based solely on cell geometry (size and shape), not on biological
type, thus avoiding the bias and uncertainty inherent to the creation
of reinforcement learning representing biological variability.
Reliability indices are employed to determine the accuracy
of the results produced for both the geometrical parameters characterizing
the cell and its components (lumen and wall), and the
identification of cellular alignments. Results are presented from
application of the process to real images of wood slices, obtained
by a plugin implementation in ImageJ (Schneider et al. 2012), a
Java-based image analysis freeware.
MATERIALS AND METHODS
Study species
For the purposes of our study we examined histological sections
and blocks of gymnosperms, specifically Pinus canariensis,
Page 2 of 12 Brunel et al. — Automatic identification of radial cell files in wood
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from P. nigra and Abies alba. Results were extrapolated to angiosperms
by studying histological sections of Khaya ivorensis.
Any detailed studyof cell typology requires an examination on
multiple planes. In our study, we therefore considered only three
biological cell types: tracheids, which provide support and are
the main cells present in the radial cut; vessels; and rays. For
each cell we calculated its circularity, height, wall thickness,
and surface area of the cell and its lumen.
Preparation protocol and microscopy
Two preparation methods were evaluated to verify the general
applicability of the processing and analytical techniques used.
The conventional preparation method for the study of cell files
consists of creating a mosaic of histological sections from wood
cores. In practice, this approach does not guarantee the juxtaposition
of samples or tissue integrity. It is also relatively timeintensive
as it takes approx. 1 h to prepare a mosaic of ten stained
histological sections. Thus, this protocol is better suited to the
study of relatively smaller areas of observation. The study of
larger areas relies instead on the observation and measurements
of discs of sanded wood. We thus developed a protocol that
combined the sanding and polishing of wood discs to facilitate
automated measurements on the entire ligneous plane.
Thin histological cuts. Producing a single cross-section of
20–25 mm thickness using a vibratome takes approx. 5–15 min
depending on the case. The sections are then stained to increase
the wall/lumen contrast, with the dye binding to the wall. The
cleaningandstainingstepstake 30 min.Thefullprotocoltherefore
requires approx. 1 h per cut. This method is able to produce histological
section mosaics on several rings, depending on core
dimensions.
Sanded wood discs. Samples were taken from pine felled in April
2013. Wood discs (about 2.5 cm thick) were cut from the centre
of each growth unit. At this stage, it is important, although not
always easy, to obtain samples in which the two sides are as parallel
as possible. Samples were dried outdoors in the shade, sheltered
from the rain, from May to July. A belt sander (Festool BS
105) was then passed over the samples using successively finer
grit paper (60, 120 and 220).
The following equipment was used for the pre-polishing
and polishing steps: a semi-automatic polisher fitted with a
30-cm-diameter magnetic plate (Struers); abrasive discs (Sic
foil or paper depending on the grit used); wool polishing cloth
(MD MOL); alcohol-based lubricant (DP blue); and diamond
spray (spray DP). The discs were placed in the sample holder
and fixed with double-sided tape. Disc processing is outlined
in Table 1.
After the last step, the samples were removed from the holder
and rinsed with deionized water. To avoid damage, care was
taken not to touch the fragile polished side of the samples. To
protect from dust, the samples were wrapped in a laboratory
fibre paper. Images were acquired the next day.
Scanning. Scanning, which is performed within 24 h of sample
preparation, consists of producing a mosaic of images representing
the observation area. The time between sample preparation
and scanning must be as short as possible such that the natural
drying of the wood does not produce microdeformations affecting
the uniformity or ‘flatness’ of the surface, thus compromising
the sharpness of the images produced.
In our study, the transverse planes were scanned byan Olympus
DP71 LCD camera mounted on an Olympus BX51 microscope
equipped with a movable stage, thus allowing, by gradual movements
of the slide, the creation of a mosaic of images.
A magnification of × 200 was used to obtain significant cell
surfaces while maintaining a large enough study area.
The position of the mosaic image is determined by the x and y
movements of the stage. Here, the maximum viewing area was
10 × 10 cm2
, corresponding to a mosaic of about 1500 images.
Each image was defined by 1600 × 1200 pixels, which were
encoded on 3 bytes in the RGB system. The images may be
blurred locally or peripherally due to optical distortions or variations
in sample thickness.
Image analysis
The image analysis process followed a three-step sequence,
starting with cell identification, then cell geometrical characterization
and finally file detection. Cell typing and a determination
of the reliability of the results obtained are detailed below.
Each image processing step was itself divided into several
tasks, as described below.
Cell segmentation. This first step aimed to identify the different
cells in the original image. It was divided into three tasks:
image noise reduction preprocessing, contrast enhancement by
filtering and colour to greyscale conversion, and cell identification
from basins generated by the watershed algorithm.
Image noise reduction. At the magnifications used, the images
acquired showed ‘salt and pepper’-type noise, caused by heat
from the lamp. This noise was attenuated using a median filter
applied on a 5 × 5-pixel neighbourhood.
TABLE 1. Sanded wood discs protocol.
Step 1 Step 2 Step 3 Step 4 Step 5 Step 6
Abrasive type Sic Foil 320 Sic Foil 500 Sic Foil 800 Sic Foil 1200 Sic paper 4000 MD MOL
Disc rotation (r.p.m.) 150 150 150 150 150 150
Rotating sample holder 150 150 150 150 150 150
Direction of rotation ≫≫≫≫ ≫ ≫
Vertical force (N) 120 120 120 120 120 120
Duration of step (min) 2 2 2 2 2 5
Liquid lubricant Water Water Water Water Water DP blue
Abrasive product DP spray P3
Brunel et al. — Automatic identification of radial cell files in wood Page 3 of 12
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from Contrast enhancement. The micrographs showed alternating light
areas, corresponding to the lumen, and dark areas, corresponding
to the wall. To enhance the contrast between different areas in the
image and highlight the walls and lumens, we used a Difference
of Gaussian (DoG) operator (Haddad and Akansu, 1991). This
filter acts as a band-pass, only letting through the frequency
range corresponding to the lumen and filtering out the noise
present at higher frequencies. The first image was built from a
slightly blurred Gaussian filter application with smoothing
factor being selected close to average wall size. The second
imagewas built from a heavily blurred Gaussian filterapplication
with smoothing factor tenfold that used for the first image. The
heavily blurred image was then subtracted from the slightly
blurred image. These operations were performed on colouir
images, with negative values being set to zero. This process
boosts the intensity of the lumen while substantially reducing
wall intensities.
From colour to greyscale images. The choice of colour system
is an important aspect of colour image processing. Several
studies have shown that the ‘best system’ depends on image
contents (Busin et al., 2009). For our study, we preferred the
RGB system in which colours correspond to the wavelengths
that stimulate the three cones of the human eye. This system
can define all the hues but not all the saturations.
However, if the watershed algorithm is to be applied, a colour
to greyscale image conversion is required, given that our intention
was to avoid basing automated processing on human perception.
Instead to use the relative luminance formula, which give
less weight to blue and moreweight to red and green components,
we preferred to apply a simple average of the three colour
channels.
Cell extraction and identification. Cell extraction from the grayscale
imagewas based on thewatershed algorithm. This powerful
algorithm (Vincent and Soille, 1991) considers the image as
a landscape, with altitude is given by grey values. Here, the
lower points in the topographic relief, corresponding to dark
regions, act as catchment basins (as if a drop of water were
to fall onto the topography) and are separated by a watershed,
represented by the lighter pixels.
These catchment basins are thus obtained from a partition of
the image. The crest lines constitute the intercellular border,
corresponding to the middle lamella (Fig. 1C). The watershed
algorithm is known to produce an exaggerated partitioning,
resulting in lines that abnormally intersect cells. This phenomenon
is due to the fact that each local minimum in the image produces
a potential catchment basin. Typically, two methods are
used to reduce or even eliminate the exaggerated partitioning:
a priori filtering of the local minima values (Gilmore and
Kelley, 1995) used to initialize the watershed, or a posteriori
merging of similar adjacent basins in terms of both mean and
minimal intensity (Beucher, 2012). Neither method guarantees
perfect cleaning of the watershed lines. Here, we propose a
method based on the biological observation that the lumen of
the cell is empty. Hence, if a watershed line crossing a lumen
shows a characteristic intensity profile whose overall maximum
is greater than athreshold experimentally set from average lumen
values, then it will be deleted. Conversely, a watershed line near
the middle lamella contains only values below the low-intensity
threshold (Brunel et al., 2012).
After cleaning the watershed. An adjacency graph of the basins
was used to describe the neighbouring relationships between
the different basins. This is a simple graph conventionally
defined by a set of vertices and a set of edges. More precisely,
each edge of the graph connects the geometric centres of two
neighbouring basins, i.e. incidents at the same crest line.
Geometric properties at the cell scale. Each cell was then individualized.
Cells are composed of two anatomical structures: the
wall and the lumen. On the original colour image, these structures
are automatically divided into two classes by an unsupervised
two-means classification algorithm (Forgy, 1965), also
equivalent to Otsu’s thresholding operator. The bright pixels
class corresponds to the lumen and the dark pixels class to the
wall. Surface areas are calculated simply by counting the pixels
in each class.
Cell geometrical properties at larger scales: the global cell
arrangement orientation. When considering a basin in the adjacency
graph, it can be seen that the cells are arranged in a staggered
manner, and the edges of the graph are orientated in
three directions. At the full graph scale, the most frequent orientation
corresponds to the cellular alignments. This is defined as
the main direction. We will use the method originally described
by Jones and Bishof (1996) and reused by Brunel et al. (2012),
studying the distribution (via a histogram) of the angle that
each edge of the adjacency graph forms with the horizontal.
In theory, due to the arrangement of the cells, the distribution
should be trimodal and show at least one marked amplitude
mode. The mode of the greatest amplitude indicates the most
represented orientation in the adjacency graph, i.e. the main
A B
C D
FI G. 1. Cell individualization for a Mahogany cross section. (A) Native image.
(B) Watershed segmentation results with crest lines (in green) crossing the lumen.
(C) cleaned watershed image with crest lines replaced by curvilinear edges (in
yellow). The edges correspond to the middle lamella while the geometric
centre of the watershed (extra points in yellow) correspond to the biological
cells. (D) Dual watershed image, in which the red lines connect each cell
centre with its neighbours (adjacency graph). Note that the degree of connections
is greater than 4, showing the staggered pattern of the cells.
Page 4 of 12 Brunel et al. — Automatic identification of radial cell files in wood
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from orientation of the files (Fig. 2). This mode is retrieved by searching
the histogram maximum amplitude.
File detection
The process used to identify cell files in an image is based on
the following assumptions: (1) files are pair-wise alignments of
similar cells (in terms of size and shape) and (2) cell alignments
are independent of the orientation of the image.
File identification is based on a double scale constructive
approach, applied to the adjacency graph. The first step builds
cell alignments, i.e. candidate cell files under spatial and geometric
constraints. The second step manages the case of alignment
recoveries. Finally, the resulting isolated alignments are linked
to build cell file fusions.
(1) Building alignments by applying spatial and geometric constraints.
This task extracts the longer rectilinear straight paths
of ‘geometrically similar’ vertices from the adjacency graph.
In other words, it detects a vertex sequence along which the
surface of the underlying basin varies gradually. These alignments
are constructed step bystep, bysuccessive aggregations of vertices.
More specifically, it means finding which vertex w of the graph
must be added at the end of the v line under construction to
complete it.
The angulation (direction) constraint. Let us define the vertex
neighborhood Nk(vi) of rank k as the set of vertices located at a
geodesic distance k from vertex vi. Let us then define the angulation
A(vi,w) as the angle defined from the complement to 1808 of
(vi21, vi, w) where vi and vi21 are the last two vertices of the built
alignment and w is the candidate vertex. The angulation can be
used to choose the best candidate w that minimizes the angular
offset from the reference direction, i.e. the current cell alignment.
In no cases may this angle be greater than a threshold which is
given by a decreasing linear function (to 358 at 108) that itself
is dependent upon the geodesic distance. For the first two file
cells the angulation value is defining according to the main orientation.
The vertex solution w is selected from among the wk
vertices of the Nk(vi) set and is the vertex most geometrically
similar and nearest to the file axis. In fact, for a given geodesic
distance k, at most two vertex candidates are considered, i.e.
the two closest vertices (wa and wb) lying on either side of the
axis formed by the last two geometric centres of the cells of
the file under construction (Fig. 3).
The geometrical similarity constraint. The candidate most geometrically
similar to vertex vi is retained. The geometrical comparison
is performed based on their mutual underlying basins.
Let GSpq be the geometric similarity index between two vertices
p and q that is given by the normalized difference between the
surface areas Sp and Sq
GSpq = |Sp − Sq|
(Sp+Sq) (1)
The more the index tends toward 0, the more similar the cell
surface areas. This index is particularly well suited to softwoods
in which the shape and surface area of the tracheid varies very
little. For angiosperms, the index is a good indicator of rough
size ruptures while permitting continuous and progressive
surface area variations.
In practice, if the smallest GSpq value is lower than 0.5, the candidate
is assigned to the current alignment. If the geometric similarity
index of the vertices is greater than 0.5, the candidate is
20
0
40
60
80
100
120
140
160
180 A
B
0
–90 –45 0
Angle (°)
45 90
50
100
150
Frequency Frequency
200
FI G. 2. Histograms showing the angle distribution on the full adjacency graph;
each angle is defined by an adjacency graph edge direction on the x axis. (A) The
main mode centred on 08 corresponds to horizontal files. (B) The main mode is
split on the [–908, +908] interval borders.
Main orientation
Vi –1 Vi
k = 2
k = 1
Wa
Wb
Wc
Wd
FI G. 3. The angulation (direction) constraint. The red dashed line correspondsto
the file axis. The vertices (vi21, vi) define the current alignment. The blue and
green dashed line boxes show the study neighbourhood at different ranks. Cells
wa and wb are the candidates located at a geodesic distance of 1. Vertex wd is
not considered because it is above the angular threshold (blue line) and vertex
wc is not considered because vertex wb is closer to the file axis.
Brunel et al. — Automatic identification of radial cell files in wood Page 5 of 12
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from rejected, the geodesic distance k is incremented and the process is
repeated. The neighbourhood explored is progressively enlarged
to a geodesic width of 5, at which point the construction of the
alignment stops. This neighbourhood width was an experimental
limit set arbitrarily by the wood anatomists involved in the project.
Before validating the alignment as a cell file section, a feedback
control test is applied as the construction process should
be reversible.
This feedback uses the main orientation of the file as a reference
to reduce file drift. When a vertex w is chosen, a check is
performed that the reciprocal is true, i.e. that we obtain current
vertex v when falling back from vertex w using the main orientation
of the files as a directional reference. If reciprocity is not
confirmed, the construction of the file stops. If it is confirmed,
the vertices located on the shortest path linking v to w are
added to the cell alignment by the Dijsktra algorithm (Cormen
et al., 2001). The criteria employed are described in the next
section. Finally, vertex w becomes the new extremity of the
alignment and the search process is repeated until the alignment
construction stops.
Once stopped, the detected alignment builds a candidate
cell file. The two next steps (recovery management and fusion)
then concern the cell file level.
(2) Managing recoveries. During construction, some vertices may
be assigned to multiple files due to the presence of biological
organizations (vessels and channels) that disrupt the staggered
arrangement. The assignation of these vertices to the most
optimal file is solved by the shortest path search algorithm in
the adjacency graph. The Euclidean distance between the geometrical
centres of the watershed basin is used as a criterion.
This distance sums the angle and shape considered in file building.
The greater the angular deviation, the greater the Euclidean
distance. The greater the size difference between successive
cells, the greater the Euclidean distance. The shortest path in
terms of Euclidean distance corresponds to the best alignment.
As above, we use the Dijsktra algorithm here, and the
corresponding vertices are then removed from the other files,
which will be fractionated.
(3) Linking isolated cell file sections. Due to the presence of
intrusions, cell tears or limitations of the watershed algorithm,
the file identification process may cause isolated file sections to
appear (Fig. 4). Here, merging can be used to concentrate
several parts of the files using simple topological rules to establish
whole files, based on file adjacency (Brunel et al., 2012).
Let us assume that two files are adjacent when two of their
cells are adjacent.
The merging process isthen based on two furtherassumptions:
(1) each file crosses the image from one side to the other and (2)
the files do not intersect. A file section does not fulfil the first
assumption, i.e. one or both tip(s) do(es) not match with the
underlying image border.
From those assumptions, we deduce a property resulting from
file adjacency.
Given two file sections T2 and T2′ adjacent to files F1 and F3,
it is highly likely that T2 and T2′ are two parts of a single F2 file.
In other words, T2 and T2′ are located between F1 and F2.
Note that, under the exposed assumptions, restricted cases of
file merging concern only sections between two lines crossing
the image from side to side. In other cases, it was decided to
leave the situation at the expert’s discretion and evaluation.
This method creates files or sections of files with high con-
fidence (Fig. 5, right). Note that isolated cells or artefacts (due
to segmentation errors or to poor image resolution preventing
an acceptable segmentation) cannot be part of any file and no
attempt is made to connect them to a file. Complex cases are
left to the discretion of the user.
Typing
Cell typing is the ultimate step as used to classify the different
cells present (fibrous, tracheids, vessels, rays, etc.). It is based on
the geometric and densitometric characterization of the catchment
basins associated with the cells’ adjacency graph vertices.
Unlike Kennel et al. (2010), we decided to discard supervised
classification due to the difficulties encountered in providing
reinforcement training that is both sufficiently complete and
representative of biological variability.
A decision tree (Fig. 6) was established with wood anatomists
and is based on the following observations that are sequentially
tested:
(1) The perimeter of the cells, denoted P, can be used to differentiate
‘large’ structures from generally ‘small’ cells.
(2) The circularity coefficient (Zunic and Hirota, 2008) is given
by a weighted ratio between the surface area and the squared
perimeter –4p (area/perimeter2
). Circularity ranges between
0.0 and 1.0: the circularity of a circle is 1, and is far less than
for a starfish footprint. Values may not be valid for very small
particles due to the definition of perimeter and area in a square
grid.
The thresholds used in the decision tree are re-evaluated for
each image by automated classification of their numerical
values. The classifier used is an implementation of two-means
clustering. This conventional data mining method consists of
A
B
FI G. 4. Linking isolated sections. (A) Result of linkage processing without connection.
(B) Result with connection. One colour is used per file.
Page 6 of 12 Brunel et al. — Automatic identification of radial cell files in wood
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from FI G. 5. Left. The native image; the images show different the preparations (sanded wood and stained histology sections), species (Pinus, fir, Pinus, mahogany) and
clades (gymnosperm and angiosperm) that were processed. Right. Automatic identification of cell files; random colouring is used to enhance the visibility of the identified
files (these colours should not to be confused with the reliability index colour).
Brunel et al. — Automatic identification of radial cell files in wood Page 7 of 12
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from allocating n observations in two clusters to minimize the intraand
maximize inter-class standard deviation. The threshold is
therefore assigned by the median value between the upper
bound of the weakest group and the lower bound of the strongest
group.
Beyond the identification of alignments and biological typing,
the anatomist requires a set of numerical results characterizing
the shape, size and nature of more or less complex biological
structures (walls, lumen, cells, files, etc.). These characteristics
are defined by parameters that are automatically evaluated. In
the context of mass processing, it is advantageous to be able to
qualify the accuracy of these evaluations. A certainty index is
thus assigned to each one calculated, whether it focuses on the
cells, their components or their alignments.
Reliability
Intuitively, the computed measures will be more or less close
to the true value depending on the cumulative errors stemming
from image quality, biological configuration and algorithmic
approximations. It is therefore important to assign each result a
reliability estimation.
A file f must be sufficiently long to be significant; its length
Lf must be greater than threshold L. L is defined from the
length Lf distribution analysis. For each image the threshold is
re-evaluated to reflect the biological characteristics inherent to
each of them as a file must be composed of similar cells in
terms of shape, size and appearance. For the sake of simplicity,
these three criteria are reduced to the single height of cells
defined from all points in the normal direction of the file. This
simplification stems from the maturation mechanism of tracheids,
for which cell variations only concern cell extension,
not thickening. Clearly, this mechanism cannot be applied to
broadleaved trees, but in practice this single criterion appears
to be sufficient to characterize the continuous variation observed
in the cell files of broadleaved trees. As a result, the heights H and
Hj+1 of consecutive cells in file f are compared. The reliability
coefficient Rf of file f is described by a product of standardized
terms ranging from 0 to 1.
Rf = 1 − max
L − Lf
L , 0
n−1
j=0
1 − |Hj − Hj+1|
Hj + Hj+1
(2)
The closer the coefficient to 1, the more reliable file f.
By analogy, we can determine reliability coefficients for
the geometrical parameters that characterize file cells. The expression
for this coefficient will depend on the nature of each
parameter and more specifically on the factors influencing that
parameter. The surface area of the basin is independent of
local image blur because it is obtained by watershed segmentation,
while the surface area of the lumen is highly sensitive to
local image blur because it is obtained by an intensity classification.
The reliability coefficient for the lumen is therefore directly
related to blur level. Ladjal (2006) defined a blur indicator that
characterizes the spread of maximum intensity amplitudes, i.e.
the speed at which the signal passes from the lowest to the
highest intensity. This is defined by the following expression
where p(x) shows the pixel intensity of a basin and p′
(x) the
variance.
ℑ( p) = maxx[Rp(x) − minx[Rp(x)
maxx[R| p′
(x)| = amplitude(I)
max(|∇I|) (3)
When the coefficient is high, blur is strong. The reliability coef-
ficient for lumen surface area (Ils) is defined below where threshold
Ts is defined by studying lumen variation using a Gaussian
blur. Surface areas above the threshold are not significant.
Ils =
0 if ℑ( p) . Ts
1 − ℑ( p)
Ts
else
⎧
⎨
⎩
(4)
Note that the accuracy of the surface areas and circularities are
sensitive to the size of the objects measured; for example, the circularity
of a discrete circle (Andre`s, 1994) is meaningful only
above 10 pixel rays.
Parameter computation
Our method produces several layers of results corresponding
to different observation levels: (1) radial files are classified
according to their length and their cellular self-similarity, (2)
cells are characterized by geometric size, diameter, shape, etc.,
and (3) cell components (wall, lumen) are characterized by geometric
parameters (size, thickness, diameter, etc.).
The method has been implemented in Java and integrated as a
plug-in for ImageJ freeware. As an indication, the plug-in allows
images consisting of 1600 × 1200 pixels to be processed in less
than 20 s on a computer with an Intel Q720 processor clocked at
1.6 GHz.
RESULTS AND DISCUSSION
The study described herein aimed to compare the results produced
by our method with those in an expert database containing
12 images whose cells had been manually cropped by wood
anatomists. Our results were obtained without any specific user
settings (Fig. 5): all parameters were automatically re-evaluated
by the application based on the intensity histogram generated
foreach image. The different tests conducted allowed usto evaluate
the limitations of our method, namely with regard to different
biological contexts, different preparation protocols, and diverse
and varied acquisition conditions. The tests were essentially
Fibre Yes
No
Ray
Vessel
TC > Ccell
TP>Pcell Yes
No
FI G. 6. Decision Tree.Tp correspondsto the threshold of the perimeterandTc the
threshold of circularity. The thresholds are automatically rated by a two-means
clustering applied to all values from the image. Only cells with a lumen are processed
by the decision tree.
Page 8 of 12 Brunel et al. — Automatic identification of radial cell files in wood
by guest on July 3, 2014 http://aob.oxfordjournals.org/ Downloaded from
Int´egration et exploitation de besoins en entreprise
´etendue fond´ees sur la s´emantique
Ilyes Boukhari
To cite this version:
Ilyes Boukhari. Int´egration et exploitation de besoins en entreprise ´etendue fond´ees sur la
s´emantique. Other. ISAE-ENSMA Ecole Nationale Sup´erieure de M´ecanique et d’A´erotechique
- Poitiers, 2014. French. .
HAL Id: tel-00942081
https://tel.archives-ouvertes.fr/tel-00942081
Submitted on 4 Feb 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Ecole Nationale Supérieure de Mécanique et d’Aérotechnique
Laboratoire d’Informatique et d’Automatique pour les Systèmes
THESE
pour l’obtention du Grade de
DOCTEUR DE L'ÉCOLE NATIONALE SUPÉRIEURE
DE MÉCANIQUE ET D'AEROTECHNIQUE
(Diplôme National — Arrêté du 7 août 2006)
Ecole Doctorale : Sciences et Ingénierie pour l'Information, Mathématiques
Secteur de Recherche : INFORMATIQUE ET APPLICATIONS
Présentée par :
Ilyès BOUKHARI
*******************************************************
Intégration et exploitation de besoins en entreprise
étendue fondées sur la sémantique
*******************************************************
Directeurs de Thèse : Ladjel BELLATRECHE et Stéphane JEAN
Soutenue le 14 Janvier 2014
devant la Commission d’Examen
Rapporteurs : Bernard ESPINASSE Professeur, Université d’Aix-Marseille, Marseille
Jérôme GENSEL Professeur, LIG, Grenoble
Examinateurs : Yamine AIT AMEUR Professeur, ENSEEIHT, Toulouse
Omar BOUSSAID Professeur, ERIC, Université Lyon 2
Hendrik DECKER Professeur, Instituto Tecnológico de Informática, Valencia
Dominique MERY Professeur, LORIA, Nancy
Ladjel BELLATRECHE Professeur, ISAE-ENSMA, Poitiers
Stéphane JEAN Maître de conférences, Université de Poitiers
JURYRemerciements
Je remercie avant tout, ALLAH tout puissant qui m’a donné la volonté et la patience pour accomplir
ce travail.
Mes remerciements les plus sincères s’adressent à :
Ladjel BELLATRECHE, mon directeur de thèse, pour m’avoir guidée pendant les trois années de
thèse. Je le remercie pour la confiance qu’il m’a témoignée, pour ca disponibilité, pour ses précieuses
orientations, pour sa passion pour la recherche et pour son soutien aussi bien sur le plan humain que
scientifique;
Stéphane JEAN, mon co-directeur de thèse, pour m’avoir conseiller tout au long de ma thèse;
Yamine AIT AMEUR et Emmanuel GROLLEAU, directeurs du LISI et du LIAS, pour m’avoir
accueillie au sein du laboratoire;
Jérôme GENSEL et Bernard ESPINASSE de m’avoir fait l’honneur d’être rapporteurs de cette
thèse et à qui je souhaite exprimer ma profonde reconnaissance;
Dominique MERY, Omar BOUSSAID, Hendrik DECKER et Yamine AIT AMEUR pour avoir
accepté d’être membres du jury en tant qu’examinateurs. Je suis très honorée de l’intérêt qu’ils ont porté
à mes travaux;
Tout le personnel du LIAS pour leur présence et leur soutien cordial. Je pense en particulier à
Laurent GUITTET, Zoe FAGET, Michaël BARON, Allel HADJALI, Frédéric CARREAU et Claudine
RAULT.
Tous les membres du LIAS et particulièrement Ahcene BOUKORCA, Selma BOUARAR, Selma
KHOURI, Yassine OUHAMMOU, Amira KERKAD, Chedlia CHAKROUN, Soraya CHACHOUA,
Youness BAZHAR, Samia BOULKRINAT,Zahira, Soumia BENKRID, Thomas LACHAUME, etc;
Mes amis et collègues Salim, Walid, Tarek, Fateh Ahcene, Messaoud, Lotfi, Mohamed, Yassine,
Nourddine, Abdelghani, Zakaria, Zouhir, Nadir, Okba, Moncef, Issam, Lassad, Idir, etc.;
Enfin et surtout à ma famille et particulièrement à mes parents, ma femme, mes enfants, mes deux
frères Billel et Zakaria, mes sœurs Ahlem, Liela, Hadjer et Maroua pour leur soutien sans faille.Je
leur dédie cette thèse.
iiiA mon Algérie bien-aimée. Mes parents,
Ma grand-mère
Ma femme Amina,
Mes enfants (Youcef et Ayoub),
Mes sœurs et mes frères,
vTable des matières
Chapitre 1 Introduction générale 1
1 Contexte et problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1 Nombre croissant de partenaires . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Hétérogénéité des vocabulaires . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Hétérogénéité des langages de modélisation des besoins . . . . . . . . . . . 7
1.4 Exigence des relations complexes entre les besoins . . . . . . . . . . . . . . 7
1.5 Évolution des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Notre Démarche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4 Organisation du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Partie I État de l’art
Chapitre 2 L’expression des besoins : un état de l’art 17
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
viiTable des matières
3 Processus d’ingénierie des Besoins . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4 Langages de modélisation des besoins . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.1 Langages informels (langage naturel) . . . . . . . . . . . . . . . . . . . . . 26
4.2 Langages semi-formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Langages formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Approches et méthodes pour l’expression des besoins . . . . . . . . . . . . . . . . 29
5.1 Approches dirigées par les buts . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.1 GQM : Goal Question Metric . . . . . . . . . . . . . . . . . . . 30
5.1.2 KAOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.3 iStar (i*) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 Approches à base de scénarii . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.3 Approches basées sur les automates et réseaux de Petri . . . . . . . . . . . 35
6 Problématiques liées à l’expression des besoins . . . . . . . . . . . . . . . . . . . . 37
7 État des lieux sur l’intégration et l’analyse des besoins . . . . . . . . . . . . . . . . 37
7.1 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
7.1.1 Exemples d’approches dirigées par des méthodes issues de la logique
mathématique . . . . . . . . . . . . . . . . . . . . . . . . 37
7.1.2 Approches dirigées par IDM . . . . . . . . . . . . . . . . . . . . 38
7.2 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Chapitre 3 Les ontologies au service de l’Ingénierie des Besoins 43
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2 Ontologies de domaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1 Définitions et caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Une taxonomies des ontologies de domaine . . . . . . . . . . . . . . . . . . 46
2.2.1 Les Ontologies Linguistiques (OL) . . . . . . . . . . . . . . . . . 47
2.2.2 Les Ontologies Conceptuelles (OC) . . . . . . . . . . . . . . . . 47
viii2.3 Les langages de définitions des ontologies . . . . . . . . . . . . . . . . . . 48
2.3.1 Langages orientés gestion et échange de données . . . . . . . . . 48
2.3.2 Langages orientés inférence . . . . . . . . . . . . . . . . . . . . 50
2.4 Les éditeurs d’ontologies . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.5 Représentation formelle d’une ontologie . . . . . . . . . . . . . . . . . . . 53
3 Ontologies et l’intégration : application aux sources de données hétérogènes . . . . 54
3.1 Intégration sémantique a posteriori . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Intégration sémantique a priori . . . . . . . . . . . . . . . . . . . . . . . . 56
4 Les ontologies dans l’IB : état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.1 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3 Ontologies, besoins et le cycle de vie de conception . . . . . . . . . . . . . 60
4.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
Partie II Contributions
Chapitre 4 Unification des vocabulaires et des langages de modélisation des besoins 65
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2 Nos hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3 Unification des vocabulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.1 Le modèle Orienté buts . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.2 Le modèle des cas d’utilisation . . . . . . . . . . . . . . . . . . . 72
3.1.3 Le Modèle Conceptuel de Traitements (MCT) . . . . . . . . . . . 73
ixTable des matières
3.2 Couplage des modèles utilisés avec l’ontologie . . . . . . . . . . . . . . . . 76
3.2.1 Méta-modèle de l’ontologie partagée . . . . . . . . . . . . . . . . 76
3.2.2 Couplage des trois langages proposés avec les ontologies locales . 77
4 Unification des langages de modélisation des besoins . . . . . . . . . . . . . . . . . 81
4.1 Proposition d’un modèle pivot des besoins . . . . . . . . . . . . . . . . . . 82
4.2 Couplage de modèle pivot à l’ontologie . . . . . . . . . . . . . . . . . . . . 83
5 Un exemple d’utilisation de notre méthode d’intégration . . . . . . . . . . . . . . . 85
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Chapitre 5 Vers une Fusion de méta-modèles des langages de modélisation des besoins 89
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2 Fusion des méta modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3 Connexion du méta-modèle générique avec l’ontologie . . . . . . . . . . . . . . . . 93
4 Raisonnement sur les besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.1 Scénarii de raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.1.1 Scénario 1 : ship whole . . . . . . . . . . . . . . . . . . . . . . . 96
4.1.2 Scénario 2 : reason as needed . . . . . . . . . . . . . . . . . . . 97
4.2 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.3 Relations sémantiques entre les besoins : Définition & Formalisation . . . . 99
4.4 Évaluation du processus de raisonnement . . . . . . . . . . . . . . . . . . . 102
5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Chapitre 6 Exploitation des besoins pour la conception physique 105
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
2 La conception physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3 Conception physique dirigée par les besoins . . . . . . . . . . . . . . . . . . . . . 109
3.1 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.2 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . . 111
4 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.1 Le langage d’exploitation OntoQL . . . . . . . . . . . . . . . . . . . . . . 112
x4.2 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.3 Génération des requêtes SQL . . . . . . . . . . . . . . . . . . . . . . . . . 114
5 Expérimentation et évaluation de notre proposition . . . . . . . . . . . . . . . . . . 116
5.1 Structures d’optimisation comme des services . . . . . . . . . . . . . . . . 116
5.2 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.3 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . . 117
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Chapitre 7 Prototype de validation 121
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1.1 Langages et outils utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2 Architecture fonctionnelle de OntoReqTool . . . . . . . . . . . . . . . . . . . . . . 123
2.1 Les modules de la partie intégration . . . . . . . . . . . . . . . . . . . . . . 123
2.2 Les modules de la phase d’exploitation . . . . . . . . . . . . . . . . . . . . 127
3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Chapitre 8 Conclusion générale 133
1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
1.1 Bilan des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2.1 Autres langages de modélisation des besoins . . . . . . . . . . . . . . . . . 136
2.2 Etude du passage à l’échelle de nos propositions . . . . . . . . . . . . . . . 137
2.3 Définition des architectures d’intégration . . . . . . . . . . . . . . . . . . . 137
2.4 Prise en compte de l’évolution . . . . . . . . . . . . . . . . . . . . . . . . 137
2.5 Elaboration d’un cycle de vie de conception d’applications avancées . . . . 137
Bibliographie 139
Annexes 149
Table des figures 155
xiTable des matières
Liste des tableaux 159
Glossaire 161
xiiChapitre 1
Introduction générale
Sommaire
1 Contexte et problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Notre Démarche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4 Organisation du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
11. Contexte et problématique
1 Contexte et problématique
L’une des conséquences de la mondialisation est la multiplication des entreprises étendues. Une
entreprise étendue est caractérisée par un nombre important de sous-entreprises et/ou des sous-traitants.
Nous pouvons citer l’exemple de l’entreprise Airbus qui implique quatre sites dans différents pays : Hambourg
(Allemagne), Filton (Angleterre), Toulouse (France) et Madrid (Espagne). Chaque site possède un
nombre important de départements et de services. Pour développer un système ou une application complexe
dans une telle entreprise, plusieurs acteurs qui n’utilisent pas le même vocabulaire, voir le même
langage, sont impliqués. Pour faciliter leur travail, des solutions d’intégration pourraient être utilisées
tout en omettant les barrières fonctionnelles, organisationnelles, technologiques et culturelles. Rappelons
qu’un système d’intégration consiste à fournir une interface unique, uniforme et transparente aux
objets concernés par le processus d’intégration. Ces derniers peuvent être des données, des applications,
des plateformes, etc. via un schéma global qui peut être localisé dans un médiateur [125] ou un entrepôt
de données [82]. Les solutions d’intégration permettent aux entreprises qui les utilisent : (i) d’augmenter
le pouvoir décisionnel de l’entreprise étendue. Par exemple, plusieurs entreprises ayant développé des
entrepôts de données (un cas particulier des systèmes d’intégration de données) ont qualifié ce projet de
succès story. On peut citer l’exemple de l’entreprise Coca Cola, Wal-mart 1
et le groupe français Casino
2
, (ii) de réduire les coût de traitement en partageant les ressources (par exemple, la puissance de
calcul), (iii) d’identifier les activités redondantes qui pourraient être traitées dans certaines entreprises
partenaires. Cette identification permet de réduire les coûts de développement ce qui est particulièrement
important en période de crise économique. Si nous reprenons notre exemple d’Airbus, pour faire face
aux problèmes de retard dans le programme de l’avion A380, cette entreprise a lancé le projet Power 8
en 2007 qui a permis entre autre d’identifier les activités redondantes dans certains services délocalisés,
et (iv) d’augmenter de la compétitivité de l’entreprise.
Depuis deux décennies, de nombreux travaux académiques liés à l’intégration ont été développés. Ils
concernent plusieurs volets : (i) l’intégration des données (Entreprise Information Integration (EII)), (ii)
les applications (Entreprise Application Integration (EAI)) et (iii) les plateformes. Une véritable industrie
autour des systèmes d’intégration a été créée [46, 63] et plusieurs entreprises proposent des solutions
d’intégration. Parmi les trois volets citées et illustrées sur la figure 1.1, l’intégration des données occupe
une place prépondérante. Elle est en effet un enjeu important, comme l’indiquait Alon Halevy et al. dans
son article intitulé : Data Integration : The Teenage Years, qui a eu le prix 10 Year Best Paper Award à la
conférence Very Large Databases (VLDB’2006).
En analysant les dimensions concernées par l’intégration, nous avons identifié l’absence des besoins
des utilisateurs. Cependant, un nombre important d’études a montré que les échecs dans la mise en œuvre
et l’exploitation des projets informatiques sont souvent dus à une mauvaise compréhension des besoins
ainsi qu’à des incohérences, et des ambiguïtés de leurs définitions [1, 4, 57, 87]. Les besoins peuvent
également contribuer à l’identification des activités redondantes. Rappelons que plusieurs approches de
conception des applications avancées sont censées être centrées utilisateur. Cette approche consiste à
considérer les utilisateurs et leurs besoins tout au long du processus de développement d’applications
informatiques. Parmi les systèmes concernés par cette approche, nous pouvons citer les base de données
1. Computer Business Review, October 1996
2. http://www.lsis.org/espinasseb/Supports/DWDM-2013/2-Intro-Entrepots-2013.pdf
3Chapitre 1. Introduction générale
Systèmes Réseaux SGBD
Business
Process
EAI
BD Fédérées
EII
Standards J2EE
Web Services
Intégration d’applications
Intégration de données
Intégration de plateformes
Systèmes Réseaux SGBD
Business
Process
EAI
BD Fédérées
EII
Standards J2EE
Web Services
Intégration d’applications
Intégration de données
Intégration de plateformes
Figure 1.1 – Différents niveaux d’intégration [50].
[115], les entrepôts de données connu sous le nom d’approche orientée besoins [111], les systèmes d’intégration
des données [54], et les interfaces homme machines [10]. Dans ce travail, nous nous sommes
concentrés sur les entrepôts de données.
La plupart des études de conception des systèmes de gestion de données, élaborées selon une approche
centrée utilisateur, supposent l’intervention des concepteurs homogènes. Par homogène, nous entendons
que les concepteurs impliqués dans le processus de construction de la base/entrepôt de données
ou le système d’intégration utilisent le même langage de modélisation des besoins et le même vocabulaire
pour modéliser leurs besoins. Nous appelons ce scénario 1-vocabulaire-1-langage de modélisation.
Dans le contexte d’une entreprise étendue, les besoins peuvent parvenir d’acteurs hétérogènes, ce qui
rend leur définition et exploitation difficiles. Cette difficulté est due à plusieurs facteurs : (1) le nombre
croissant de partenaires, (2) la diversité (hétérogénéité) des vocabulaires d’expression de besoins, (3)
l’hétérogénéité des langages de modélisation des besoins, (4) la présence de relations complexes entre
les besoins et (5) l’évolution des besoins. Ces facteurs peuvent être détaillés comme suit.
1.1 Nombre croissant de partenaires
La fabrication d’une application complexe consommatrice de données nécessite souvent sa décomposition
en un nombre important de modules (sous-systèmes), chacun géré par une sous-entreprise ou
un sous-traitant particulier. Cela fait naître un besoin d’automatisation du processus d’intégration des
besoins.
1.2 Hétérogénéité des vocabulaires
Souvent chaque collecteur de besoins utilise son propre vocabulaire pour exprimer ses besoins, ce
qui peut générer des conflits syntaxiques et sémantiques.
L’hétérogénéité syntaxique provient du fait que les collecteurs de besoins utilisent des terminologies
qui leur sont propres. En effet, les propriétaires de sous-systèmes sont souvent autonomes et chacun a
41. Contexte et problématique
ses habitudes de travail et ses méthodes de recueil des besoins. Cette autonomie fait augmenter cette
hétérogénéité d’une manière significative. Elle est similaire à celle identifiée dans les contextes des bases
de données fédérées et des multi-bases de données.
L’hétérogénéité sémantique par contre, présente un défi majeur dans le processus d’élaboration d’un
système d’intégration. Elle est due aux différentes interprétations des objets du monde réel. En effet,
chaque collecteur de besoins peut avoir un point de vue différent sur le même concept. Dans [54], quatre
types de conflits ont été identifiés: (i) conflits de représentation, (ii) conflits de noms, (iii) conflits de
contexte et (iv) conflits de mesure de valeur.
– Conflits de représentation : ce type de conflit survient lorsqu’un même type de données est modé-
lisé différemment, c’est-à-dire par des propriétés différentes ou des schémas différents (le nombre
de classes et de propriétés représentant un concept n’est pas le même entre deux sources). A noter
que la richesse d’un modèle de données augmente la probabilité d’occurrence de ces conflits.
– Conflits de noms : nous distinguons les deux sortes de conflits de noms suivants.
– Même nom d’entité avec des significations différentes (homonymie) : ce conflit apparaît lorsque
différents schémas utilisent des noms identiques pour des concepts différents.
– Noms différents avec des significations identiques (synonymie) : ce conflit apparaît lorsque les
différents schémas utilisent des noms différents pour représenter le même concept ou propriété.
– Conflits de contextes : le contexte est une notion très importante dans les systèmes d’information
répartis. En effet, un même objet du monde réel peut être représenté dans les sources de données
par plusieurs représentations selon un contexte local correspondant à chaque source. Ces conflits
sont identifiés dans le cas où les concepts semblent avoir la même signification, mais qu’ils sont
évalués dans différents contextes.
– Conflits de mesure de valeur : ces conflits sont liés à la manière de coder la valeur d’une propriété
du monde réel dans différents systèmes. Ce conflit apparaît dans le cas où des unités différentes
sont utilisées pour mesurer la valeur d’une propriété.
Pour réduire l’hétérogénéité sémantique, trois types d’approches ont été proposées : (i) approches
manuelles, approches semi automatiques et approches automatiques.
– Les approches manuelles : l’intégration manuelle de données est la technique qui a été utilisée
dans les premières générations de systèmes d’intégration. Ces approches permettent d’automatiser
l’intégration des données au niveau syntaxique. Cependant, les conflits sémantiques sont résolus
manuellement et nécessitent donc la présence d’un expert humain pour interpréter la sémantique
des données (Figure 1.2).
– Les approches semi-automatiques : du fait que le nombre de sources de données devient important
et/ou lorsque les sources évoluent fréquemment, les approches d’intégration manuelles
deviennent très coûteuses et même impraticables. Des traitements plus automatisés deviennent
nécessaires pour faciliter la résolution des conflits sémantiques. Dans cette partie, il s’agit d’une
deuxième génération des systèmes d’intégration qui utilise les ontologies linguistiques (thésaurus)
(Figure 1.3). Ces dernières permettent d’automatiser partiellement la gestion des conflits sémantiques.
Les ontologies linguistiques sont ainsi utilisées pour comparer automatiquement les noms
des relations ou des attributs. Cependant, cette comparaison est orientée "terme" et non "concept".
Cela peut créer notamment des conflits de noms. De plus, les relations entre termes sont très
contextuelles. Ainsi le traitement par ontologie linguistique est nécessairement supervisé par un
expert et ne peut donc être que partiellement automatique. Deux ontologies linguistiques assez
5Chapitre 1. Introduction générale
Expert
Système
d’intégration
S1
S2
S3
Expert
Système
d’intégration
S1
S2
S3
Figure 1.2 – Résolution manuelle de l’hétérogénéité
Système
d’intégration
Validation
Expert
Ontologie Linguistique (OL) S1
S2
Sn
Système
d’intégration
Validation
Expert
Ontologie Linguistique (OL) S1
S2
Sn
Figure 1.3 – Résolution semi-automatique de l’hétérogénéité
connues ont utilisé ce genre d’approche : WORDNET 3
et MeSH (Medical Subject Heading) 4
.
MOMIS [21] est un exemple de projet utilisant des ontologies linguistiques Wordnet pour intégrer
semi-automatiquement des données de sources structurées et semi-structurées.
– Les approches automatiques : dans les deux générations précédentes la signification des données
n’est pas représentée explicitement. Avec l’avènement des ontologies conceptuelles, un progrès
important a pu être réalisé dans l’automatisation du processus d’intégration de sources hé-
térogènes grâce à la représentation explicite de la signification des données. Dans une ontologie
conceptuelle, la sémantique du domaine est spécifiée formellement à travers des concepts, leurs
propriétés ainsi que les relations entre les concepts. Une ontologie conceptuelle regroupe ainsi
les définitions d’un ensemble structuré des concepts qu’elle veut représenter. Ces définitions sont
3. Wordnet est une base de données lexicale de l’anglais-américain avec plus de 100 000 synsets
(http://wordnet.princeton.edu)
4. Un thésaurus médical( http://www.chu-rouen.fr/cismef/)
61. Contexte et problématique
traitables par machine et partageables par les utilisateurs du système. La référence à une telle ontologie
est alors utilisée pour éliminer automatiquement les conflits sémantiques entre les sources
dans le processus d’intégration de données. Le processus d’intégration de données peut alors être
entièrement automatisé. PICSEL [53], OBSERVER [91] et OntoDaWa [128], développé dans le
cadre de la thèse de Dung NGUYEN XUAN (pour l’intégration des catalogues de composants de
l’entreprise Renault), sont des exemples de projets utilisant des ontologies conceptuelles qui visent
à intégrer automatiquement des données.
1.3 Hétérogénéité des langages de modélisation des besoins
Dans le contexte de l’intégration des sources de données, l’hétérogénéité de représentation de ces dernières
n’est pas souvent prise en compte, car les modèles conceptuels des sources sont souvent traduits
vers des modèles physiques qui sont les seuls à être pris en considération par le processus d’intégration.
Dans le contexte d’expression des besoins, plusieurs langages peuvent être utilisés. Récemment, certains
efforts de recherche on été entrepris pour remonter l’intégration des sources de données au niveau
conceptuel, en établissant des procédures de rétro-conception des modèles physiques des sources pour
remonter aux modèles conceptuels [76, 77]. Dans le contexte des besoins, leurs langages de modélisation
doivent être unifiés car l’expression d’un seul besoin peut se faire avec une multitude de langages.
Ceux-ci sont classés en trois principales catégories: langages linguistiques (informels), langages semiformels
(diagramme des cas d’utilisation d’UML, le langage de modélisation conceptuelle de Merise
[101], Orienté but, etc.) et langages formels (ex. la méthode B). Nous classifions cette hétérogénéité en
deux catégories principales :
– L’hétérogénéité intra-classe qui existe entre les langages de modélisation qui appartiennent à la
même catégorie. Par exemple, le diagramme des cas d’utilisation et le langage orienté but appartiennent
à la catégorie des langages semi-formels;
– L’hétérogénéité inter-classe qui existe entre des langages de modélisation qui n’appartiennent pas
à la même catégorie. Par exemple, la méthode B et le langage orienté but appartiennent à deux
catégories différentes : langages formels et semi-formels.
1.4 Exigence des relations complexes entre les besoins
Lors de la définition des besoins, l’identification des conflits et des contradictions entre eux est nécessaire.
Différents types de relations ont été proposés dans la littérature. Nous pouvons citer, par exemple,
les relations de conflits, les relations d’inclusion et d’équivalence.
1.5 Évolution des besoins
Au cours du cycle de vie d’un système complexe, les besoins des concepteurs, dans chaque soussystème,
sont amenés à évoluer. Cette évolution a un effet négatif sur le succès du projet étant donné
qu’elle entraîne de nombreuses modifications. Une modification de besoin peut être : l’ajout, la suppression
et la modification. Plusieurs facteurs affectent l’évolution des besoins [109] : changement d’un
besoin, sa priorité, la technologie, conflit entre les besoins, complexité du système, etc. En conséquence,
cette évolution peut impacter le développement du système.
7Chapitre 1. Introduction générale
2 Notre Démarche
Pour répondre au problème d’intégration des besoins, nous sommes parti de travaux au laboratoire
LIAS effectués sur l’intégration des sources de données hétérogènes [19, 20], où des solutions sémantiques
en utilisant des ontologies de domaine ont été proposées. Ces dernières ont contribué largement à
l’automatisation du processus d’intégration malgré la présence d’un nombre important de sources de données.
Rappelons qu’actuellement, nous vivons dans une ère où plusieurs ontologies de domaine existent.
C’est le cas du domaine de l’ingénierie où les catalogues de composants électroniques sont souvent dé-
crits par des ontologies normalisées par l’ISO (PLIB : ISO 132584 "parts Library"), de la médecine
où nous trouvons l’ontologie UMLS (Unified Medical Language System) ou dans le domaine de l’environnement
où un nombre important d’ontologies a été développé (par exemple, Influenza Infectious
Disease Ontology 5
). De ce fait, nous supposons dans nos travaux qu’il existe une ontologie de domaine
et que chaque collecteur de besoins reprend a priori des concepts de cette ontologie pour construire son
ontologie locale couvrant son problème. Cette dernière peut être soit un sous-ensemble de l’ontologie
de domaine soit une spécialisation, c’est-à-dire un sous-ensemble éventuellement étendu par des classes
plus spécialisées et/ou des propriétés additionnelles. De part leur aspect formel, les ontologies offrent
également des mécanismes de raisonnement permettant de vérifier la consistance des besoins et d’inférer
de nouveaux relations entre les besoins.
La présence de l’ontologie, certes résout les problèmes d’hétérogénéité syntaxique et sémantique. Par
contre l’hétérogénéité des langages de modélisation des besoins reste présente. Pour éviter un nombre
important de correspondances entre les différents langages ( n×(n−1)
2
), où n représente le nombre de langages,
nous présentons une méthode pivot. En d’autres termes, nous supposons que chaque collecteur
de besoins a son propre langage de modélisation couplé à son ontologie locale, et au final l’ensemble
des besoins sont transformés sur le langage de modélisation pivot que nous appelons "modèle pivot". Ce
modèle pivot jouant le rôle de médiateur est également couplé à l’ontologie partagée pour faciliter son
exploitation.
Le scénario précédent exige une correspondance de tout langage de modélisation des besoins vers le
modèle pivot, ce qui peut être coûteux dans le cas des gros projets. Dans le deuxième scénario d’inté-
gration, nous proposons de fusionner l’ensemble des langages en un seul langage de modélisation que
nous appelons "modèle générique" et au lieu de faire des correspondance, nous utilisons l’instanciation.
Cette fusion est réalisée à partir des méta-modèles des langages utilisés. En d’autres mots chaque langage
devient une instance de ce modèle générique.
Étant donné que nos solutions d’intégration des besoins sont sémantiques, nous exploitons les mé-
canismes de raisonnement offerts par les ontologies pour identifier les besoins conflictuels et contradictoires.
Contrairement aux travaux existants qui traitent le problème d’intégration des besoins d’une manière
isolée sans prendre en compte le système cible (une base/entrepôt de données, une interface homme
machine, etc.), nos propositions apportent des solutions pour les phases de cycle de vie de conception
du système cible. Pour illustrer cela, nous considérons la phase de conception physique d’un entrepôt de
données. Durant cette phase, un ensemble de structures d’optimisation (les index, la fragmentation de
données, les vues matérialisées, etc.) est sélectionné. Souvent cette sélection est effectuée à partir d’un
5. http://bioportal.bioontology.org/ontologies/ENVO
83. Contributions
ensemble de requêtes. Dans ce travail, nous proposons une approche de sélection dirigée par les besoins.
3 Contributions
Nos contributions se résument en trois points illustrés sur la figure 1.5 : (i) le placement des besoins
dans l’architecture d’intégration des objets, (ii) l’intégration des besoins en prenant en compte
deux types d’hétérogénéité : une liée aux vocabulaires utilisés [25, 26] et l’autre liée aux langages de
modélisation des besoins [26] et (iii) le raisonnement et l’exploitation des besoins sur la phase physique
[79, 78, 18]. En ce qui concerne le premier point, nous valorisons les besoins des utilisateurs dans le
Systèmes Réseaux SGBD
Business
Process
EAI
BD Fédérées
EII
Standards J2EE
Web Services
Intégration d’applications
Intégration de données
Intégration de plateformes
Besoin 1
Besoin 2
Besoin 3
Besoin n
Intégration des besoins
Systèmes Réseaux SGBD
Business
Process
EAI
BD Fédérées
EII
Standards J2EE
Web Services
Intégration d’applications
Intégration de données
Intégration de plateformes
Besoin 1
Besoin 2
Besoin 3
Besoin n
Intégration des besoins
Figure 1.4 – Les quatre niveaux d’intégration.
contexte de conception des bases/entrepôts de données par l’ajout d’une nouvelle dimension d’intégration
représentant les besoins (figure 1.4).
Pour offrir une intégration automatique dans le cadre des entreprises étendues, où chaque partenaire est
autonome, notre approche doit prendre en compte le fait que chacun peut utiliser son propre langage
de modélisation des besoins et sa propre terminologie. Pour remédier au problème de vocabulaire, nous
proposons l’utilisation d’une ontologie couvrant le domaine de l’étude, dont nous faisons l’hypothèse
qu’elle existe (figure 1.5). Dans ce scénario, nous supposons que chaque collecteur de besoins pioche
ses concepts et propriétés à partir de cette ontologie qui joue le rôle d’un dictionnaire. Pour unifier les
différents langages de modélisation des besoins, nous proposons un modèle pivot. Vu la diversité des langages
de modélisation et dans le but de définir les composantes du modèle pivot, nous avons considéré
une étude de cas basée sur l’ontologie du domaine universitaire (Lehigh University Benchmark (LUBM))
et trois langages de modélisation des besoins : Use case d’UML, le langage orienté buts et le modèle
de traitement de la méthode Merise. Pour établir le couplage entre les modèles utilisés et l’ontologie,
un travail de méta-modélisation de chaque modèle ainsi que de l’ontologie est effectué. Les concepts
et les propriétés utilisés dans chaque modèle sont référencés par l’ontologie. Ceci permet de faciliter
l’intégration des besoins. Deux scénarii d’intégration sont alors présentés, offrant plus d’autonomie aux
collecteurs des besoins et le deuxième impose un modèle unifié (générique) intégrant l’ontologie de
domaine.
9Chapitre 1. Introduction générale
Ontologie partagée
Modèle Pivot des besoins
Connexion
Transformation (Mappings) Modularité (Extractions des OLs)
2
Besoins des
utilisateurs
Correcte
Complète
Sans
ambiguïté
Consistante
…..
Concepteurs
Sous-système (1)
Langage informel
OL2
OL1
OLn
Concepteurs
Concepteurs
Connexion
3
Intégration des besoins
Sous-système (2)
Sous-système (n)
Connexion
3
Connexion
3
4
3
Modèle Ontologique Pivot (OntoPivot)
Processus de
raisonnement
5
1
ED sémantique
Méta-modèle ontologie +
méta-modèles de besoins
Catalogue système
Instanciation Instanciation
Ontologies locales de
besoins
Traduction
Modèle logique (MLD)
Langage semi-formel
Langage formel
Génération des requêtes (SQL)
Optimisation de l’ED
Persistance des besoins
6
7
8
Intégration sémantique des besoins Exploitation & validation
Ontologie partagée
Modèle Pivot des besoins
Connexion
Transformation (Mappings) Modularité (Extractions des OLs)
2
Besoins des
utilisateurs
Correcte
Complète
Sans
ambiguïté
Consistante
…..
Concepteurs
Sous-système (1)
Langage informel
OL2
OL1
OLn
Concepteurs
Concepteurs
Connexion
3
Intégration des besoins
Sous-système (2)
Sous-système (n)
Connexion
3
Connexion
3
4
3
Modèle Ontologique Pivot (OntoPivot)
Processus de
raisonnement
5
1
ED sémantique
Méta-modèle ontologie +
méta-modèles de besoins
Catalogue système
Instanciation Instanciation
Ontologies locales de
besoins
Traduction
Modèle logique (MLD)
Langage semi-formel
Langage formel
Génération des requêtes (SQL)
Optimisation de l’ED
Persistance des besoins
6
7
8
Ontologie partagée
Modèle Pivot des besoins
Connexion
Transformation (Mappings) Modularité (Extractions des OLs)
2
Besoins des
utilisateurs
Correcte
Complète
Sans
ambiguïté
Consistante
…..
Concepteurs
Sous-système (1)
Langage informel
OL2
OL1
OLn
Concepteurs
Concepteurs
Connexion
3
Intégration des besoins
Sous-système (2)
Sous-système (n)
Connexion
3
Connexion
3
4
3
Modèle Ontologique Pivot (OntoPivot)
Processus de
raisonnement
5
1
ED sémantique
Méta-modèle ontologie +
méta-modèles de besoins
Catalogue système
Instanciation Instanciation
Ontologies locales de
besoins
Traduction
Modèle logique (MLD)
ED sémantique
Méta-modèle ontologie +
méta-modèles de besoins
Catalogue système
Instanciation Instanciation
Ontologies locales de
besoins
Traduction
Modèle logique (MLD)
Langage semi-formel
Langage formel
Génération des requêtes (SQL)
Optimisation de l’ED
Persistance des besoins
6
7
8
Intégration sémantique des besoins Exploitation & validation
Figure 1.5 – Aperçu des contributions de la thèse
Pour identifier les relations complexes entre les besoins, nous proposons un mécanisme de raisonnement
à base ontologique. Rappelons que les ontologies fournissent une représentation formelle des
connaissances et des relations entre concepts. Elles peuvent donc être exploitées pour raisonner sur les
objets du domaine concerné. Dans notre cas, elles permettent des raisonnements automatiques ayant
pour objet soit d’effectuer des vérifications de consistance sur les besoins (des conflits, des contradictions,
etc.), soit d’inférer de nouvelles relations. Une étude de cas est proposée afin d’évaluer notre
mécanisme de raisonnement où deux scénarii de raisonnement sont étudiées : ship whole et fetch as needed.
Dans le premier scénario, aucun traitement n’est fait localement, le modèle générique a la charge
d’établir l’ensemble des raisonnements. Dans le deuxième scénario, chaque partenaire effectue localement
le raisonnement et ne renvoie que des besoins valides au modèle générique pour déclencher d’autres
104. Organisation du mémoire
raisonnements.
Comme nous l’avons déjà évoqué, nos travaux visent à montrer l’intérêt de la prise en compte des besoins
sur le cycle de vie de conception de bases de données traditionnelles et avancées. Dans cette thèse, nous
étudions en particulier la contribution de la prise en compte des besoins dans la conception physique.
Durant cette phase, l’administrateur doit sélectionner des structures d’optimisation comme les index, les
vues matérialisées, le partitionnement, etc. Cette sélection est souvent guidée par un ensemble de requêtes
extraites à partir de fichiers de journalisation (logs). Nous montrons dans le cadre de cette thèse
que cette tâche est primordiale dans la conception physique et peut se faire dès la collection des besoins
finaux. Cela a un intérêt considérable sur la réduction des tâches de l’administrateur de bases de données
vu quelles sont très complexes et surtout coûteuses. Une autre motivation de nos propositions est que les
bancs d’essai utilisés par la communauté de bases de données, pour évaluer la qualité des algorithmes de
sélection de structures d’optimisation, proposent des requêtes sous formes SQL et leur description sous
forme de besoins 6
. Ils peuvent donc être directement pris en compte par notre approche.
Finalement toutes les propositions de cette thèse ont été prototypées et testées. Un outil d’aide à l’inté-
gration et l’exploitation des besoins hétérogènes est développé. La partie liée à la conception physique
est prototypée sur OntoDB, une plateforme de bases de données sémantique développée au laboratoire
LIAS. Elle permet de stocker à la fois les données et l’ontologie qui décrit leurs sens.
4 Organisation du mémoire
Cette thèse est structuré en deux parties. La première partie présente les concepts permettant d’élaborer
nos propositions. Vu la pluridisciplinarité de notre domaine d’étude, deux états de l’art sont présentés
: le premier abord les concepts fondamentaux de l’ingénierie des besoins (IB) quant au deuxième,
il décrit les ontologies. Le chapitre 2 vise à faire une présentation succincte permettant d’introduire le
domaine de l’ingénierie des besoins, les problèmes rencontrés lors de leurs expression et de leurs analyse
dans le cas d’une entreprise étendue, notamment les problèmes liés à l’hétérogénéité des vocabulaires
et des langages de modélisation des besoins. Ensuite, nous débattrons un ensemble de travaux que nous
considérons majeurs liés à l’intégration et à l’analyse des besoins. Une synthèse qui nous a permis de
positionner nos travaux par rapport à l’existant que nous présentons par la suite.
Le chapitre 3 décrit un état de l’art portant sur l’utilisation des ontologies dans le domaine de l’IB.
Nous décrivant, dans un premier temps, la notion d’ontologie de domaine, une classification des ontologies
(ontologies linguistiques et ontologies conceptuelles), les langages de définitions des ontologies
langages de modélisation, une formalisation des ontologies conceptuelles. Puis, dans un deuxième temps,
nous présentons les principaux travaux relatifs au couplage entre les ontologies et l’expression et l’analyse
des besoins. Une synthèse sur ces derniers est également présentée.
La deuxième partie de ce mémoire est dédiée aux contributions dans le cadre de l’intégration sémantique
des besoins. Dans le chapitre 4, nous décrivons notre première proposition d’un modèle unifiant à
la fois les vocabulaires et les langages de modélisation des besoins. Pour réaliser l’unification des vocabulaires,
nous proposons une solution dirigée par une ontologie conceptuelle supposée existante. La
présence de cette ontologie permet à l’ensemble des concepteurs d’exprimer leurs besoins en utilisant ses
6. http://www.tpc.org
11Chapitre 1. Introduction générale
concepts et ses propriétés afin d’éviter les conflits syntaxiques et sémantiques. La deuxième unification
est plus difficile que la première, vu la diversité des langages de modélisation des besoins. Pour ce faire,
nous nous sommes appuyés sur une étude de cas comprenant trois langages semi-formels à savoir : Use
case d’UML, un langage orienté but et le modèle de traitements de la Merise. Le choix de ces langages
est justifié par leur usage dans le domaine industriel et académique. Après une analyse des composantes
de chaque langage utilisé, nous proposons leurs modèles génériques. Cette généricité nous a permis de
définir un modèle pivot pour l’ensemble de langages étudiés. Finalement, pour assurer l’interopérabilité
entre l’ensemble des langages, des correspondances entre le méta modèle de chaque langage et le modèle
pivot sont définies. Un couplage entre le modèle pivot et le modèle d’ontologie est alors proposé, ce qui
explicite la sémantique des langages utilisés.
Afin de réduire la complexité des correspondances faites entre le modèle pivot et l’ensemble des
langages de modélisation des besoins, notre deuxième contribution qui fait l’objet du Chapitre 5 consiste
d’abord à fusionner les méta-modèles des langages de modélisation des besoins ensuite d’instancier
chaque langage de modélisation des besoins. De la même façon que dans le chapitre précédent, un couplage
entre le modèle générique et le modèle d’ontologie est établi.
Le chapitre 6 étudie l’impact des besoins sur la conception physique d’un entrepôt de données sémantique.
D’abord nous motivons le besoin de réduire le coûts d’administration d’un entrepôt de données
pour une entreprise étendue. Ensuite, nous formalisons le problème de la conception physique d’une
manière générale, ensuite une instanciation de cette formalisation est donnée pour deux probèmes classiques,
qui sont la sélection des index de jointure binaire et la sélection de schéma de fragmentation
horizontale. Finalement, une approche dirigée par les besoins pour la sélection des deux structures d’optimisation
est proposée et validée.
Le chapitre 7, intitulé "Prototype de validation", propose une implémentation de nos propositions à
travers un outil prototype, nommé OntoReqTool. Celui-ci fournit une aide au concepteur pour intégrer
les besoins hétérogènes et pour les exploiter dans un environnement de stockage de données sémantiques
(ED). Pour intégrer les besoins, nous avons choisi l’éditeur d’ontologie Protégé car il facilite la manipulation
des ontologies et offre la possibilité de faire du raisonnement sur les besoins à l’aide de ses moteurs
d’inférences. Pour exploiter les besoins, nous les avons persistés dans un ED afin de les exploiter dans
la phase physique. L’implémentation a été faite sur la base de données sémantique OntoDB qui a été
développée au sein du laboratoire et dont on avait un accès total au son code et à sa documentation.
Pour conclure ce mémoire de thèse, nous établissons un bilan des contributions apportées et nous
traçons différentes perspectives de recherche qui pourraient être menées ultérieurement.
Ce manuscrit comporte deux annexes. L’annexe A décrit les règles de transformation utilisées dans la
validation des deux premières contributions. L’annexe B fournit les requêtes du banc d’essai Star Schema
Benchmark (SSB) utilisées pour valider la troisième contribution.
124. Organisation du mémoire
Publications
La liste suivante représente les articles publiés dans le cadre de cette thèse.
1. Ilyès BOUKHARI, Ladjel BELLATRECHE, Stéphane JEAN, An Ontological Pivot Model to
Interoperate Heterogeneous User Requirements, Proceedings of the 5th International Symposium
on Leveraging Applications of Formal Methods, Verification and Validation (ISOLA 2012), pp.
344-358, LNCS, Springer, Heraklion, Crete, Greece, October 15-18, 2012.
2. Ilyès BOUKHARI, Ladjel BELLATRECHE, Efficient, Unified, and Intelligent User Requirement
Collection and Analysis in Global Enterprises, Proceedings of the 15th International Conference
on Information Integration and Web-based Applications & Services (iiWAS 2013), ACM, December
2013, Vienna, Austria.
3. Selma KHOURI, Ilyès BOUKHARI, Ladjel BELLATRECHE, Stéphane JEAN, Eric SARDET,
Mickael BARON, Ontology-based structured web data warehouses for sustainable interoperability:
requirement modeling, design methodology and tool, Computers in Industry Journal, Elsevier
(Factor Impact: 1.529), 63(8): 799-812, 2012.
4. Ladjel BELLATRECHE, Selma KHOURI, Ilyès BOUKHARI, Rima BOUCHAKRI, Using Ontologies
and Requirements for Constructing and Optimizing Data Warehouses, Proceedings of the
30th IEEE International Convention MIPRO, pp. 1568 - 1573, Opatija, Croatia, May, 2012.
5. Selma KHOURI, Ladjel BELLATRECHE, Ilyès BOUKHARI, Selma BOUARAR, More Investment
in Conceptual Designers: Think about it!, 15th IEEE International Conference on Computational
Science and Engineering, pp. 88-93, Paphos, Cyprus, December 5-7, 2012.
6. Selma KHOURI, Ladjel BELLATRECHE, Ilyès BOUKHARI, Stéphane JEAN, Amira KERKAD,
Peut-on prévoir le comportement d’un ED dès sa conception ?, submitted to Ingénierie des
Systèmes d’Information Journal.
13Première partie
État de l’art
15Chapitre 2
L’expression des besoins : un état de l’art
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Processus d’ingénierie des Besoins . . . . . . . . . . . . . . . . . . . . . . . . 24
4 Langages de modélisation des besoins . . . . . . . . . . . . . . . . . . . . . . 26
4.1 Langages informels (langage naturel) . . . . . . . . . . . . . . . . . . . . 26
4.2 Langages semi-formels . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Langages formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Approches et méthodes pour l’expression des besoins . . . . . . . . . . . . . . 29
5.1 Approches dirigées par les buts . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.1 GQM : Goal Question Metric . . . . . . . . . . . . . . . . . . 30
5.1.2 KAOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.3 iStar (i*) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 Approches à base de scénarii . . . . . . . . . . . . . . . . . . . . . . . . 33
5.3 Approches basées sur les automates et réseaux de Petri . . . . . . . . . . 35
6 Problématiques liées à l’expression des besoins . . . . . . . . . . . . . . . . . 37
7 État des lieux sur l’intégration et l’analyse des besoins . . . . . . . . . . . . . 37
7.1 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . 37
7.1.1 Exemples d’approches dirigées par des méthodes issues de la
logique mathématique . . . . . . . . . . . . . . . . . . . . . . 37
7.1.2 Approches dirigées par IDM . . . . . . . . . . . . . . . . . . . 38
7.2 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
17Chapitre 2. L’expression des besoins : un état de l’art
Résumé. Ce chapitre fait une présentation succincte introduisant le domaine de l’ingénierie
des besoins. Nous nous intéressons aux problèmes d’expression et d’intégration de besoins
hétérogènes et à leur exploitation dans un entrepôt de données dans le cadre d’une entreprise
étendue, notamment aux problèmes liés à l’hétérogénéité des vocabulaires et des langages
de modélisation de besoins. Ensuite, nous présentons un état de l’art des travaux d’analyse
et d’intégration des besoins. Nous présentons par la suite une synthèse qui nous à permis de
positionner nos travaux par rapport à l’existant.
18Chapitre 2. L’expression des besoins : un état de l’art
1 Introduction
Dans une entreprise étendue, l’utilisation des bases de données avancées comme les entrepôts de
données est importante. Ces entrepôts permettent de stocker d’une manière efficace des données pour
des besoins opérationnels et/ou décisionnels. Le cycle de développement des bases/entrepôts de données
comporte un nombre important de phases impliquant plusieurs acteurs. Huit phases principales
composent ce cycle (figure 2.1) : (a) la collecte et l’analyse des besoins [90, 74, 102], (b) la phase
conceptuelle [35, 93, 118], (c) la phase logique [117], (d) le processus d’extraction, de transformation
et de chargement [106], (e) la phase de déploiement [8], (f) la phase physique [15], (g) la phase de personnalisation
et de recommandation [17, 59] et (h) le tuning [34], chacune impliquant un ensemble de
sous phases. En ce qui concerne les acteurs (parties prenantes), nous avons les collecteurs et les analystes
de besoins, les concepteurs, les administrateurs, les data architects 7
, les data analysts 8
, etc. Notons que
l’ensemble des travaux couvrant ce cycle de vie utilise les besoins des utilisateurs (fonctionnels ou non
fonctionnels). Prenons l’exemple de la méthode de conception francophone Merise, la première tâche à
faire est d’extraire l’ensemble des propriétés/attributs à partir d’un cahier de charge, caractériseront la
couche conceptuelle. Par la suite, chaque entité sera décrite par un sous ensemble de propriétés. Lorsque
nous abordons la conception physique, toutes les structures d’optimisation comme les index, la fragmentation,
etc. sont dirigées par les requêtes qui peuvent être extraites des besoins. Pour personnaliser les
accès à une base de données, nous nous intéressons aux besoins des utilisateurs. Mais la phase de collection
et l’analyse des besoins est souvent négligée dans le processus de conception de bases de données
avancées. Prenons l’exemple de conception des entrepôts de données : dans ses premiers travaux, Inmon
[66] a proposé une méthode de conception dirigée par les sources, mais cette dernière a été critiquée
par Ralph Kimball [80], qui a fait ressortir la nécessité de définir une conception à partir de besoins des
utilisateurs. Sa proposition a été suivie par plusieurs autres études proposant des méthodes de conception
orientées besoins. Récemment, Golfarelli et Rizzi dans leur livre intitulé Data Warehouse Design:
Modern Principles and Methodologies [58] ont insisté sur le rôle des besoins dans la conception et la
réussite des projets d’entreposage de données.
Nous sommes conscients de l’étendue de l’Ingénierie des Besoins (IB) du fait qu’elle couvre un
ensemble de phases (cf. Section 2.3) : élicitation, modélisation, spécification et validation. Nous n’allons
pas proposer de contribution dans chacune de ces phases, mais nous allons considérer l’expression,
l’intégration et l’exploitation des besoins hétérogènes dans le cadre d’une entreprise étendue.
Ce chapitre est organisé comme suit. Dans la section 2, nous présentons quelques définitions de l’IB
nécessaires à la compréhension de nos contributions. Ensuite, dans la section 3, nous situons le processus
d’IB dans les approches traditionnelles de développement des systèmes d’information. Les langages
de modélisation des besoins sont ensuite présentés dans la section 4. La section 5 détaille les principales
approches d’expression et d’analyse des besoins. Dans la section 6, nous présentons les différents
problèmes rencontrés lors de l’expression et de l’analyse des besoins dans le cas d’une entreprise étendue.
Dans la section 7, nous présentons un état de l’art des travaux d’intégration et d’analyse des besoins.
Avant de conclure le chapitre, nous présentons une synthèse qui nous a permis de positionner nos travaux
par rapport à l’existant.
7. http://en.wikipedia.org/wiki/Data_architect
8. http://www.journaldunet.com/solutions/analytics/metier-big-data-data-scientist.shtml
202. Définitions
Phase conceptuelle Phase logique
Processus
d’extraction, de transformation
et chargement
Modèle conceptuel Modèle logique Processus ETL
Phase de déploiement
Phase physique
Modèle physique
Phase de personnalisation
et de recommandation
Phase de tuning
Phase de collection
et d’analyse des besoins
Phase conceptuelle Phase logique
Processus
d’extraction, de transformation
et chargement
Modèle conceptuel Modèle logique Processus ETL
Phase de déploiement
Phase physique
Modèle physique
Phase de personnalisation
et de recommandation
Phase de tuning
Phase de collection
et d’analyse des besoins
Figure 2.1 – Les phases du cycle de vie d’un ED.
2 Définitions
L’Ingénierie des Besoins (IB) est un vaste domaine de recherche s’intéressant principalement aux
approches et techniques visant à améliorer la phase de spécification d’un système informatique. Nous
présentons tout d’abord quelques définitions des concepts importants pour la compréhension de celui-ci.
Parties prenantes : connues en anglais sous le nom stakeholders. Selon l’AFIS (Association Fran-
çaise de l’ingénierie Système) 9
, une partie prenante constitue une partie intéressée par l’utilisation et
l’exploitation du système (voir par ses impacts sur son environnement), mais aussi un agent participant
à sa conception, sa production, son déploiement, sa commercialisation, son maintien en condition opé-
rationnelle et son retrait de service. Les parties prenantes les plus couramment rencontrées sont les :
utilisateurs, concepteurs, développeurs, administrateurs, etc.
Besoin : selon Abran et al. [6], un besoin est une description d’une propriété ou des propriétés du
système qui doivent être remplies. Les besoins sont exprimés en termes de phénomènes du monde réel
ou objets partagés par le système et son environnement, avec un vocabulaire accessible aux utilisateurs
[67]. Souvent, les besoins peuvent être classés dans les deux catégories suivantes.
– Besoins fonctionnels : les besoins fonctionnels spécifient une fonction que le système ou un com-
9. http://www.afis.fr/upload/SDD
21Chapitre 2. L’expression des besoins : un état de l’art
posant du système doit être capable d’exécuter. Les auteurs de cette définition soulignent que le
système peut être vu comme un ensemble de composants.
Exemple 1
Dans un établissement, un système doit permettre à la scolarité de vérifier les moyennes des étudiants
qui ont obtenu le master informatique.
– Besoins non fonctionnels : un besoin non fonctionnel est défini par un attribut ou une contrainte
du système comme la flexibilité, la performance, la sécurité, etc. qui ne porte pas sur la fonction
de ce système.
Exemple 2
Le système doit permettre aux étudiants de ne voir uniquement que leurs propres moyennes.
L’Ingénierie des Besoins (IB) : dans le cadre des systèmes d’information, elle est définie par Rolland
comme l’activité qui transforme une idée floue en une spécification précise des besoins, souhaits et
exigences exprimés par une communauté d’usagers et donc qui définit la relation existante entre un
système et son environnement [102]. Van Lamsweerde [120] définit trois objectifs de l’ingénierie des
besoins: (1) l’identification des buts que le système envisagé doit accomplir, (2) l’opérationnalisation de
ces buts sous forme de fonctions et de contraintes et (3) l’assignation des fonctionnalités aux agents.
Modèle : une abstraction d’un système conçu sous la forme d’un ensemble de faits construits selon
une intention particulière. Il doit pouvoir être utilisé pour répondre à des questions sur le système étudié.
Dans le domaine de l’IB, les rôles des modèles sont multiples car ils sont utilisés durant tout le
processus de l’ingénierie des besoins. Les modèles peuvent être utilisés pour capturer et formaliser les
besoins des utilisateurs. Ils peuvent ainsi intégrer et vérifier les besoins.
Méta-modèle : selon la définition du MOF (Meta Object Facility) 10, un méta-modèle définit la structure
que doit avoir tout modèle conforme à ce méta-modèle. On dit qu’un modèle est conforme à un
méta-modèle si l’ensemble des éléments qui constituent le modèle est défini par le méta-modèle. Par
exemple, le méta-modèle UML définit que les modèles UML contiennent des packages, leurs packages
des classes, leurs classes des attributs et des opérations, etc.
Méta-méta-modèle : un méta-méta-modèle est un modèle qui décrit des langages de méta-modélisation.
Autrement dit, le méta-méta-modèle contient les éléments de modélisation nécessaires à la définition des
langages de modélisation et il a également la capacité de se décrire lui-même.
Langage de modélisation : il sert à décrire un système général ou spécifique à un domaine et/ou un
contexte par ses composants et leurs relations. Il est défini par une syntaxe abstraite, une sémantique et
une syntaxe concrète. La syntaxe abstraite définit les concepts de base du langage. La sémantique définit
comment les concepts du langage doivent être interprétés par l’homme ou par les machines [64]. Chaque
modèle est construit en utilisant un formalisme de modélisation, c’est à dire un langage.
Dans le domaine de l’IB, chaque modèle est construit en utilisant un langage de modélisation des
besoins. La modélisation des besoins peut suivre un principe de méta-modélisation à plusieurs niveaux
d’abstraction. La figure 2.2 illustre ce principe en se basant sur l’architecure à 4 niveaux définie par le
MOF. Le nivaux (M0) décrit les objets du monde réel (instances). Dans notre exemple, portant sur le
10. http://www.omg.org/mof/
222. Définitions
M0
M1
M2
M3
Le monde réel
Modèle
Méta-modèle
Méta-métamodèle
Code : SQL,
etc.
Modèle UML, etc.
UML, SPEM, MERISE
Goal, etc.
MOF
Étudiant,
Age,
Adresse.
Anne,
22,
Poitiers.
Classe,
Méthode,
Attribut.
Entité,
Relation,
Paquetage.
M0
M1
M2
M3
Le monde réel
Modèle
Méta-modèle
Méta-métamodèle
Code : SQL,
etc.
Modèle UML, etc.
UML, SPEM, MERISE
Goal, etc.
MOF
Étudiant,
Age,
Adresse.
Anne,
22,
Poitiers.
Classe,
Méthode,
Attribut.
Entité,
Relation,
Paquetage.
Figure 2.2 – Exemple de métamodèlisation.
domaine universitaire, un objet pourrait être un étudiant particulier (dans notre exemple, Anne, 22 ans,
Poitiers). Le niveau (M1) décrit le modèle utilisé pour définir les objets. Dans notre exemple, une classe
Étudiant permet d’indiquer que les étudiants sont caractérisés par un âge et une adresse. Le niveau
(M2) contient les primitives permettant de définir un modèle. Dans notre exemple, ce niveau contient
les primitives Classe, Méthode et Attribut pour pouvoir définir la classe Étudiant. Enfin, le niveau (M3)
contient le méta-méta-modèle. Celui-ci est réflexif (il se décrit lui-même) et permet de définir différents
langages de modélisation au niveau (M3).
Transformation de modèles : une transformation de modèle est une fonction, Φ : S → T, telle que:
Φ prend en entrée un ensemble de modèles source S , et produit en sortie un ensemble de modèles cible
T. S et T sont des modèles conformes aux deux ensembles de méta-modèles. Si les deux ensembles
de méta-modèles sont identiques, la transformation de modèle Φ est appelé (transformation endogène),
autrement on l’appelle (transformation exogène).
Il existe de nombreux critères de classification liés à la transformation de modèles [41, 108]. Dans
notre travail, nous nous intéressons à deux types d’approches de transformation de modèles :
– modèle à modèle (model-to-model, M2M) : ce type de transformation permet de produire des
modèles conformes aux méta-modèles cibles. ATL 11 (Atlas Transformation Language) et QVT 12
(Query-View-Transformation)sont parmi les langages de transformation assurant la transformation
model-to-model.
– modèle à texte (model-to-text, M2T) : ce type de transformation permet d’obtenir des modèles
cibles qui consistent essentiellement en chaînes de caractères. Généralement, la transformation
model-to-text est utilisé pour effectuer la génération de code, comme la transformation de modèles
11. http://www.eclipse.org/atl/
12. http://www.omg.org/spec/QVT/
23Chapitre 2. L’expression des besoins : un état de l’art
UML à un programme Java. Acceleo 13 et Xpand 14 sont des exemples de langages assurant la
transformation model-to-text.
3 Processus d’ingénierie des Besoins
Généralement, un processus d’IB comporte plusieurs étapes consistant à découvrir, analyser, valider
et faire évoluer l’ensemble des besoins relatifs aux fonctionnalités du système. Selon Nuseibeh et Easterbrook
[95], un processus d’IB inclut les étapes suivantes : élicitation, modélisation, analyse, validation
et gestion des besoins (figure 2.3). Ces étapes sont détaillées dans ce qui suit.
• Vérification de la version finale du
document des besoins par des
experts de domaine
• Identification des besoins.
• Modélisation des besoins: (Informels,
Semi-Formels, Formels)
• Assurance d’une bonne spécification de
besoins: (cohérents, non ambiguës,
complètes, vérifiables, etc.)
• Suivi de l'évolution ou le changement
des besoins.
• Identification des parties prenantes.
• Spécification des besoins: (Fonctionnels, Non
fonctionnels)
• Maintien la traçabilité des besoins
• Contrôle des différentes versions
de ces besoins
Élicitation
Modélisation
Analyse
Validation
G
e
s
t
i
o
n
• Vérification de la version finale du
document des besoins par des
experts de domaine
• Identification des besoins.
• Modélisation des besoins: (Informels,
Semi-Formels, Formels)
• Assurance d’une bonne spécification de
besoins: (cohérents, non ambiguës,
complètes, vérifiables, etc.)
• Suivi de l'évolution ou le changement
des besoins.
• Identification des parties prenantes.
• Spécification des besoins: (Fonctionnels, Non
fonctionnels)
• Maintien la traçabilité des besoins
• Contrôle des différentes versions
de ces besoins
Élicitation
Modélisation
Analyse
Validation
G
e
s
t
i
o
n
Figure 2.3 – Processus d’ingénierie des besoins.
1. Phase d’élicitation des besoins : dans un processus d’IB, la première étape est l’élicitation des
besoins. Elle consiste à collecter, capturer, découvrir et développer les besoins à partir des sources
variées (utilisateurs, concepteurs, etc.). L’élicitation des besoins repose sur deux tâches principales
: (i) l’identification des parties prenantes et (ii) l’identification des besoins. La première
tâche consiste à identifier l’ensemble des personnes ou des groupes qui sont mis en relation avec le
système au cours de son cycle de développement. Parmi les parties prenantes nous pouvons citer :
le décideur, le concepteur, le développeur, l’administrateur, l’utilisateur final, etc. La deuxième
tâche est l’identification des besoins dans laquelle de nombreuses techniques, méthodes et approches
peuvent être utilisées pour étudier en détail les besoins des différentes parties prenantes.
Dans cette thèse, nous avons supposé que la phase d’élicitation est déjà réalisée.
13. http://www.acceleo.org/pages/accueil/fr
14. http://www.eclipse.org/modeling/m2t/?project=xpand
243. Processus d’ingénierie des Besoins
2. Phase de modélisation des besoins : la modélisation est une abstraction du problème par différentes
représentations. Elle consiste en la construction d’une description et d’une représentation
abstraite d’un système pour les besoins de l’interprétation [95]. La modélisation des besoins
consiste à détailler et structurer les besoins en utilisant différents types de langages de modélisation
(informels, semi-formels et formels) que nous détaillons dans la section 4 de ce chapitre.
3. Phase d’analyse des besoins : cette phase consiste à analyser la compréhension des besoins élicités
et vérifier leur qualité en termes d’exactitude, de complétude, de clarté et de consistance. Le but
de cette phase est de clarifier les besoins, de supprimer les incohérences et d’assurer la complétude
et la non redondance.
La norme IEEE 830-1998 15 relative à la spécification des besoins liste huit principales caractéristiques
que toute spécification des besoins doit assurer. Celle-ci doit être correcte, sans ambiguïté,
complète, consistante, stable, vérifiable, modifiable et traçable. Nous détaillons ces caractéristiques
ci-après :
– Spécification correcte : la spécification doit être comparée à toute spécification de niveau supérieur
(comme la spécification des besoins de l’ensemble du système), ainsi qu’avec d’autres
normes applicables, afin de s’assurer que la spécification est correcte. Alternativement, le client
ou l’utilisateur peut déterminer si la spécification reflète correctement leurs besoins réels. La
traçabilité des besoins rend cette procédure plus facile et moins sujette à l’erreur.
– Spécification sans ambiguïté : une spécification est sans ambiguïté si, et seulement si, toutes les
exigences qui y sont énoncées ne possèdent qu’une seule interprétation.
– Spécification complète : une spécification est complète si, et seulement si, elle vérifie les critères
suivants.
– Toutes les exigences importantes sont exprimées, qu’il s’agisse de fonctionnalités, de performances,
de contraintes de conception, d’attributs, ou d’interfaces externes.
– La spécification permet la définition des réponses du logiciel pour toutes les données d’entrée.
– La spécification comprend une définition de tous les labels, références, figures, tableaux et
illustrations qui y figurent, ainsi que la définition de tous les termes et unités de mesure
utilisées.
– Spécification consistante/ cohérence : une spécification est cohérente si, et seulement si, aucun
sous-ensemble des exigences individuelles décrites ne présente un conflit.
– Spécification stable : une spécification est dite stable et triée (classée) par importance si chaque
besoin a un identifiant qui indique son rang d’importance ou sa stabilité.
– Spécification vérifiable : une spécification est vérifiable si, et seulement si, toutes les exigences
énoncées sont vérifiables. Une exigence est vérifiable si, et seulement s’il existe un processus
avec lequel une personne ou une machine peut vérifier que le produit logiciel répond à cette
exigence. En général, toute exigence ambiguë et non quantifiable n’est pas vérifiable.
– Spécification modifiable : une spécification est modifiable si, et seulement si, sa structure et son
style sont construits de telle sorte que, toute modification des exigences peut être facilement et
complètement mise en oeuvre.
– Spécification traçable : une spécification est traçable si chacune de ces exigences est claire et
si la spécification facilite le référencement de chaque exigence dans le développement futur du
système ou dans sa documentation.
15. http://www.math.uaa.alaska.edu/∼afkjm/cs401/IEEE830.pdf
25Chapitre 2. L’expression des besoins : un état de l’art
La spécification consiste à établir la liste finale des besoins en les organisant suivant des catégories
fonctionnels et non fonctionnels. La sortie de la phase de spécification est la première version du
cahier des charges.
4. Phase de validation des besoins : l’objectif de cette phase est la confirmation de la qualité des
besoins et de leur conformité aux attentes des parties prenantes. Selon la norme EIA-632 16, la
validation est focalisée sur la vérification de la version finale du document des besoins pour dé-
tecter les conflits, les omissions et les déviations par rapport aux normes. La validation cherche à
certifier que les besoins satisfont les attentes des parties prenantes et à assurer qu’elles définissent
les fonctionnalités attendues du système. En cas de conflits, une négociation est envisagée pour
amener les parties prenantes à un accord.
5. Phase de gestion des besoins : cette phase consiste à suivre l’évolution ou le changement des
besoins, ainsi qu’à faire la traçabilité et le contrôle des différentes versions de ces besoins [126].
La traçabilité permet d’identifier l’origine des besoins ainsi que tous leurs liens internes ou les
liens avec le reste du projet ou le contexte (réalisation, tests, etc.).
Dans le processus, décrit précédemment, nous remarquons que la modélisation et l’expression des
besoins joue un rôle crucial dans le développement de projets. Aussi, nous détaillons, dans la section
suivante, les différents langages de modélisation des besoins utilisés.
4 Langages de modélisation des besoins
Nous présentons dans ce qui suit une classification en trois catégories des langages de modélisation
des besoins suivie par une analyse qui nous a permis de les comparer.
4.1 Langages informels (langage naturel)
Il s’agit de langages construits en langue naturelle avec ou sans règles de structuration. Parmi les
méthodes reposant sur ce type de langages, nous pouvons citer le questionnaire, l’interview et le cahier
des charges. L’avantage principal de l’utilisation des langages informels est sa facilité apparente de
compréhension qui offre une manière familière de communiquer entre les parties prenantes du système.
Le deuxième avantage est le faible coût de formation nécessaire pour savoir définir un besoin. L’utilisation
d’un langage informel ne demande aucune formation particulière et les restrictions imposées par
son utilisation nécessitent simplement la compréhension des règles de rédaction à suivre. Généralement,
l’utilisation des langages informels dans l’expression des besoins induit souvent des besoins incohérents
et ambigüs car ni leurs syntaxes, ni leur sémantique ne sont parfaitement définies. Ces besoins peuvent
mener à une mauvaise compréhension du système. Ainsi il peut exister un décalage entre les besoins de
l’utilisateur et ceux compris par les concepteurs ou un malentendu entre concepteurs et développeurs.
Dans ce cas, le système obtenu ne correspond pas aux attentes du l’utilisateur. La figure (2.4) présente
un besoin modélisé par un langage informel (langage naturel).
16. Electronic Industries Alliance. EIA-632: Processes for systems engineering. ANSI/EIA-632-1998 Approved: January 7,
1999.
264. Langages de modélisation des besoins
Besoin fonctionnel
Le système doit permettre au service de scolarité de vérifier les
moyennes des étudiants qui ont obtenu le master de recherche. Le
système doit d’abord calculer la moyenne de l’étudiant. Si la
moyenne est supérieure ou égal 10 sur 20, le système imprime
l'attestation de réussite au master de recherche. …
Besoin fonctionnel
Le système doit permettre au service de scolarité de vérifier les
moyennes des étudiants qui ont obtenu le master de recherche. Le
système doit d’abord calculer la moyenne de l’étudiant. Si la
moyenne est supérieure ou égal 10 sur 20, le système imprime
l'attestation de réussite au master de recherche. …
Figure 2.4 – Un besoin modélisé par un langage naturel.
4.2 Langages semi-formels
Les langages semi-formels sont les plus couramment utilisés dans la phase de modélisation des besoins.
Ils sont généralement basés sur des notations graphiques avec une syntaxe précise. Le caractère
graphique de ces langages est utile pour les échanges entre les différents acteurs du système. Parmi
ces langages nous citons la modélisation UML (Unified Modeling Language) [23]. Les langages semiformels
aident à élaborer et à structurer les besoins des utilisateurs sous forme de diagrammes. Les notations
graphiques permettent d’avoir une vision claire et abstraite du système. Les concepteurs peuvent
les utiliser pour mieux comprendre les besoins et soumettre leurs propositions aux utilisateurs. En bref,
l’utilisation des langages semi-formels offre une vue synthétique, structurante et intuitive du système.
Un des inconvénients des langages semi-formels est le manque de sémantique précise des besoins. Ce
dernier peut conduire à des besoins ambigüs et incohérents. La figure (2.5) présente un besoin modélisé
par un langage semi-formel (modèle des cas d’utilisation d’UML).
vérifier les moyennes des étudiants qui
ont obtenu le master de recherche
Scolarité
Calculer la moyenne
Imprimer l'attestation de réussite
Extension Points: Imprimer attestation
Condition: si moyenne > = 10
Extension Point: Imprimer attestation
« Extend »
« Include »
vérifier les moyennes des étudiants qui
ont obtenu le master de recherche
Scolarité
Calculer la moyenne
Imprimer l'attestation de réussite
Extension Points: Imprimer attestation
Condition: si moyenne > = 10
Extension Point: Imprimer attestation
« Extend »
« Include »
Figure 2.5 – Un besoin modélisé par un langage semi-formel (Cas d’utilisation).
4.3 Langages formels
Parmi les recommandations de Edmund Melson Clarke, Jr. dans son article intitulé Formal Methods:
State of the Art and Future Directions est l’utilisation des méthodes formelles dans l’analyse des besoins
27Chapitre 2. L’expression des besoins : un état de l’art
utilisateurs [88]. Les langages formels sont basés sur des notations mathématiques avec une syntaxe et
une sémantique précise. Nous pouvons citer le langage B [7] et le langage Z [113]. Les langages formels
ont donc été proposés afin d’exprimer les besoins par un formalisme rigoureux permettant de définir correctement
les termes employés pour limiter les incompréhensions entre les parties prenantes du système.
Ainsi, ils permettent de faciliter la vérification et le raisonnement sur les besoins. Malgré ces quelques
avantages certains, il existe des inconvénients avérés tels que le coût et l’effort demandés pour former
le plus de personnes possible aux langages formels. Un besoin modélisé par un langage formel Event-B
(Méthode B) est présenté comme suit :
MACHINE CALCUL-MOYEN
SEES ETUDIANT
VARIABLES
etudiants
moyenne
etudiants_admis
INVARIANTS
inv1 : etudiants ⊆ ETUDIANT S
inv2 : etudiants_admis ⊆ etudiants
inv3 : moyenne ∈ etudiants −→ N
inv4 : ∀x(x ∈ etudiants_admis =⇒ moyenne(x) ≥ 10)
EVENTS
Initialisation
begin
act1 : etudiants : = φ
act2 : etudiants_admis : = φ
act3 : moyenne : = φ
end
Event calcul_moyenne '
any
x
m
where
grd1 : x ∈ etudiantsetudiants_admis
grd2 : m ∈ N
then
act1 : moyenne(x): = m
end
Event admis '
any
x
where
grd1 : x ∈ etudiantsetudiants_admis
grd2 : moyenne(x) ≥ 10
285. Approches et méthodes pour l’expression des besoins
then
act1 : etudiants_admis: = etudiants_admis ∪ {x}
end
END
CONTEXT ETUDIANT
SETS ETUDIANTS
END
Cette présentation de différents langages de modélisation des besoins nous montre la complémentarité
des trois classes de langages. Notons que certains langages de modélisation des besoins offrent des
outils graphiques qui facilitent la visualisation de l’ensemble de besoins, comme les cas d’UML, chose
nécessaire dans le contexte d’une entreprise étendue.
Pour que les concepteurs mènent bien leurs travaux, des méthodes et des outils d’expression de
besoins ont été proposés. Dans la section suivante, nous présentons quelques méthodes accompagnées
par des outils graphiques.
5 Approches et méthodes pour l’expression des besoins
La littérature propose plusieurs approches et méthodes pour l’expression des besoins des utilisateurs.
Nous pouvons citer : les approches dirigées par les buts, les approches à base de scénarios, les approches
(Problem frames) schéma de problème, les approches basées sur des automates et réseaux de Petri [52]
(le cas du modèle de traitement de la méthodologie MERISE), l’approche L’Ecritoire, etc.. Dans ce qui
suit, nous présentons brièvement les approches les plus pertinentes par rapport à notre travail, et pour
chacune d’entre elles nous explicitons l’angle sous lequel elle étudie le système.
5.1 Approches dirigées par les buts
L’approche orientée but doit sa naissance à Yue [131]. Elle s’intéresse à l’utilisation des buts pour
le recueil, l’analyse, la validation et la gestion des besoins. Comme le définit Lamsweerde [119], "un
but est un objectif que le système considéré doit atteindre". Il peut donc être fonctionnel (décrit un
service fourni), ou non fonctionnel (détermine la qualité de service). Dans la plupart des cas, les buts sont
généralement fixés implicitement par les participants dans l’analyse préliminaire des besoins. D’autres
buts peuvent être obtenus par raffinement, abstraction, etc [36]. Le but est constitué de composants actifs
comme des humains, outils ou du logiciel, qu’on nomme " agents " ou " acteurs ". Un but peut faire
intervenir plusieurs acteurs, et il est souvent stable à long terme. D’une manière générale, les approches
dirigées par les buts offrent des mécanismes pour l’identification, l’organisation et la gestion des besoins.
Ainsi elles proposent des mécanismes pour le raisonnement sur les besoins des utilisateurs.
Les approches orientées buts ont montré leur utilité et leur importance dans nombre d’activités de
l’IB [103], [131], [107], [129], [104], [120], [100], entre autres :
– Vérifier la complétude de la spécification des besoins : les buts fournis un critère de mesure de
la complétude d’une spécification de besoins; celle-ci est complète si l’on montre que l’ensemble
29Chapitre 2. L’expression des besoins : un état de l’art
des buts peut être satisfait par l’ensemble des besoins de la spécification.
– Expliquer les besoins aux parties prenantes du processus d’IB : les buts notamment de haut niveau
fournissent les raisons du développement du système. Un besoin n’existe que s’il y a un but qui
justifie sa présence dans la spécification.
– Explorer des alternatives de conception : le système à développer peut fonctionner et interagir avec
son environnement de multiples façons ; le mécanisme de réduction des buts et le graphe ET/OU
qui en résulte aide les ingénieurs d’IB à expliciter de nombreuses alternatives et à raisonner pour
déterminer celle qui semble la mieux appropriée à la situation du projet.
– Structurer la collection des besoins : le mécanisme de réduction des buts y contribue.
– Etablir les liens de traçabilité : le graphe de réduction des buts est un moyen d’établir les liens
qualifiés de pré-traçabilité. On sait combien ces liens qui assurent la relation entre les objectifs
organisationnels et les besoins à l’égard du système sont utiles pour propager un changement des
premiers vers les seconds.
– Identifier et gérer les conflits : les différents acteurs du processus d’IB apportent des points de vue
intéressants sur le système à développer; on sait que ces points de vue peuvent être divergents et
générer des conflits. Les buts aident l’explicitation des conflits et à leurs résolution.
Différentes modèles suivent l’approches orientées buts : GQM [123], i* framework [129, 130], KAOS
[43], TROPOS [28]. Nous présentons dans ce qui suit les modèles que nous considérons comme étant les
plus représentatifs de cette approche. Ces modèles seront utilisés par la suite pour construire le modèle
orienté but d’expression des besoins que nous proposons.
5.1.1 GQM : Goal Question Metric
Selon Basili [123]. GQM représente une approche systématique pour établir des Buts en accord avec
les besoins spécifiques d’une organisation, pour les définir d’une manière opérationnelle et traitable en
les raffinant en un ensemble de questions qui à leur tour impliquent un ensemble de métriques spécifiques
et de données à collecter. Cette approche propose trois niveaux d’abstraction.
1. Niveau conceptuel (Goal) : Selon GQM, un but est défini de la manière suivante : un but est
défini pour un objet, pour plusieurs raisons, par rapport à plusieurs modèles de qualité, depuis
plusieurs points de vue et est relatif à un environnement particulier. Ex. Améliorer la qualité de
l’enseignement des cours de base de données selon le directeur de l’université.
– Objet d’étude : (Qualité d’enseignement): représente la partie de la réalité qui est observée et
étudiée.
– Raisons : (Améliorer): représente les motivations (les raisons) de l’étude de l’objet.
– Modèles de qualité : (Base de données): représente les caractéristiques de l’objet qui sont considérées
dans l’étude.
– Points de vue : (Directeur de l’université): représente la personne ou le groupe de personnes
intéressé par l’étude de l’objet.
– Environnement : (Université): représente le contexte d’application où l’étude est réalisée.
2. Niveau opérationnel (Question) : un ensemble de questions est utilisé pour caractériser la façon
d’évaluer un but spécifique. Le rôle d’une question est d’essayer de caractériser un objet à mesurer
et essayer de déterminer sa qualité par rapport à un point de vue précis. Ex. Est ce que le créneau
305. Approches et méthodes pour l’expression des besoins
Goal 1 Goal 2 Goal n
Question 1 Question 2 Question 3 Question 4 Question 5 Question n
Metric 1 Metric 2 Metric 3 Metric 4 Metric 5 Metric n
Niveau conceptuel
Niveau opérationnel
Niveau quantitatif
Améliorer la qualité de l'enseignement des cours de
base de données selon le directeur de l'université.
Est-ce que le créneau horaire de cours convient aux
étudiants ?
Le nombre d'étudiants inscrits au cours.
Exemple Goal
Question
Metric
Goal 1 Goal 2 Goal n
Question 1 Question 2 Question 3 Question 4 Question 5 Question n
Metric 1 Metric 2 Metric 3 Metric 4 Metric 5 Metric n
Niveau conceptuel
Niveau opérationnel
Niveau quantitatif
Améliorer la qualité de l'enseignement des cours de
base de données selon le directeur de l'université.
Est-ce que le créneau horaire de cours convient aux
étudiants ?
Le nombre d'étudiants inscrits au cours.
Exemple Goal
Question
Metric
Figure 2.6 – Approche GQM (Goal Question Metric).
horaire de cours convient aux étudiants ?
3. Niveau quantitatif (Metric) : Un ensemble de données est associé à chaque question pour lui
apporter une réponse dans un but quantitatif. La métrique est constituée d’une manière quantitative
pour répondre à une question spécifique. Ex. Le nombre d’étudiants inscrits au cours.
La figure2.6 présente la structure hiérarchique du l’approche GQM. Cette structure commence par
déterminer un but spécifique, ensuite raffine le but en un ensemble de questions et chaque question
est raffinée à son tour en plusieurs métriques. Une même métrique peut être utilisée pour répondre à
différentes questions pour un même but.
5.1.2 KAOS
KAOS est une méthodologie d’ingénierie des besoins dirigée par les buts, et signifie Keep All Objects
Satisfied [43]. Le concept principal dans KAOS est le concept de But, dont la satisfaction nécessite
la coopération d’agents pour configurer le système. Les buts sont liés entre eux par des relations de
décomposition AND/OR. KAOS fournit quatre modèles.
– Le modèle central est le modèle de buts qui décrit les buts du système et de son environnement. Ce
modèle est organisé dans une hiérarchie obtenue grâce au raffinement de buts de plus haut niveau
(les buts stratégiques) vers des buts de bas niveau (les exigences).
31Chapitre 2. L’expression des besoins : un état de l’art
– Le modèle objet : il permet de décrire le vocabulaire du domaine. Il est représenté par un diagramme
de classes UML.
– Le modèle des responsabilités : il permet d’assigner les exigences (les buts feuilles) aux différents
agents. Ces agents appartiennent au système à construire (agents internes) ou à son environnement
(agents externes).
– Le modèle des opérations : il représente les opérations du système en termes de leurs caractéristiques
individuelles et de leurs liaisons avec les modèles de buts (liens d’opérationnalisation des
exigences), objets (liens d’entrée-sortie) et responsabilités (liens d’exécution).
– Le modèle des comportements : il résume tous les comportements que les agents doivent accomplir
pour satisfaire les besoins. Ces comportements sont exprimés sous la forme d’opérations exécutées
par les agents responsables.
La figure 2.7 illustre un exemple de modèle de but selon KAOS. Le principal but qualité d’un article
de publication est décomposé en plusieurs sous buts qui doivent tous être satisfaits pour satisfaire le but
principal comme : la définition du comité de programme, la réception des articles, la lecture des articles,
la sélection des articles acceptés et l’édition finale. Les buts qui sont des feuilles dans le graphe de but
sont appelés des pré-requis. Ces derniers sont rendus opérationnels par des actions.
Quality Papers
Publication
Program Committee
Definition Papers Received Papers Reviewed Final Edition Accepted Papers
Selection
Review Form
Definition
Papers Reviewers
Selection
Review Proposal
Sending
Papers
Registration
Papers Submitted
In a Format
Papers with
quality
Review Proposal
Accepted
Author
Submissions Control-Chair
Papers with
quality
Review Proposal
Refused
AND Refining Goal
OR Refining
Conflict
Expectation
Responsibility
Agent
Requirement
Assignment/Task
Reviewer
Quality Papers
Publication
Program Committee
Definition Papers Received Papers Reviewed Final Edition Accepted Papers
Selection
Review Form
Definition
Papers Reviewers
Selection
Review Proposal
Sending
Papers
Registration
Papers Submitted
In a Format
Papers with
quality
Review Proposal
Accepted
Author
Submissions Control-Chair
Papers with
quality
Review Proposal
Refused
AND Refining Goal
OR Refining
Conflict
Expectation
Responsibility
Agent
Requirement
Assignment/Task
Reviewer
Figure 2.7 – Exemple d’un modèle orienté buts KAOS [13].
325. Approches et méthodes pour l’expression des besoins
5.1.3 iStar (i*)
iStar (i*) acronyme de ’Intentional STratégic Actor Relationships’ est un framework de modélisation
standardisé proposé par Eric Yu [129],[130] traitant la phase initiale d’analyse des besoins. Le framework
i* distingue les deux phases suivantes dans l’IB.
– Phase initiale : elle vise à analyser et à modéliser les intérêts des utilisateurs et la manière de les
intégrer dans différents systèmes et environnements.
– Phase finale: elle se concentre principalement sur la complétude, la consistance et la vérification
automatique des besoins.
i* est fondée sur les sept concepts suivants.
– Acteur : un acteur représente un agent physique (par exemple une personne, un animal, une voiture)
ou un agent logiciel.
– But : un but représente un intérêt stratégique d’un acteur. i* distingue les buts fonctionnels (hardgoals
ou goals) des buts non-fonctionnels (soft-goals). Les soft-goals sont utilisés pour modéliser
des qualités du logiciel, tels que la sécurité, la performance et la maintenabilité.
– Croyance : les croyances sont utilisées pour représenter les connaissances de chaque acteur sur le
monde (l’environnement).
– Plan (Task) : un plan représente une manière ou un ensemble d’actions à réaliser pour satisfaire un
but.
– Ressource : une ressource représente une entité physique ou informationnelle recherchée par un
acteur et fournie par un autre acteur.
– Capacité : la capacité représente l’aptitude d’un acteur à définir, choisir et exécuter un plan pour
réaliser un but, dans un environnement donné.
– Dépendance: une dépendance entre deux acteurs indique qu’un acteur dépend d’un autre acteur
pour atteindre un but, exécuter un plan ou délivrer une ressource.
Un exemple (une instance du méta-modèle) d’un modèle iStar est présenté dans la figure 2.8. Le but
principal de l’acteur Auteur est la publication de son article ( Article be Published). Ce but est accompli
par la tâche soumettre l’article ( Submit article in conference). Cette tâche est accomplie par deux
sous-buts article à soumettre ( Article be Submitted) et version finale à transmettre(Camera Ready Be
Transmitted). Les autres nœuds représentent les buts et les tâches nécessaires pour accomplir ces deux
sous buts.
5.2 Approches à base de scénarii
Dans les approches à base de scénarii, les besoins sont décrits à l’aide de scénarii visant à la compréhension
du système par les participants. Les événements de scénarii sont des interactions entre l’utilisateur
et le système. Un scénario peut être défini comme l’ordre des actions ou des événements pour un
cas spécifique d’une certaine tâche générique qu’un système doit accomplir [105]. Il permet de capturer
des scènes, des descriptions narratives du contexte et du fonctionnement du système, des cas d’utilisation
et des exemples de comportement d’utilisateur. Les scénarios sont exprimés dans différents langages :
informels (langage naturel), semi-formels (diagramme des cas d’utilisation (UML), tableaux, etc.) ou
formels (langages basés sur des grammaires régulières, diagrammes d’états, etc.). Nous nous sommes
intéressés plus particulièrement aux diagrammes des cas d’utilisation. Rappelons qu’il existe des outils
33Chapitre 2. L’expression des besoins : un état de l’art
Article be Published Author
Submit article in
conference
Article be Submitted
Prepare Camera
Ready
Send Camera
Ready Obtain Reviews
Submit Article
Article
Obtain Reviews
Send Inf Article
Author
Send Article
Camera Ready
Be Transmitted
Effortless
[submission]
Security
[submission]
Hurt
Goal
Task
Resource
Soft-Goal
Task-Decomposition
link
Means-ends link
Actor
Contribution to
softgoals
Actor Boundary
Legend
Article be Published Author
Submit article in
conference
Article be Submitted
Prepare Camera
Ready
Send Camera
Ready Obtain Reviews
Submit Article
Article
Obtain Reviews
Send Inf Article
Author
Send Article
Camera Ready
Be Transmitted
Effortless
[submission]
Security
[submission]
Hurt
Goal
Task
Resource
Soft-Goal
Task-Decomposition
link
Means-ends link
Actor
Contribution to
softgoals
Actor Boundary
Legend
Figure 2.8 – Exemple d’un modèle orienté buts iStar (i*) [13].
comme Rational Rose 17 qui offrent des visualisations graphiques.
Un cas d’utilisation est un moyen pour décrire les exigences fonctionnelles d’un système. D’après
Jacobson et al, un cas d’utilisation est une description d’un ensemble de séquences d’actions, incluant
des variantes, qu’un système effectue pour fournir un résultat observable et ayant une valeur pour un
acteur[68]. Chaque cas d’utilisation contient un ou plusieurs scénarii qui définissent comment le système
devrait interagir avec les utilisateurs (appelés acteurs) pour atteindre un but ou une fonction spécifique
d’un travail. Un acteur d’un cas d’utilisation peut être un humain ou un autre système externe à celui
que l’on tente de définir. Pour clarifier le diagramme, UML permet d’établir des relations entre les cas
d’utilisation. Il existe principalement deux types de relations : les relations de dépendances (Inclusion,
Extension) et la généralisation/spécialisation.
– La relation d’inclusion : un cas A est inclus dans un cas B si le comportement décrit par le cas A
est inclus dans le comportement du cas B : on dit alors que le cas B dépend de A. Par exemple,
l’accès aux informations des étudiants inclut nécessairement une phase d’authentification avec un
mot de passe (figure 2.9). Les inclusions permettent aussi de décomposer un cas complexe en
sous-cas plus simples.
– La relation d’extension : si le comportement de B peut être étendu par le comportement de A,
on dit alors que A étend B. Une extension est souvent soumise à condition. Graphiquement, la
17. http://www-03.ibm.com/software/products/fr/enterprise/
345. Approches et méthodes pour l’expression des besoins
Gérer les étudiants
Accéder aux informations des étudiants
Scolarité
Calculer la moyenne
Admettre des étudiants
Extension Points: exécuter les actions d’admission
Condition: si moyenne > = 10
Extension Point: exécuter les actions
de l’admission « Extend »
« Includes »
Cas d’utilisation
Ajouter des étudiants Supprimer des étudiants
S'authentifier
Gérer les étudiants
Accéder aux informations des étudiants
Scolarité
Calculer la moyenne
Admettre des étudiants
Extension Points: exécuter les actions d’admission
Condition: si moyenne > = 10
Extension Point: exécuter les actions
de l’admission « Extend »
« Includes »
Cas d’utilisation
Ajouter des étudiants Supprimer des étudiants
S'authentifier
Figure 2.9 – Diagramme des cas d’utilisation (Use case).
condition est exprimée sous la forme d’une note. La figure 2.9 présente l’exemple d’une scolarité
où l’admission d’un étudiant n’intervient que si sa moyenne obtenue est supérieure ou égale 10
sur 20.
– La relation de généralisation : un cas A est une généralisation d’un cas B si B est un cas particulier
de A. Pour la figure2.9, Ajouter un étudiant est un cas particulier Gérer les étudiants. La relation
de généralisation/spécialisation existe dans la plupart des diagrammes UML et elle est interprétée
par le concept d’héritage dans les langages orientés objet.
5.3 Approches basées sur les automates et réseaux de Petri
Dans cette section, nous nous concentrons que sur le modèle de traitements de méthodologie Merise
[101] qui représente un bon exemple de méthode d’expression de besoins avec un réseau de Petri. Rappelons
que Merise est un produit français, développé à l’initiative du Ministère de l’industrie en 1977
pour offrir aux entreprises publiques une méthodologie rigoureuse tout en intégrant les aspects nouveaux
pour l’époque : les bases de données (modélisation entité association, le modèle relationnel, le déploiement
sur des SGBD, etc.) et l’informatique répartie (le réseau, la fragmentation du schéma de la base
de données, etc.). La principale caractéristique de cette méthode, est la séparation entre les données et
les traitements. Un formalisme inspiré des réseaux de Pétri est proposé pour exprimer les traitements
identifié lors de la phase des besoins (Figure 2.10).
Le Modèle Conceptuel de Traitement (MCT) utilisé par la méthodologie de Merise est une succession
de traitements déclenchés par des événements et qui donnent naissance à de nouveaux événements. Un
traitement (opération) est une suite d’actions réalisées en vue d’obtenir un résultat[99]. Dans notre
35Chapitre 2. L’expression des besoins : un état de l’art
Nom de traitement
Règle d’émission 1
Résultat 1 Résultat 2
Synchronisation
Evènement 1 Evènement 2
Action 1
Action 2
Action n
(a) Formalisme graphique.
Vérifier l’admission des étudiants
Étudiant admis Étudiant ajourné
ET
Authentification Le système permet à la scolarité de
vérifier l’admission des étudiants
Calculer moyenne
Moyenne < 10
(b) Exemple (gestion de scolarité).
Règle d’émission 2 Moyenne = > 10
Acteur Scolarité
Nom de traitement
Règle d’émission 1
Résultat 1 Résultat 2
Synchronisation
Evènement 1 Evènement 2
Action 1
Action 2
Action n
(a) Formalisme graphique.
Vérifier l’admission des étudiants
Étudiant admis Étudiant ajourné
ET
Authentification Le système permet à la scolarité de
vérifier l’admission des étudiants
Calculer moyenne
Moyenne < 10
(b) Exemple (gestion de scolarité).
Règle d’émission 2 Moyenne = > 10
Acteur Scolarité
Figure 2.10 – Exemple de modèle conceptuel de traitement.
travail, nous nous intéressons à l’utilisation du MCT comme modèle des besoins des utilisateurs. (Voir
figure 2.10.(a)).
– Acteur : est une personne morale ou physique capable d’émettre ou de recevoir des informations.
Par exemple la scolarité.
– Évènement : C’est un fait réel qui, seul ou synchronisé avec d’autres évènements, a pour effet de
déclencher une ou plusieurs actions. Un événement peut:
– déclencher un traitement (ex : Le système permet à la scolarité de vérifier l’admission des
étudiants déclenche le traitement Vérifier l’admission des étudiants (voir l’exemple de la figure
2.10.(b)).
– être le résultat d’un traitement (ex : (Étudiant admis), et à ce titre être, éventuellement, un
événement déclencheur d’un autre traitement.
– Traitement (opération) : est un ensemble d’actions exécutées par le système suite à un événement,
ou à une conjonction d’événements.
– Règles d’émissions : représentent des conditions permettant l’expression des solutions alternatives
et l’exécution conditionnelle du traitement. Par exemple (si la moyenne = > 10 alors (Étudiant
admis). Sinon (Étudiant ajourné)).
– Synchronisation : est une relation entre les événements déclencheurs qui est représentée par une
condition booléenne grâce aux opérateurs logiques " Et ", " Ou " et " Non ". Le traitement n’est
pas déclenché si la condition n’est pas réalisée.
Notons que le MCT est intégré dans l’outil Power AMC18 de Sybase.
18. http://www.sybase.fr/products/modelingdevelopment/poweramc
366. Problématiques liées à l’expression des besoins
Nous venons de présenter différentes approches pour exprimer les besoins des utilisateurs. Ces mé-
thodes peuvent amener différents problèmes qui ont amené le travail réalisé dans cette thèse. Ces problèmes
sont décrits dans la section suivante.
6 Problématiques liées à l’expression des besoins
L’importance des besoins augmente dans le contexte des entreprises étendues. Ces dernières nécessitent
la collaboration d’un grand nombre de concepteurs qui peuvent provenir de différents domaines,
départements, laboratoires de recherche, etc. Dans cette situation, produire un document des besoins
de qualité devient difficile dû à plusieurs problèmes. Nous pouvons citer : (1) l’hétérogénéité des réfé-
rentiels (vocabulaires), (2) l’hétérogénéité au niveau des langages de modélisation des besoins, (3) les
relations complexes entre les besoins des utilisateurs et (4) l’évolution des besoins. Ces problèmes sont
déjà détaillés dans le chapitre 1.
Les autres problèmes suivants peuvent conduire à des besoins ambigus, incomplets, incohérents, et
incorrects [38].
– Problèmes de périmètre : si les frontières et les objectifs du système cible sont mal définis après
l’analyse du contexte de l’organisation. Des besoins incomplets, non vérifiables, et inutilisables
peuvent également être fournis. Cela conduit à l’inachèvement du projet, au dépassement de ses
budgets, ou à la défaillance du système développé.
– Une compréhension incomplète des besoins.
– Une faible collaboration entre les différents utilisateurs ou concepteurs du système.
– Une faible connaissance du domaine par les concepteurs.
Dans le cadre d’une entreprise étendue impliquant un nombre important de concepteurs hétérogènes,
une bonne étude des besoins nécessite trois phases principales : (i) l’expression des besoins, (ii) l’intégration
des besoins et (iii) leur analyse. Nous avons déjà évoqué la première phase dans les sections
précédentes, où nous avons montré la diversité des langages de modélisation des besoins. Dans la section
suivante, nous allons détailler les travaux concernant deux dernières phases.
7 État des lieux sur l’intégration et l’analyse des besoins
7.1 L’intégration des besoins
Un nombre important de travaux sur l’intégration de besoins ont été proposés que nous pouvons
classer en deux catégories : les approches dirigées par des méthodes issues de la logique mathématique
[83, 127] et les approches d’ingénierie dirigée par les modèles (IDM) [86, 94, 5, 121, 30].
7.1.1 Exemples d’approches dirigées par des méthodes issues de la logique mathématique
Nous prenons l’exemple du travail de Wieringa et al. [127]. La particularité de ce dernier est qu’il
s’intéresse à l’intégration des besoins exprimés à l’aide de trois langages appartenant aux trois catégories,
37Chapitre 2. L’expression des besoins : un état de l’art
à savoir formelles, semi-formelles et informelles. Pour ce faire, les auteurs proposent un Framework
appelé TRADE (Toolkit for Requirements And Design Engineering), au sein duquel plusieurs techniques
de spécification semi-formelles connues sont placées (par exemple, Class-Relationship Diagrame, CRD,
Communication diagram et Function refinement tree). TRADE est basé sur une méthode de spécification
structurée et orientée objet pour analyser les besoins. Dans ce travail, les auteurs combinent TRADE
avec un langage formel de spécification (Albert II) [47]. Ce dernier a été développé et expérimenté
depuis plusieurs années, il est destiné à la modélisation et la spécification des besoins exprimés par les
utilisateurs. Les auteurs montrent que cette intégration conduit à une spécification cohérente des besoins
formels et semi-formels. Cette approche a été illustrée par quelques exemples d’applications dans le
domaine de la télécommunication distribuée.
Un autre exemple de travaux traitant deux langages appartenant à deux catégories de langages de modélisation
des besoins différentes, à savoir semi-formelle et formelle est celui de Laleau et al. [83]. Les
auteurs de ce travail proposent une méthode intégrant le langage SysML considéré comme langage semiformel
et la méthode B appartenant à la catégorie formelle. L’idée principale de ce travail est d’étendre
le langage SysML avec les concepts appartiennent à des méthodes d’ingénierie des besoins existantes.
L’approche s’effectue selon les étapes suivantes : (1) étendre le langage SysML par des concepts repré-
sentant les concepts de base du modèle de but de la méthode KAOS. Cette extension est concrètement
établie au niveau du méta-modèle à l’aide des techniques de méta-modèlisation. (2) définition des règles
pour dériver une spécification formelle de B à partir de ce modèle étendu. Cette étape permet de fournir
une sémantique précise aux éléments du modèle de besoins.
7.1.2 Approches dirigées par IDM
L’IDM offre un cadre technique qui peut concerner les activités de l’IB autour de méta-modèles et les
transformations de modèles, afin de fournir des spécifications des besoins qui soient correctes, complètes,
cohérentes, sans ambiguïté, modifiables et faciles à lire et à sauvegarder. L’IDM peut s’appliquer dans
différentes phases du processus d’IB, depuis l’élicitation jusqu’à la gestion des besoins. Elle est utilisée
dans la modélisation, la persistance, l’intégration, la vérification, la traçabilité et la collaboration des
besoins. Plusieurs travaux d’intégration des besoins, proposant l’utilisation des approches dirigées par
les modèles, ont été proposés dans la littérature [86],[94],[5], [121], etc. Parmi ces travaux, voici une
description de ceux étant les plus proches de nos préoccupations.
– Lopez et al. [86] : proposent un méta-modèle comme un schéma conceptuel (défini à priori) pour
intégrer certains types de diagrammes semi-formels des besoins dans une approche de réutilisation
des besoins (Figure:2.11). Le métamodèle généré supporte six techniques de modélisation des
besoins connues, qui se concentrent principalement sur les besoins fonctionnels : scénarii, cas
d’utilisation, diagrammes d’activité, flux de données, document tâches et workflows.
– Navarro et al. [94] : proposent une approche de modélisation des besoins qui permet l’intégration
de l’expressivité de certaines techniques les plus pertinentes dans le domaine de l’IB, dans
un Framework commun. Ce travail est basé sur les techniques de méta-modélisation de l’IDM
comme un moyen d’intégration et de personnalisation. Pour établir cette intégration, les auteurs
ont étudié cinq approches connues dans le domaine de l’IB : traditionnel (basées sur la norme
IEEE 830-1998), Use Cases, Goal Oriented, Aspect Oriented et variability management. Les auteurs
ont commencé par un ensemble limité de concepts, de manière à ce qu’il soit plus simple et
387. État des lieux sur l’intégration et l’analyse des besoins
Modeling
Unit
Requirements
Representation
Model
Complement Exception Subset Equivalence Extension Inclusion
Dependency Association Generalization
Unit
Realationship
source
target
1 *
1 *
Constraint Connector Goal State Activity Subject
Semiformal
Behavioural and
Structural Model Behavioural Model Structural Model
Compulsory Optional Alternative Multiple
Model
Realationship
Domain
Objective
*
*
*
*
parent child
characterize
1 1.0
Project
1.*
1.* Unit Model
Relationship
1 1
*
*
*
2.*
From
System
From
User Action Job
Person Autonomous
System
Company
Unit Linear Joint Split
Resource
Constraint
Temporal
Constraint
Physical Data
Data Flows
Diagram
Docuement-Task
Diagram
Activity
Diagram
Sequence
Specification
Diagram
Scenarii
Diagram
Use Cases
Diagram
Workflow
Diagram
Meta Level
Model Level
Modeling
Unit
Requirements
Representation
Model
Complement Exception Subset Equivalence Extension Inclusion
Dependency Association Generalization
Unit
Realationship
source
target
1 *
1 *
Constraint Connector Goal State Activity Subject
Semiformal
Behavioural and
Structural Model Behavioural Model Structural Model
Compulsory Optional Alternative Multiple
Model
Realationship
Domain
Objective
*
*
*
*
parent child
characterize
1 1.0
Project
1.*
1.* Unit Model
Relationship
1 1
*
*
*
2.*
From
System
From
User Action Job
Person Autonomous
System
Company
Unit Linear Joint Split
Resource
Constraint
Temporal
Constraint
Physical Data
Modeling
Unit
Requirements
Representation
Model
Complement Exception Subset Equivalence Extension Inclusion
Dependency Association Generalization
Unit
Realationship
source
target
1 *
1 *
Constraint Connector Goal State Activity Subject
Semiformal
Behavioural and
Structural Model Behavioural Model Structural Model
Compulsory Optional Alternative Multiple
Model
Realationship
Domain
Objective
*
*
*
*
parent child
characterize
1 1.0
Project
1.*
1.* Unit Model
Relationship
1 1
*
*
*
2.*
From
System
From
User Action Job
Person Autonomous
System
Company
Unit Linear Joint Split
Resource
Constraint
Temporal
Constraint
Physical Data
Data Flows
Diagram
Docuement-Task
Diagram
Activity
Diagram
Sequence
Specification
Diagram
Scenarii
Diagram
Use Cases
Diagram
Workflow
Diagram
Meta Level
Model Level
Figure 2.11 – Méta-modèle des besoins modélisés en UML. [86].
facile de parvenir à un méta-modèle consensuel. En outre, ils fournissent quelques conseils pour
étendre cet ensemble de concepts, de telle sorte qu’une cohérence sémantique appropriée puisse
être maintenue.
– ITU-T12. [5] : selon [Recommendation ITU-T Z.151], URN (User Requirements Notation) est
un langage de modélisation qui permet l’élicitation, l’analyse, la spécification et la validation des
besoins. URN combine deux langages de modélisation : le langage GRL (Goal-oriented Requirement
Language) pour modéliser les acteurs et leurs besoins non-fonctionnels et la notation UCM
(Use Case Maps) pour décrire les scénarios des besoins fonctionnels et les architectures. URN
permet aux analystes des besoins de découvrir et de spécifier les besoins pour un système proposé
ou un système évolutif, et d’analyser ces besoins pour détecter les incohérences et les ambigüités.
– Vicente et al. [121] : proposent un méta-modèle des besoins appelé REMM (Requirements Engineering
MetaModel). Ce travail est une première tentative pour apporter les avantages de l’approche
IDM à la pratique de l’IB. Les auteurs notent que, se référant à [11], les éléments du métamodèle
des besoins dépendent fortement du contexte. Ainsi, le méta-modèle REMM est conçu
dans un contexte de réutilisation des besoins, même s’ils estiment que les concepts et les relations
du méta-modèle sont généralement applicables dans les approches de l’IB. REMM supporte trois
types de relations entre les besoins : DependenceTrace, InfluenceTrace, et ParentChildTrace.
– Brottier et al. [30] : proposent un mécanisme dirigé par les modèles pour intégrer un ensemble
de spécifications textuelles des besoins, écrites dans différentes syntaxes, dans un modèle global.
39Chapitre 2. L’expression des besoins : un état de l’art
Ce mécanisme est intégré dans une plateforme appelée R2A qui signifie (Requirements to Analysis).
L’élément central de R2A est son méta-modèle des besoins qui a été défini pour capturer les
besoins du modèle global. Le processus est composé de deux étapes basées sur les techniques de
l’IDM. La première analyse chaque spécification des besoins textuels pour produire un modèle de
syntaxe abstraite. La deuxième étape, interprète la sémantique abstraite de chaque modèle dans un
modèle de besoins intermédiaire, puis fusionne ces modèles dans un modèle de besoins global des
besoins (Figure:2.12). Ces deux étapes emploient les techniques de l’IDM. Ce travail fournit un
modèle global des besoins.
Interpretation Fusion Parsing
Specification
model
Specification
model
Global
requirements
model
Core requirements
Metamodel
Input language
Metamodel
Intermediate
model
Intermediate
model
Textual
specification (n)
Textual
specification (1)
Input language
Grammar
1
2
2a 2b
Text world Model world
Model transformation « Conforms to »
Import
Interpretation Fusion Parsing
Specification
model
Specification
model
Global
requirements
model
Core requirements
Metamodel
Input language
Metamodel
Intermediate
model
Intermediate
model
Textual
specification (n)
Textual
specification (1)
Input language
Grammar
1
2
2a 2b
Text world Model world
Model transformation « Conforms to »
Import
Figure 2.12 – Etape de production d’un modèle global des besoins [30].
7.2 L’analyse des besoins
Nous rappelons que la phase d’analyse des besoins consiste à analyser la compréhension des besoins,
de les exprimés et de les clarifier ainsi que de supprimer leurs incohérences, d’assurer la complétude de
leurs description et déceler les redondances. Plusieurs travaux qui peuvent surgir d’analyse des besoins
ont été proposés dans la littérature que nous détallions ci-après.
– Mirbel et al. [92] : proposent une approche permettant de vérifier la cohérence dans le modèle
orienté buts (Goal-oriented). L’approche vise à détecter des relations implicites entre les buts et à
vérifier les incohérences possibles entre eux. Dans ce travail, les auteurs ont utilisé la technique de
la théorie de l’argumentation pour formaliser les besoins (buts) et leurs relations, et pour détecter
les incohérences. Cette approche peut être considérée comme une aide apportée aux acteurs afin
407. État des lieux sur l’intégration et l’analyse des besoins
de les aider à atteindre une compréhension commune d’un ensemble des besoins basés sur les buts.
– Heitmeyer et al. [65] : proposent une technique d’analyse formelle, appelée vérification de la cohérence
pour la détection automatique des erreurs dans les spécifications des besoins. La technique
est conçue afin d’analyser les spécifications des besoins exprimés par des notations tabulaires SCR
(Software Cost Reduction). Pour fournir une sémantique formelle pour la notation SCR, un modèle
formel de spécification est introduit. Ce dernier représente le système comme un automate à
états finis. Il définit un état du système en termes d’entités, une condition en tant que prédicat sur
l’état du système, et un événement d’entrée comme un changement qui déclenche un nouvel état
du système.
– Giorgini et al. [51] : proposent un framework de raisonnement sur les modèles de buts. Ces derniers
utilisent des relations ET/OU, ainsi que des relations plus qualitatifs entre les buts comme
par exemple les relations de contradiction. Le framework fournit une sémantique précise pour
toutes les relations de but dans une forme qualitative et numérique en utilisant des algorithmes
de propagation des étiquettes (Label propagation algorithms). L’analyste attribue des valeurs de
contribution (+) et (-) pour les arêtes d’un graphe de buts. La valeur de contribution d’une arête
représente le degré de la contribution positive ou négative entre deux buts. Ces valeurs quantitatives
peuvent aider un analyste à reconnaître les conflits entre les buts. La principale limitation
de ce framework est la définition des liaisons de contribution et l’affectation des étiquettes. C’est
un problème que l’analyste peut rencontrer dans la modélisation de situations complexes où de
nombreux buts sont liés entre eux, et lorsque différents points de vue doivent être pris en compte
dans l’attribution des valeurs initiales aux buts. De plus, le framework de raisonnement présenté
est très spécifique aux modèles de but.
– Lamsweerde [84] : propose une approche pour raisonner sur les besoins alternatifs. Ils ont introduit
des relations d’influence entre les besoins, en indiquant si un besoin a une influence positive
ou négative sur un autre besoin. Les auteurs appliquent des techniques de raisonnement formel
pour identifier les besoins qui ont un impact négatif.
7.3 Synthèse
Dans cette section, nous avons fait un tour d’horizon sur les nombreuses phases de l’ingénierie des
besoins. Cette étude nous a permis d’identifier certaines lacunes concernant l’intégration et l’analyse des
besoins : (1) l’absence d’autonomie des concepteurs à cause de l’unique vocabulaire imposé pour l’expression
des besoins, (2) l’indépendance des phases, en d’autres termes, l’expression (modélisation) et
l’analyse des besoins sont faits d’une manière indépendante, d’où la présence de deux communautés de
recherche distinctes, une qui traite la partie intégration et l’autre la partie analyse, malgré l’interdépendance
des deux phases, (3) les relations entre les besoins (par exemple, les conflits) sont détectées trop
tard ou pas du tout et (4) les besoins ne sont pas intégrés dans le cycle de vie de conception de bases de
données avancées.
Pour résumer, nous proposons une comparaison des travaux étudiés selon 7 critères qui sont : (1)
l’intégration langages de modélisation des besoins (IL), (2) les classes de langages utilisés (informels,
semi formels, formels) (CLU), (3) l’intégration vocabulaires (IV), (4) l’analyse (A), (5) la couverture de
cycle de vie (CCV), (6) la présence des outils (PO), (7) l’évolution (E). (Voir Tableau 2.1)
41Chapitre 2. L’expression des besoins : un état de l’art
Travaux / Critères IL CLU IV A CCV PO E
Wieringa et al.[127] Oui informels, semi-formels, formels Non Oui Non Oui Non
Laleau et al. [83] Oui semi-formels, formels Non Oui Non Non Non
Lopez et al.[86] Oui semi-formels Non Non Non Non Non
Navaro et al.[94] Oui semi-formels Non Oui Non Non Non
ITU-T12.[5] Oui semi-formels Non Oui Non Oui Non
Vicente et al.[121] Oui semi-formels Non Oui Non Oui Non
Brottier et al.[30] Oui informels, semi-formels Non Oui Non Oui Non
Mirbel et al.[92] Non formels Non Oui Non Non Non
Heitmeyer et al.[65] Non informels Non Oui Non Oui Non
Giorgini et al.[51] Non semi-formels Non Oui Non Oui Non
Lamsweerde et al.[84] Non semi-formels Non Oui Non Non Non
Table 2.1 – Comparaison des travaux étudiés.
Cette comparaison nous montre l’intérêt de développer des approches unifiant les langages de modé-
lisation des besoins et les vocabulaires et surtout "consolider" les besoins avec les phases de conception
des bases de données avancées.
8 Conclusion
Dans ce chapitre, nous avons d’abord montré le rôle crucial des besoins dans le cycle de vie de
conception des bases de données avancées. Les traités indépendamment dans l’ensemble des phases de
ce cycle pénalise l’application finale. Pour mieux comprendre la communauté de l’ingénierie des besoins,
nous avons revu certaines définitions et concepts liés à leurs phases : élicitation, modélisation, analyse
et validation. Nous avons longuement insisté sur les langages de modélisation des besoins et surtout
leur diversité. Trois classes de langages sont présentées : les langages informels considérés comme les
pionniers de langages, les langages semi-formels, et les langages formels. Dans chaque classe, une large
panoplie de langages existe. Cette diversité rend difficile leur intégration.
Dans le but d’intégrer les langages de modélisation des besoins hétérogènes, nous nous sommes focalisés
sur la classe semi-formelle, où nous avons étudié trois familles de langages qui seront considérées
dans notre étude de cas : approches dirigées par les buts, approches à base de scénarii et les approches
basées sur des automates et réseaux de Petri (le cas du modèle de traitement de la méthode MERISE).
L’analyse des travaux d’intégration et d’analyse des besoins présentés dans la section 7 nous a montré
l’ignorance de l’hétérogénéité des vocabulaires. Pour réduire cette hétérogénéité, nous proposons l’utilisation
des ontologies que nous allons détailler dans le chapitre suivant. Notre vision est d’étendre les
besoins à tout le cycle de vie de conception de bases de données avancées plutôt que de les limiter à la
phase initiale.
42Chapitre 3
Les ontologies au service de l’Ingénierie des Besoins
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2 Ontologies de domaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1 Définitions et caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Une taxonomies des ontologies de domaine . . . . . . . . . . . . . . . . 46
2.2.1 Les Ontologies Linguistiques (OL) . . . . . . . . . . . . . . . 47
2.2.2 Les Ontologies Conceptuelles (OC) . . . . . . . . . . . . . . . 47
2.3 Les langages de définitions des ontologies . . . . . . . . . . . . . . . . . 48
2.3.1 Langages orientés gestion et échange de données . . . . . . . . 48
2.3.2 Langages orientés inférence . . . . . . . . . . . . . . . . . . . 50
2.4 Les éditeurs d’ontologies . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.5 Représentation formelle d’une ontologie . . . . . . . . . . . . . . . . . . 53
3 Ontologies et l’intégration : application aux sources de données hétérogènes . 54
3.1 Intégration sémantique a posteriori . . . . . . . . . . . . . . . . . . . . . 54
3.2 Intégration sémantique a priori . . . . . . . . . . . . . . . . . . . . . . . 56
4 Les ontologies dans l’IB : état de l’art . . . . . . . . . . . . . . . . . . . . . . 57
4.1 L’analyse des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 L’intégration des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3 Ontologies, besoins et le cycle de vie de conception . . . . . . . . . . . . 60
4.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
Résumé. Nous présentons dans ce chapitre un état de l’art portant sur l’utilisation des ontologies
dans le domaine de l’IB. Nous abordons tout d’abord, la notion d’ontologie de
domaine, ensuite la contribution des ontologies dans l’intégration des sources de données
hétérogènes. Nous présentons également l’utilisation des ontologies dans le domaine de
l’IB. Finalement, nous positionnons notre travail par rapport à l’état de l’art sur les travaux
d’intégration des donnée à base ontologique.
431. Introduction
1 Introduction
Au cours de ces dernières années, la notion d’ontologie s’est rapidement diffusée dans un grand
nombre de domaines de recherche tels que les bases de données et l’intelligence artificielle (IA). Dans
le domaine de base de données, elles ont contribué principalement à la conception de bases de données
vu leur similarité avec les modèles conceptuels [49] et l’intégration de sources de données [20], tandis
que dans le domaine de l’IA, les ontologies ont notamment offert des mécanismes de raisonnement et
de déduction. Une ontologie est définie comme la représentation formelle et consensuelle au sein d’une
communauté d’utilisateurs des concepts propres à un domaine et des relations qui les relient. Le but d’une
ontologie est aussi de permettre de partager et de représenter formellement la sémantique des objets d’un
domaine, ainsi que de supporter certains mécanismes de traitement automatique tel que le raisonnement.
Compte tenu du caractère prometteur de cette notion, de nombreux travaux portent sur l’utilisation des
ontologies dans des domaines aussi divers que le traitement automatiques de la langue naturelle, la recherche
d’information, le commerce électronique, le web sémantique, la spécification des composants
logiciels, l’ingénierie et l’intégration d’informations, etc. Récemment, les ontologies ont été utilisées
dans le domaine d’IB afin de faciliter l’expression des besoins ainsi que pour détecter l’incohérence et
l’ambiguïté sémantique entre les besoins utilisateurs. La fusion entre les deux domaines (ingénierie des
besoins et ontologies) a suscité l’intérêt de la communauté de recherche depuis les années 80 et depuis,
les ontologies ont démontré leur efficacité à résoudre d’autres problèmes comme l’indexation des données,
le traitement de langage naturelle, l’échange et le partage des données, etc. En effet, l’ontologie
peut servir de vocabulaire précis et partagé pour définir la sémantique des besoins à l’aide de concepts
communs, formalisés et référençables.
Nous présentons dans ce chapitre un état de l’art portant sur l’utilisation des ontologies dans le
domaine de l’IB. Il est organisé en cinq sections. Dans la section 2, nous introduisons les ontologies,
leurs principales définitions, caractéristiques, langages de définition, éditeurs, et formalisation. Nous
donnons ensuite leur classification en se basant sur la nature de ce qu’elles décrivent. La section 3 est
consacrée à l’utilisation des ontologies pour l’intégration des sources de données hétérogènes. La section
4 présente un état de l’art sur les travaux qui utilisent des ontologies dans le domaine de l’IB. La section
5 conclut ce chapitre.
2 Ontologies de domaine
Dans cette section, nous définissons la notion d’ontologie tout en dégageant ses caractéristiques.
Nous présentons ensuite ses principaux langages de définition, ses éditeurs et nous donnons sa représentation
formelle. Enfin, nous présentons une taxonomie des ontologies de domaine, afin de bien préciser
celles concernés par le travail réalisé dans le cadre de cette thèse.
2.1 Définitions et caractéristiques
Plusieurs définitions d’ontologies ont été proposées dans la littérature [61],[71],[98], etc. Pierra dé-
finit une ontologie de domaine comme "a domain conceptualization in terms of classes and properties
that is formal, multilingual, consensual and referencable"[98]. Cette définition met en avant quatre ca-
45Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
ractéristiques qui distinguent une ontologie de domaine des autres modèles informatiques (tels que les
modèles conceptuels et les modèles de connaissances).
1. Formelle : signifie que l’ontologie est basée sur des théories formelles qui permettent à une machine
de vérifier automatiquement certaines propriétés de consistance et/ou de faire certains raisonnements
automatiques sur l’ontologie et ses instances.
2. Multilingue : les ontologies dans certains domaines comme l’ingénierie sont multilingues [73].
Cette caractéristique favorise leur utilisation dans les grandes entreprises.
3. Consensuelle : signifie que l’ontologie est une conceptualisation validée par une communauté.
C’est aussi un accord sur une conceptualisation partagée.
4. Capacité à être référencée : signifie que tout concept de l’ontologie est associé à un identifiant
unique permettant de le référencer à partir de n’importe quel environnement, afin d’expliciter la
sémantique de l’élément référençant.
Parmi les autres caractéristiques des ontologies qui distinguent une ontologie de domaine des autres
modèles informatiques, nous pouvons citer les suivantes.
– Capacité à raisonner : le caractère formel des ontologies permet d’appliquer des opérations de
raisonnement sur les ontologies. En l’occurrence, dériver des faits qui ne sont pas exprimés dans
l’ontologie en utilisant des langages tels que la logique de description (LD). Dans notre contexte,
les ontologies offrent des capacités de raisonnement qui peuvent être utilisées pour détecter les
incohérences et les ambiguïtés sémantiques des besoins des utilisateurs. En effet, dans la plupart
des modèles d’ontologies (OWL, PLIB), pour une ontologie et une classe données, on peut calculer
(1) toutes ses super-classes (directes ou non), (2) ses sous-classes (directes ou non), (3) ses
propriétés caractéristiques (héritées ou locales), (4) toutes ses instances (polymorphes ou locales),
etc.
– Objectif de modélisation : une ontologie décrit les concepts d’un domaine d’un point de vue assez
général, indépendamment d’une application particulière et de tout système dans lequel elle est
susceptible d’être utilisée. A l’opposé, un modèle conceptuel de données prescrit l’information
qui doit être représentée dans un système informatique particulier pour faire face à un besoin
applicatif donné.
– Atomicité des concepts : à la différence d’un modèle conceptuel de données, où chaque concept ne
prend son sens que dans le contexte du modèle dans lequel il est défini, dans une ontologie, chaque
concept est identifié et défini explicitement de façon individuelle et constitue une unité élémentaire
de connaissance. Un modèle conceptuel de données peut donc extraire d’une ontologie seulement
les concepts (classes et propriétés) pertinents pour son objectif applicatif. Il peut également, sous
réserve de respecter leur sémantique (la subsomption par exemple), les organiser de façon assez
différente de leur organisation dans l’ontologie, la référence au concept ontologique permettant de
définir avec précision la signification de l’entité référençante.
2.2 Une taxonomies des ontologies de domaine
Deux principales catégories d’ontologies de domaine ont émergé dans la littérature [98] : les ontologies
linguistiques et les ontologies conceptuelles. Les ontologies linguistiques (OL) représentent les
termes d’un domaine éventuellement selon différents langages naturels. Les ontologies conceptuelles
462. Ontologies de domaine
(OC) représentent les catégories d’objet et leurs propriétés d’un domaine donné. Les OCs diffèrent cependant
selon le modèle d’ontologie utilisé pour les définir. On distingue ainsi deux catégories d’OC basées
sur les notions de concepts primitifs et de concepts définis énoncées par Gruber [61]. Les concepts
primitifs définissent le premier noyau du domaine conceptualisé par l’ontologie. Les concepts définis
sont des concepts dont la définition utilise d’autres concepts (primitifs ou définis). Par exemple, le prix
total d’une commande est défini en fonction du prix unitaire et de la quantité commandée.
2.2.1 Les Ontologies Linguistiques (OL)
Les ontologies linguistiques telle que WordNet 19 visent à définir le sens des mots et les relations
linguistiques entre ces mots (synonyme, antonyme, hyperonyme, etc.). Ces relations servent à capturer de
façon approximative et semi-formelle les relations entre les mots en utilisant des mesures de similarité. La
construction de telles ontologies est souvent faite de façon semi-formelle par un processus d’extraction
de termes dans un ensemble de documents du domaine qui est ensuite validé et structuré par un expert
du domaine [116]. Plusieurs outils existent permettant de construire des ontologies à partir du texte.
Nous pouvons citer Text2Onto [39] et Terminae [29], développé par le laboratoire d’Informatique de
Paris-Nord.
2.2.2 Les Ontologies Conceptuelles (OC)
Les ontologies Conceptuelles (formelles) constituent des spécifications explicites de conceptualisations
de domaines indépendamment de leurs représentations dans un langage particulier. Elles permettent
de définir formellement les concepts de ce domaine et les relations entre ces concepts. Les ontologies
conceptuelles adoptent une approche de structuration de l’information en termes de classes et de proprié-
tés et leur associent des identifiants réutilisable dans différents langages.
Nous distinguons deux catégories d’ontologies conceptuelles : (1) les ontologies canoniques et (2)
les ontologies non canoniques.
1. Les Ontologies Conceptuelles Canoniques (OCC) : sont des ontologies ne contenant que des
concepts primitifs. Par exemple, on peut considérer une OCC contient une classe Personne caractérisée
par deux propriétés Nom et Sexe (masculin ou féminin). Les OCC fournissent une base
formelle pour modéliser et échanger les connaissances d’un domaine. Le modèle PLIB permet de
définir des OCC.
2. les Ontologies Conceptuelles Non Canoniques (OCNC) : sont des ontologies contenant à la fois
des concepts primitifs et des concepts définis. Par exemple, le concept primitif Personne qui se
spécialise dans les deux concepts définis Homme et Femme, qui représentent les concepts d’une
OCNC. Les OCNC fournissent des mécanismes permettant de représenter les connaissances d’un
domaine par différentes conceptualisations. Les langages ontologiques issus du Web Sémantique
(par exemple, OWL) permettent de définir des OCNC.
19. http://wordnet.princeton.edu/wordnet/
47Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
2.3 Les langages de définitions des ontologies
Plusieurs langages de définition des ontologies ont été développés dans la littérature. Ces langages
offrent des constructeurs permettant l’expression des axiomes, des instances, des entités et des relations
que l’on retrouve dans une ontologie. Ces langages peuvent être classés, selon les objectifs spécifiques visés
par les différentes spécialités, en deux catégories: les langages orientés gestion et échange de données
et langages orientés inférence.
2.3.1 Langages orientés gestion et échange de données
Dans cette section, nous présentons les langages d’ontologie RDF/RDF-schéma et PLIB. Ces langages,
offrent respectivement dans le domaine du Web et de l’ingénierie, des constructeurs permettant de
représenter les données du domaine de manière à faciliter le partage et l’échange des ontologies et des
instances associées.
2.3.1.1 RDF (Resource Description Framework) 20 : est un modèle standard pour l’échange de données
sur le Web. Associé à une syntaxe, il permet (i) la représentation et le partage des données structurées
et semi-structurées et leur partage à travers différentes applications et (ii) l’annotation des éléments du
Web. RDF étend la structure de liaison du Web pour utiliser les URI (Uniform Resource Identifier) pour
le nommage des ressources. Une ressource est une entité d’information pouvant être exprimée avec RDF
et référencée dans un bloc, par un nom symbolique (littéral) ou un identificateur (URI). Notons que le
triplet est la construction de base en RDF qui est spécifié à travers le langage de balisage XML. Un
modèle RDF est défini à partir de quatre ensembles suivants.
1. Les ressources : tout élément référencé par un URI est appelé ressource.
2. Les littéraux : un littéral est une valeur typée par un des types de données primitifs (chaîne de
caractères, entier, etc.) définis par XML schéma.
3. Les prédicats : un prédicat est tout ce qui peut être utilisé pour décrire une ressource (propriété,
attribut, relation, etc.).
4. Les déclarations : une déclaration est un triplet de la forme (sujet, prédicat, objet) permettant la
description d’un élément. Le sujet est une ressource. Le prédicat est une propriété et l’objet est soit
une ressource, soit un littéral.
Notons qu’un modèle RDF peut être représenté sous forme d’un graphe orienté où les nœuds sont des
ressources ou des littéraux et les arcs représentent des prédicats.
2.3.1.2 RDF Schéma : Nous remarquons que RDF définit lui-même très peu de prédicats. De plus, il
ne permet pas de définir les primitives pour modéliser un domaine en termes de classes et de propriétés.
Par conséquent, il a été très rapidement complété par RDFS. En effet, RDFS est un langage de description
de vocabulaire RDF permettant la description formelle de hiérarchies et de relations entre les ressources
[114]. RDFS fournit les prédicats essentiels pour la représentation d’une ontologie. Ces constructeurs
spécifiques sont les suivants :
20. http://www.w3.org/RDF/
482. Ontologies de domaine
– rdfs:class permettant la création d’une classe;
– rdfs:subClassOf spécifiant la relation de subsomption entre classes;
– rdfs:property permettant la spécification des propriétés caractéristiques d’une classe;
– rdfs:subProperty spécifiant une organisation hiérarchique des propriétés;
– rdfs:domain spécifiant le domaine d’une propriété;
– rdfs:range qui permet de spécifier le co-domaine de valeur d’une propriété.
La figure 3.1 montre un exemple d’ontologie présentée sous la forme d’un graphe. Cette ontologie comporte
les classes Person, University et Student (sous-classe de Person). Notons que le dernier concept
décrit l’ensemble des étudiants. Les ovales représentent les URI des instances tandis que les valeurs littérales
sont représentées dans des rectangles. Un extrait de l’ontologie et des données suivant la syntaxe
rdf/xml est ensuite présenté. Après avoir étudié les deux langages, nous concluons que :
Person University
Student string integer
idUniv
MasterDegreeFrom
name
Ontologie
Données http://lias.../Person #01 http://lias.../University #01 MasterDegreeFrom
150
idUniv
string
name
Légende
classe héritage propriété instance Valeure de propriété
Person University
Student string integer
idUniv
MasterDegreeFrom
name
Ontologie
Données http://lias.../Person #01 http://lias.../University #01 MasterDegreeFrom
150
idUniv
string
name
Légende
classe héritage propriété instance Valeure de propriété
Figure 3.1 – Exemple d’ontologie exprimée en RDF Schéma.
– RDF n’est pas considéré totalement comme un langage d’ontologies étant donné qu’il ne permet
pas de définir des classes et des propriétés;
– RDFS a enrichi RDF par l’ajout d’un ensemble de constructeurs permettant la définition des ontologies
sur le Web. Malheureusement, RDFS n’offre aucune primitive pour la définition des équiva-
49Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
lences conceptuelles, du fait que tous les concepts décrits avec RDFS sont des concepts primitifs.
2.3.1.3 PLIB : (Parts LIBrary) [2], [3] est un modèle d’ontologies qui définit les représentations canoniques
(uniques), supposées consensuelles, pour l’ensemble des concepts existant dans un domaine
donné. Chaque concept peut alors être représenté par l’appartenance à une classe de l’ontologie et par
un ensemble de valeurs de propriétés. Chaque concept est identifié de manière unique par un GUI (Globally
Unique Identifier) [98]. A l’origine, l’objectif de PLIB était de permettre une modélisation informatique
des catalogues de composants industriels afin de les rendre échangeables entre fournisseurs et
utilisateurs. Il repose sur un langage formel EXPRESS pour la description des catalogues sous forme
d’instances de modèle. Un tel catalogue contient une ontologie décrivant les catégories et les propriétés
qui caractérisent un domaine donné et les instances de celle-ci. Le modèle d’ontologie PLIB offre une
relation d’extension particulière, appelée case-of (est-un-cas-de). Cette relation fournit un mécanisme de
modularité entre ontologies PLIB en permettant à un concepteur de base de données de définir sa propre
ontologie (ontologie "locale") à partir d’une ontologie partagée.
2.3.2 Langages orientés inférence
Le besoin de réaliser des inférences sur les ontologies a conduit à la définition d’autres types de
langages de modélisation d’ontologies. En particulier dans le domaine du Web, le pouvoir d’expression
du langage d’ontologie RDFS a été étendu par un ensemble d’autres langages d’ontologies parmi lesquels
OIL, DAMLONT, DAML-OIL, OWL et SWRL. Ceci afin de concevoir des ontologies permettant de
réaliser davantage de raisonnement sur les ontologies, les données et les besoins des utilisateurs. Dans
cette partie, nous proposons d’étudier deux langages (OWL et SWRL) manipulées dans ce manuscrit.
2.3.2.1 OWL : 21 un des langages les plus connus pour la définition d’ontologies est OWL (Ontology
Web Language). OWL repose sur RDF Schema est inspiré de DAML+OIL. OWL offre un vocabulaire
riche avec une sémantique formelle pour la description des propriétés et des classes, ainsi que les relations
entre classes. Il intègre divers constructeurs sur les propriétés et les classes comme l’identité, l’équivalence
(owl:equivalentClass), l’union (unionOf), le complément d’une classe (complementOf), l’intersection
(intersectionOf), les cardinalités, la symétrie, la transitivité, la disjonction (owl:disjointWith), etc. L
a figure 3.2 illustre un exemple d’ontologie de domaine universitaire exprimée en OWL.
OWL définit les trois sous-langages OWL Lite, OWL-DL et OWL Full, allant du moins au plus
expressif.
– OWL Lite : est le langage le plus simple syntaxiquement. Il permet de définir des hiérarchies de
classes et d’appliquer des contraintes simples. Par exemple une contrainte de cardinalité (minCardinality,
maxCardinality) ne peut prendre que les valeurs 0 et 1.
– OWL DL : possède un pouvoir expressif plus important qu’OWL Lite. OWL DL garantit la complétude
des raisonnements (toutes les inférences sont calculables) et leur décidabilité (leur calcul
se fait en une durée finie) [40].
– OWL Full : est le langage le plus expressif, mais ne garantit pas toujours la complétude des raisonnements
ni leur décidabilité (OWL Full n’est pas un langage décidable).
21. http://www.w3.org/TR/owl-ref/
502. Ontologies de domaine
…..
…..
Figure 3.2 – Exemple d’ontologie exprimée en OWL.
OWL est un langage basé sur la logique de description qui est un formalisme logique permettant la repré-
sentation de la connaissance [12]. Une base de connaissances en LD est composée d’une TBox (Terminological
Box) et d’une ABox (Assertionnal Box). La TBox définit les connaissances intensionnelles du
domaine sous forme d’axiomes. Dans la TBox, un nouveau concept peut être défini sur la base d’autres
concepts (concepts primitifs). Il existe aussi des concepts atomiques (ou définis), ce qui signifie qu’ils ne
sont pas définis sur la base d’autres concepts. Par exemple, on peut définir le concept Student-Employee
comme étant l’intersection des descriptions des concepts Student et Employee: Student-Employee ≡
Student ∩ Employee. La ABox définit les connaissances extensionnelles du domaine (les instances). Par
exemple, le fait Student (Anne) fait partie de la ABox et permet d’indiquer que Anne est une étudiante
(Student).
2.3.2.2 SWRL22 : (Semantic Web Rule Language) est un langage de règles qui enrichit la sémantique
d’une ontologie définie en OWL, combinant le langage OWL-DL et le langage RuleML (Rule
Markup Language). SWRL permet, contrairement à OWL, de manipuler des instances par des variables
(?x, ?y, ?z). SWRL ne crée pas des concepts ni des relations, il permet simplement d’ajouter des relations
suivant les valeurs des variables et la satisfaction de la règle. Les règles SWRL sont construites suivant
ce schéma : antécédent -> conséquent. L’antécédent et le conséquent sont des conjonctions d’atomes.
Un atome est une instance de concept, une relation OWL ou une des deux relations SWRL same-as
(?x, ?y) ou different-from (?x, ?y). Le fonctionnement d’une règle est basé sur le principe de satisfiabilité
de l’antécédent ou du conséquent. Pour une règle, il existe trois cas de figure :
– l’antécédent et le conséquent sont définis. Si l’antécédent est satisfait alors le conséquent doit
l’être;
– l’antécédent est vide. Cela équivaut à un antécédent satisfait ce qui permet de définir des faits;
22. http://flashinformatique.epfl.ch/spip.php?article1212
51Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
– le conséquent est vide. Cela équivaut à un conséquent insatisfait, l’antécédent ne doit pas être
satisfiable.
SWRL permet de raisonner sur les instances OWL, principalement en termes de classes et de propriétés.
Par exemple, une règle SWRL définir le fait qu’une personne est considérée comme adulte. La règle en
SWRL serait alors: Person(?p), hasAge(?p, ?age), swrlb : greaterT han(?age, 18)− > Adult(?p)
Après avoir introduit les principaux langages d’ontologies, nous présentons dans la section suivante
les outils permettant leur manipulation.
2.4 Les éditeurs d’ontologies
Une autre particularité des ontologies est la présence d’outils facilitant leurs manipulation. Plusieurs
éditeurs ont été proposés dans la littérature, citons à titre d’exemple OilEd 23, PLIBEditor 24, WebODE 25
et Protégé 26. Dans notre travail, nous avons choisi l’utilisation de l’éditeur des ontologies Protégé. Ce
choix est justifié par le grand succès qu’a connu cet éditeur, du fait qu’il est fortement soutenu par les
communautés de développeurs et d’universitaires dans différents domaines.
2.4.0.3 Protégé : est un éditeur d’ontologies distribué en open source développé par l’université en
informatique médicale de Stanford. Il possède une interface utilisateur graphique (GUI) lui permettant
de manipuler aisément tous les éléments d’une ontologie: classe, méta-classe, propriété, instance,etc.
(figure 3.3). Protégé permet aussi de créer ou d’importer des ontologies écrites dans les différents langages
d’ontologies tel que : RDF-Schéma, OWL, DAML, OIL, etc. Cette fonctionnalité est disponible
grâce à l’utilisation de plugins qui sont disponibles en téléchargement pour la plupart de ces langages.
Aujourd’hui, il regroupe une large communauté d’utilisateurs et bénéficie des toutes dernières avancées
en matière de recherche ontologique. Des applications développées avec Protégé sont employées dans
la résolution des problèmes et la prise de décision dans un domaine particulier. Protégé est aussi une
plate-forme extensible, grâce au système de plug-ins, qui permet de gérer des contenus multimédias,
interroger, évaluer et fusionner des ontologies, etc. Il offre ainsi la possibilité de raisonner sur les ontologies
en utilisant un moteur d’inférence général tel que Fact++ 27, JESS 28 ou des outils d’inférence
propres au web sémantique basés sur des logiques de description tels que RACER29
.
Comme nous venons de le voir, différents modèles d’ontologies existent permettant de définir des
ontologies grâce à un éditeur. Pour bien préciser les ontologies utilisées dans cette thèse, nous proposons
dans la section suivante une représentation formelle que nous utilisons par la suite.
23. http://www.xml.com/pub/r/861
24. www.plib.ensma.fr
25. http://mayor2.dia.fi.upm.es/oeg-upm/index.php/en/technologies/60-webode
26. http://protege.stanford.edu/
27. http://owl.man.ac.uk/factplusplus/
28. http://www.jessrules.com/
29. http://www.sts.tu-harburg.de/r.f.moeller/racer/
522. Ontologies de domaine
Figure 3.3 – L’éditeur d’ontologies Protégé.
2.5 Représentation formelle d’une ontologie
Formellement, une ontologie O peut être définie comme un quintuplet [22]:
O :< C, R, Re f(C), Re f(R), F >, où :
– C représente les classes du modèle ontologique.
– R représente les rôles (relationships) du modèle ontologique. Les rôles peuvent être des relations
liant des classes à d’autres classes ou des relations liant des classes aux valeurs de données (comme
Integer, Float, String, etc.)
– Re f(C) : C → (operateur, Exp(C, R)) est une fonction définissant les classes de la TBOX. Ref(C)
associe à chaque classe un opérateur (d’inclusion ou d’équivalence) et une expression, Exp sur
d’autres classes et propriétés. Les expressions définies pour les ontologies OWL basées sur les
logiques de description présentent à notre point de vue un ensemble d’opérateurs complet couvrant
plusieurs formalismes ontologiques. Ces expressions utilisent les opérateurs suivants : opé-
rateurs ensemblistes (intersectionOf ∩, unionOf ∪, complementOf ¬), restrictions de propriétés
(AllValuesFrom ∀p.C, SomeValuesFrom ∃p.C, HasValue 3 p.C) et les opérateurs de cardinalités
(≥ nR.C, ≤ nR.C). Exp peut être la fonction identité qui associe à une classe la même classe
(la classe se définit par elle-même comme la plus grande classe de la hiérarchie "Thing"). Par
exemple, Ref(Student)→ (⊆, Person ∩ ∀ takesCourse(Person, Course).
53Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
– Re f(R) : R → (operateur, Exp(C, R)) est une fonction définissant les propriétés de la TBOX.
Re f(R) associe à chaque propriété un opérateur (d’inclusion ou d’équivalence) et une expression
sur d’autres classes et propriétés. Par exemple :
Ref(GeneralHeadO f) → (≡, (headOf(Person, Person) ◦ headOfDepartement(Person, Department)))
– F représente le formalisme du modèle ontologique adopté comme RDF, OWL, PLIB, etc.
3 Ontologies et l’intégration : application aux sources de données hétérogènes
Comme nous l’avons évoqué dans le chapitre Introduction, les ontologies linguistiques et conceptuelles
ont largement contribué à l’intégration des sources de données hétérogènes. Dans cette section,
nous résumons les travaux d’intégration de sources de données utilisant les ontologies conceptuelles qui
sont conformes aux solutions d’intégration que le laboratoire LIAS a proposées. Les ontologies ont été
utilisées selon trois architectures principales [124] (Figure 3.4) : une architecture avec une seule ontologie,
une avec des ontologies multiples et une hybride. Dans la première architecture, chaque source
référence la même ontologie globale de domaine (le cas du projet OntoDaWA [128] développé à LIAS).
Cette architecture a un sens dans les entreprises donneuses d’ordre (exerçant une autorité). Dans une architecture
à multiples ontologies, chaque source a sa propre ontologie développée indépendamment des
autres (cas du projet OBSERVER [91]). Dans ce cas, les correspondances inter-ontologies sont parfois
difficiles à mettre en oeuvre. Le processus d’intégration des ontologies est fait soit manuellement soit automatiquement
[14]. Pour surmonter les inconvénients des approches simples ou multiples d’ontologies,
une architecture hybride a été proposée dans laquelle chaque source a sa propre ontologie, mais toutes
les ontologies utilisent un vocabulaire partagé commun. Le projet KRAFT [122] est un exemple de cette
architecture.
Dans cette classification, [124] n’a pas considéré l’aspect temporel entre les ontologies locales et
partagée. La prise en compte de ce facteur a fait naitre deux architectures ontologiques d’intégration de
sources de données hétérogènes : (1) intégration sémantique a posteriori, et (2) intégration sémantique a
priori.
3.1 Intégration sémantique a posteriori
Dans l’intégration sémantique a posteriori, chaque source est conforme à une ontologie locale indé-
pendante. Dans ce cas, les ontologies locales aux sources sont développées soit d’une manière totalement
indépendante les unes des autres, soit indirectement à travers une ontologie qui sera partagée par toutes
les ontologies locales. L’étape d’intégration sémantique est donc effectuée de façon manuelle ou semiautomatique.
Dans ce contexte, deux architectures d’intégration d’ontologies sont possibles.
1. L’architecture en réseau : dans cette architecture, la correspondance entre deux ontologies locales
est établie directement de l’une à l’autre (figure 3.5-(a)). Les correspondances entre les différentes
ontologies sont difficiles à mettre en œuvre dans une telle architecture. Pour un système d’inté-
gration contenant n ontologies locales, il faut donc créer [ n×(n−1)
2
] correspondances. Ce nombre
devient vite important et rend cette architecture impraticable si le nombre de sources à intégrer est
543. Ontologies et l’intégration : application aux sources de données hétérogènes
(c) Ontologie hybride.
(a) Ontologie unique. (b) Ontologies multiple.
Ontologie partagée
Ontologie
Locale 1
Ontologie
Locale 2
Ontologie
Locale n
Ontologie globale
S1 S2 Sn
Ontologie
Locale 1
Ontologie
Locale 2
Ontologie
Locale n
S1 S2 …. Sn
….
…. S1 S2 Sn
(c) Ontologie hybride.
(a) Ontologie unique. (b) Ontologies multiple.
Ontologie partagée
Ontologie
Locale 1
Ontologie
Locale 2
Ontologie
Locale n
Ontologie globale
S1 S2 Sn
Ontologie
Locale 1
Ontologie
Locale 2
Ontologie
Locale n
S1 S2 …. Sn
….
…. S1 S2 Sn
Figure 3.4 – Différentes architectures d’intégration à base ontologique.
Ontologie
Locale 1
S1 Sn
Ontologie
Locale 2
Ontologie
Locale n
S2
Ontologie
Locale 2
Ontologie
Locale n
Ontologie
Locale 1
Sn
S1 S2
(a) Architecture en réseau. (b) Architecture en étoile.
…..
Relations sémantiques.
Ontologie partagée
(OP)
Ontologie
Locale 1
S1 Sn
Ontologie
Locale 2
Ontologie
Locale n
S2
Ontologie
Locale 2
Ontologie
Locale n
Ontologie
Locale 1
Sn
S1 S2
(a) Architecture en réseau. (b) Architecture en étoile.
…..
Relations sémantiques.
Ontologie partagée
(OP) Figure 3.5 – Architectures d’intégration sémantique a posteriori.
important. Parmi les systèmes d’intégration qui reposent sur cette architecture, nous pouvons citer
OBSERVER [91].
2. L’architecture en étoile : dans cette architecture, la correspondance entre deux ontologies locales
est établie indirectement via une ontologie référencée (figure 3.5-(b)). Cette ontologie est appelée
l’ontologie partagée. Une ontologie locale n’est mise en correspondance qu’avec l’ontologie partagée,
et seuls les concepts locaux intéressés par le système sont mis en correspondance avec les
concepts de l’ontologie partagée. Pour un système d’intégration contenant n ontologies locales,
55Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
il faut donc créer n correspondances. Ce nombre est nettement plus réduit que de l’architecture
précédente. Parmi les systèmes d’intégration qui reposent sur cette approche, nous pouvons citer
KRAFT[122].
3.2 Intégration sémantique a priori
Dans l’intégration sémantique a priori, il existe une ontologie globale qui peut être utilisée comme
dénominateur commun à tout ce qui a été défini par les sources de données. Le processus d’intégration
consiste soit à créer les ontologies locales qui ne sont pas conçues d’une manière indépendante réfé-
rençant l’ontologie partagée tout en préservant une certaine autonomie, soit à mettre en correspondance
directe les sources avec l’ontologie globale. Deux structures d’intégration d’ontologies sont possibles:
(1) l’architecture avec une ontologie globale commune et (2) l’architecture en étoile a priori.
1. L’architecture avec une ontologie globale commune : dans l’architecture avec une ontologie
globale commune (figure 3.6-(a)), il n’y a qu’une seule et unique ontologie appelée ontologie
globale et chaque source doit référence celle-ci. L’inconvénient majeur de cette approche réside
dans le fait qu’aucun nouveau concept ne peut être ajouté localement à une source sans exiger le
changement de l’ontologie globale. Cette architecture peut être vue comme le cas particulier de
l’architecture précédente où les ontologies locales et l’ontologie globale sont confondues. Elle peut
être assimilée également au cas des bases de données réparties où toutes les sources seraient plus
ou moins développées d’une manière similaire. Parmi les systèmes d’intégration qui reposent sur
l’architecture avec une ontologie globale commune, nous pouvons citer le projet ONTOBROKER
[44].
2. L’architecture en étoile a priori : dans l’architecture en étoile a priori (figure 3.6-(b)), les ontologies
locales sont construites à partir d’une ontologie globale de domaine en référençant a priori
et localement ses concepts. Toutes les ontologies locales utilisent donc un vocabulaire partagé
commun de l’ontologie partagée. L’inconvénient de cette approche est qu’elle n’intègre que les
données dont la sémantique est représentée par l’ontologie globale. L’indépendance des sources
de données ainsi est limitée, par contre, elle intégrer plus facilement une nouvelle source dans le
système si la sémantique de cette source est couverte par l’ontologie globale. Le projet PICSEL
(Production d’Interfaces à base de Connaissances pour des Services En Ligne)[53] est un exemple
de système utilisant l’architecture en étoile a priori.
Une intégration sémantique a priori peut assurer l’automatisation complète du processus d’intégration
si les deux conditions suivantes sont satisfaites [20] :
1. Chaque source doit représenter explicitement la signification de ses propres données ; c’est la notion
d’ontologie locale qui doit exister dans chaque source;
2. Il doit exister une ontologie partagée de domaine, et chaque ontologie locale doit référencer explicitement
l’ontologie partagée pour tous les concepts qu’elle définit et qui sont déjà définis dans
l’ontologie partagée. Ceci définit la totalité des relations sémantiques existant entre les concepts
des ontologies locales et ceux de l’ontologie partagée (articulations).
Sur la base de cette hypothèse, nous pouvons réaliser une intégration automatique des besoins hétérogènes
des utilisateurs. Il s’agit d’utiliser des ontologies conceptuelles dans une perspective d’intégration
sémantique a priori.
564. Les ontologies dans l’IB : état de l’art
Ontologie
Locale 1
S1 Sn
Ontologie
Locale 2
Ontologie
Locale n
S2
(a) Architecture avec une ontologie globale commune. (b) Architecture en étoile.
…..
Ontologie globale
(OG)
S1 S Sn
2 …..
Ontologie globale
(OG) Ontologie
Locale 1
S1 Sn
Ontologie
Locale 2
Ontologie
Locale n
S2
(a) Architecture avec une ontologie globale commune. (b) Architecture en étoile.
…..
Ontologie globale
(OG)
S1 S Sn
2 …..
Ontologie globale
(OG)
Figure 3.6 – Architectures d’intégration sémantique a priori.
4 Les ontologies dans l’IB : état de l’art
Aujourd’hui, plusieurs approches utilisent des ontologies de domaine pour faire face aux problèmes
de l’IB. Breitman et Leite [27] soutiennent que les ontologies devraient être un sous-produit de la phase
de l’IB (figure 3.7). Durant la phase d’élicitation, l’ontologie permet d’assister le concepteur pour identifier
les besoins des différentes parties prenantes. Dans la phase de modélisation, l’ontologie fournit une
représentation formelle offrant des mécanismes suffisamment expressifs pour représenter le modèle des
besoins. L’aspect formel des ontologies permet de modéliser explicitement les besoins des utilisateurs
d’une manière automatique et interprétable par la machine. L’utilisation d’une ontologie de domaine
dans la phase d’analyse des besoins contribue à assurer une spécification correcte, complète et vérifiable
des besoins. Selon [32], les utilisations potentielles des ontologies dans le processus d’IB comprennent :
(i) la représentation du modèle des besoins, en imposant et en permettant notamment leurs structuration,
(ii) les structures d’acquisition des connaissances du domaine et (iii) la connaissance du domaine
d’application.
Les ontologies quelques soient leurs natures (linguistiques ou conceptuelles) ont contribué sur les
deux phases de l’IB à savoir : l’analyse des besoins et l’intégration des besoins. Dans la section suivante,
nous détaillons les travaux relatifs à ces deux aspects.
4.1 L’analyse des besoins
Parmi les problèmes lies à l’IB cités précédemment se trouve le risque de présence des incohérences
et des ambiguïtés sémantiques. Ces dernières apparaissent lors de l’identification, l’analyse et l’évolution
des besoins provenant de multiples utilisateurs et de sources. Les travaux existants couvrant la phase
d’analyse utilisent soit une ontologie linguistique soit une ontologie conceptuelle (cf. section 2.2).
1. Travaux dirigés par des ontologies linguistiques : dans ces travaux, nous pouvons citer les travaux
suivants :
57Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
Élicitation
Modélisation
Analyse
Validation
G
e
s
t
i
o
n
Ontologie
Élicitation
Modélisation
Analyse
Validation
G
e
s
t
i
o
n
Ontologie
Figure 3.7 – Contributions des ontologies dans l’IB.
– Kaiya et al. [75] : proposent une méthode d’analyse sémantique des besoins basée sur une ontologie
de domaine. Des correspondances sont établies entre les spécifications des besoins et
l’ontologie représentant les composants sémantiques. Dans ce travail, le système d’ontologie
se compose d’un thésaurus et règles d’inférence. Le thésaurus comprend des concepts et des
relations convenables pour le traitement sémantique du domaine. Cette méthode permet : (1)
la détection d’incomplétude et d’incohérence inclues dans un cahier des charges, (2) la mesure
de la qualité d’un cahier des charges par rapport à sa signification et (3) la prévision des
changements futures des besoins en se basant sur une analyse sémantique de l’historique des
changements.
– Sven et al. [81] : proposent une approche ontologique visant à améliorer le langage naturel pour
spécifier les besoins. Les auteurs proposent un outil, appelé RESI (Requirements Engineering
Specification Improver) pour aider les analystes des besoins à définir des besoins textuels. RESI
identifie les lacunes linguistiques et propose un système de dialogue qui fait des suggestions afin
d’améliorer la qualité des besoins en marquant les besoins ambigüs et erronés. Pour cette tâche,
RESI utilise l’information sémantique supplémentaire donnée par l’ontologie.
2. Travaux dirigés par des ontologies conceptuelles :
– Greenspan [60] : a proposé, dans le début des années 80, un langage de modélisation des
besoins appelé RML (Requirements Modelling Language). Ce langage a donné lieu à de nombreux
travaux d’utilisation des ontologies dans le domaine de l’IB. RML a été développé selon
les principes suivants : (1) L’écriture des besoins et leurs spécifications fonctionnelles doivent
584. Les ontologies dans l’IB : état de l’art
être fournies. (2) Les besoins doivent être élaborés et présentés sous forme de modèles. (3) En
se basant sur les deux points précédents, des modèles conceptuels devraient être développés.
(4) L’abstraction et le raffinement sont importants dans l’IB. (5) Les langages de modélisation
formelle des besoins sont nécessaires. RML défini son propre langage ontologique pour
la modélisation des besoins. En RML, les modèles sont construits et regroupés en classes, qui
représentent des instances de méta-classes.
– Motoshi et al : présentent un outil AGORA (Attributed Goal-Oriented Requirements Analysis)
pour l’analyse des besoins orientés buts [110]. Une ontologie de domaine a été utilisée dans
cet outil pour assister l’utilisateur afin de décomposer, raffiner, ajouter et supprimer des buts
(Goals). L’utilisation d’une ontologie dans cet outil permet aussi de détecter les relations de
conflits entre les buts.
Nous savons que les ontologies conceptuelles fournissent une représentation formelle des connaissances
et des relations entre concepts. Par conséquent, elles peuvent également être exploitées pour
raisonner sur les objets du domaine concerné. Elles permettent ainsi des raisonnements automatiques
ayant pour objet soit d’effectuer des vérifications de consistance, soit d’inférer de nouveaux
faits. Afin de faciliter la phase de raisonnement, des éditeurs d’ontologies munis de moteurs d’inférence
ont été proposés (Pellet, Racer, etc.). Ceci montre l’intérêt majeur porté au processus de
raisonnement sur les ontologies conceptuelle et les dispositifs offerts pour la réalisation de ce dernier.
Plusieurs travaux ont utilisé les ontologies conceptuelles pour raisonner sur les besoins des
utilisateurs. Nous décrivons ci-dessous les principaux travaux sur ce thème.
– Siegemund et al. [112] : proposent un méta-modèle ontologique orienté buts. L’idée présentée
dans ce travail est d’utiliser une ontologie pour structurer les concepts et les relations sémantiques
entre les buts lors de la phase d’élicitation. Cette phase permet de raisonner sur les buts
en se basant sur la sémantique formelle. L’approche combine les capacités de raisonnement de
l’ontologie OWL pour permettre la vérification de la cohérence et de la complétude des besoins
aux cours du processus de l’IB. L’ontologie des besoins présentés dans ce travail est composée
de deux concepts principaux: But et Besoin. Le principal inconvénient de cette approche
est l’aspect consensuel qui caractérise les ontologies. L’ontologie des besoins présentée dans
ce travail n’est pas générique par rapport au lanagage de modélisation utilisé et elle n’est pas
consensuelle.
– Dzung et al. [48] : proposent une méthode de raisonnement à base ontologique dans la phase
d’élicitation des besoins. L’idée présentée dans ce travail est d’utiliser l’ontologie de domaine
pour structurer les concepts et les relations sémantiques entre les besoins lors de la phase d’élicitation.
Les auteurs commencent par la définition d’une structure ontologique qui contient les
connaissances des besoins fonctionnels et les relations entre eux. Ensuite ils proposent un framework
pour éliciter les besoins en utilisant l’ontologie. En premier lieu des correspondances
(mapping) sont établies entre les fonctions des besoins et l’ontologie de domaine. Après cette
étape, des règles d’inférence sont utilisées pour raisonner sur les besoins afin de détecter les
incohérences entre eux. Dans ce travail, les auteurs proposent également un outil de vérification
des besoins reposant sur cette méthode.
– Goknil et al. [56, 55] : proposent un méta-modèle générique de besoins appelé core metamodel
et une approche pour adapter ce méta-modèle afin de soutenir les différentes techniques de
59Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
spécification des besoins. Le méta-modèle représente les concepts communs extraits de certaines
approches courantes. Les auteurs présentent des définitions et une formalisation des relations
sémantiques (requires, refines, conflicts et contains) dans le méta-modèle. Sur la base de cette
formalisation, les analystes peuvent effectuer des raisonnements sur les besoins pour détecter les
relations implicites et les incohérences. Un outil appelé (TRIC) 30 est développé basé sur une
ontologie OWL. Les différentes règles de formalisations des relations sont implémentées avec
Jena (un raisonneur OWL) afin de détecter les relations implicites et les incohérences entre les
besoins.
Nous notons que, dans ces études, les ontologies sont utilisées comme des référentiels de stockage
des besoins et non comme des ontologies de domaine, où les concepteurs peuvent choisir leurs
concepts et leurs propriétés afin de définir leurs besoins parmi l’ensemble des concepts définis
dans l’ontologie (qui joue ainsi le rôle de dictionnaire ou catalogue) Une autre dimension ignorée
par ces travaux est le passage à l’échelle des besoins dans leurs approches de raisonnement, ce qui
peut être considérée comme un problème important dans les grandes entreprises.
4.2 L’intégration des besoins
Le problème d’intégration des besoins est un nouveau domaine, de ce fait il n’existe pas beaucoup
de travaux impliquant les ontologies. En explorant la literature, nous avons identifie que les ontologies
conceptuelles qui ont été utilisées pour répondre à ce problème [85]. Les auteurs de ce travail proposent
un Framework (Onto-ActRE) Ontology-based Active Requirements Engineering . Le framework adopte
une approche intensive pour éliciter, représenter et analyser la diversité des facteurs associés aux systèmes
étendus. Onto-ActRE soutient la collaboration entre plusieurs techniques de modélisation de l’IB
(orientée but, scénarios, etc) en exploitant l’expressivité des ontologies de manière structurée afin de faciliter
l’élicitation, la spécification et la modélisation des besoins. Ce framework fournit un moyen pour
comprendre et évaluer les effets des fonctions et des contraintes du système en fonction des concepts,
des propriétés et des relations entre les concepts. Une sémantique complémentaire est fournie par une
ontologie dans un processus (Problem Domain Ontology, PDO) qui DONNE la définition d’un langage
commun pour faciliter la collaboration entre les parties prenantes du système et pour permettre également
l’interaction entre les différentes techniques de modélisation des besoins.
Les inconvénients principaux de ce travail sont les suivants : (1) Ce framework n’offre pas une autonomie
aux parties prenantes du système pour modéliser leurs besoins avec une technique souhaitée. (2)
L’ontologie des besoins présentée dans ce travail est utilisée comme référentiel de stockage des besoins
et non comme une ontologie de domaine et ne couvre donc pas toute la sémantique du domaine.
4.3 Ontologies, besoins et le cycle de vie de conception
Dans cette section, nous mettons l’accent sur un travail récent [115] publié dans ACM Transactions
on Database Systems concernant le rôle des ontologies dans la conception de bases de données. Ce
travail est considéré comme le seul à avoir contribué sur les trois aspects que nous avons évoqués dans
cette thèse : les ontologies, les besoins et le cycle de vie de conception de bases de données.
30. Tool for Requirements Inferencing and Consistency Checking (TRIC) from http://trese.cs.utwente.nl/tric/
605. Conclusion
Les auteurs de cette contribution ont proposé un véritable outil d’aide à la modélisation conceptuelle
(une phase du cycle de vie de conception de bases de données avancées) à partir d’ontologies de domaine.
L’approche proposée permet aussi la validation de modèles conceptuels existants par rapport à
une ontologie du même domaine. L’approche suivie est une approche linguistique dans laquelle, à partir
d’une expression en langage naturel du cahier des charges de l’application et du choix d’ontologie(s) de
domaine, le système analyse les termes du cahier des charges (l’ensemble des besoins) et, par référence
à l’ontologie, suggère différents éléments à introduire dans le modèle conceptuel. Afin de rendre la mé-
thode plus efficace, les auteurs proposent d’ajouter à l’ontologie des contraintes d’intégrité existentielles
permettant de raisonner sur le modèle conceptuel.
4.4 Synthèse
L’IB a un grand impact sur le succès ou l’échec d’un projet informatique. Cependant, l’acquisition, la
spécification et l’évolution des besoins de différents acteurs et d’une variété de sources conduit souvent
à des besoins incomplets et ambigus. Par conséquent, la capacité à détecter et à réparer les besoins
incohérents et incomplets est cruciale pour le succès de la modélisation et la spécification des besoins.
Les ontologies sont bien adaptées pour résoudre les problèmes et les lacunes qui peuvent survenir lors de
la mise en œuvre de l’IB. En effet, elles ont démontré leur efficacité pour la spécification, l’unification, la
formalisation et le raisonnement sur les besoins. L’utilisation d’une ontologie de domaine est utile pour
faciliter la communication et la collaboration entre les parties prenantes du système. En effet, l’ontologie
peut servir de vocabulaire précis et partagé, pour définir la sémantique des besoins à l’aide de concepts
communs, formalisés et référençables.
Généralement, la plupart des études citées précédemment traitent un seul niveau d’hétérogénéité
(vocabulaire ou langages de modélisation). Dans cette thèse, nous proposons de résoudre cette problé-
matique en mettant en place une approche ontologique d’intégration des besoins hétérogènes. Cette hé-
térogénéité concerne à la fois les vocabulaires et les langages de modélisation des besoins identifiés lors
de la phase d’expression des besoins. La littérature nous a montré l’intérêt des ontologies et des besoins
sur la modélisation conceptuelle de données [115], dans le cadre de cette thèse nous proposons d’étendre
ces deux concepts à une autre phase, à savoir la modélisation physique.
5 Conclusion
Dans ce chapitre, nous avons réalisé une étude approfondie sur les ontologies de domaine afin de
définir et de déterminer précisément leurs apports dans le domaine de l’IB. Les ontologies étant des
modèles permettant d’expliciter la sémantique d’un domaine d’étude, elles sont donc, une solution pertinente
pour résoudre l’hétérogénéité sémantique entre les besoins des utilisateurs. En effet, l’ontologie
peut fournir un vocabulaire précis et partagé pour définir la sémantique des besoins à l’aide des concepts
communs, formalisés et référençables. D’une manière générale, les utilisations potentielles des ontologies
dans le domaine de l’IB comprennent la représentation, la spécification et la collaboration. Une autre
caractéristique des ontologies est leur capacité de raisonnement qui peut être utilisée pour identifier les
besoins conflictuels et contradictoires.
Dans notre travail, nous traitons les différents problèmes liés à l’hétérogénéité identifiée lors de la
61Chapitre 3. Les ontologies au service de l’Ingénierie des Besoins
phase d’élicitation et de modélisation des besoins. Notre approche se basant sur l’intégration à l’aide
d’ontologie, dont l’intérêt et la pertinence ont été bien illustrés à travers ce chapitre. Nous présentons un
état de l’art sur cette technique dans le chapitre suivant.
62Deuxième partie
Contributions
63Chapitre 4
Unification des vocabulaires et des langages de modélisation
des besoins
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2 Nos hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3 Unification des vocabulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.1.1 Le modèle Orienté buts . . . . . . . . . . . . . . . . . . . . . . 70
3.1.2 Le modèle des cas d’utilisation . . . . . . . . . . . . . . . . . 72
3.1.3 Le Modèle Conceptuel de Traitements (MCT) . . . . . . . . . 73
3.2 Couplage des modèles utilisés avec l’ontologie . . . . . . . . . . . . . . 76
3.2.1 Méta-modèle de l’ontologie partagée . . . . . . . . . . . . . . 76
3.2.2 Couplage des trois langages proposés avec les ontologies locales 77
4 Unification des langages de modélisation des besoins . . . . . . . . . . . . . . 81
4.1 Proposition d’un modèle pivot des besoins . . . . . . . . . . . . . . . . . 82
4.2 Couplage de modèle pivot à l’ontologie . . . . . . . . . . . . . . . . . . 83
5 Un exemple d’utilisation de notre méthode d’intégration . . . . . . . . . . . . 85
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
65Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
Résumé. Dans ce chapitre, nous détaillons notre première contribution consistant à unifier
les vocabulaires et les langages hétérogènes [25]. Pour la partie vocabulaire, nous proposons
aux concepteurs d’utiliser une ontologie de domaine qui joue le rôle d’un dictionnaire. Pour
la partie langages, nous suivons une démarche par l’exemple. Cela est justifié par la diversité
des langages de modélisation des besoins existants. Comme nous l’avons indiqué dans l’état
de l’art, il existe trois catégories de langages : informels, semi formels, et formels. Dans
chaque catégorie, une large panoplie de langages existe. Due à cette diversité, nous avons
opté pour l’utilisation de la catégorie semi-formelle dans laquelle nous avons considéré trois
langages : le modèle use case d’UML, le modèle orienté buts (goal-oriented) et le modèle
de traitement (MCT) de la méthode Merise. Cela du fait qu’ils sont très utilisés dans le
domaine industriel et académique. Après une étude approfondie de chaque langage, leurs
méta modèles sont définis et le couplage avec un méta modèle de l’ontologie est établi.
Finalement, un modèle pivot compilant les trois langages est dégagé avec le couplage de
l’ontologie de domaine.
661. Introduction
1 Introduction
Depuis la naissance des besoins d’intégration, l’hétérogénéité des modèles est devenue une des problématiques
ayant suscité beaucoup de travaux de recherche. En effet, nous constatons que les concepteurs
dans différents domaines (bases de données, services, etc.) n’ont pas pensé que leurs modèles seront
un jour intégré (voir la figure 3.1). Le jour où les entreprises commencent à s’intéresser à l’intégration,
les concepteurs se trouvaient face à des hétérogénéités de deux types : syntaxique/sémantique et langagière.
Concernant les hétérogénéités de type syntaxique et sémantique, les ontologies de domaine ont
largement contribué à les résoudre, notamment dans le cadre d’intégration des besoins. D’un autre coté,
un ensemble de modèles pivots ont été proposés pour faire face à l’hétérogénéité langagière. Le rôle d’un
modèle pivot est d’assurer une équivalence sémantique entre les différents modèles.
Langage formel
Concepteur (1)
Langage de semiformel
Vocabulaire (1)
…
…
utilise
utilise
utilise
Besoins des utilisateurs
hétérogènes
Incohérents
Ambigus
Incomplets
Collection &
Analyse
Concepteur (2)
Concepteur (n)
Langage informel
Vocabulaire (2)
Vocabulaire (n)
Non vérifiables
…
Multi-designer, Multi-vocabulary and
Multi-Modeling language
Langage formel
Concepteur (1)
Langage de semiformel
Vocabulaire (1)
…
…
utilise
utilise
utilise
Besoins des utilisateurs
hétérogènes
Incohérents
Ambigus
Incomplets
Collection &
Analyse
Concepteur (2)
Concepteur (n)
Langage informel
Vocabulaire (2)
Vocabulaire (n)
Non vérifiables
…
Multi-designer, Multi-vocabulary and
Multi-Modeling language
Figure 4.1 – Hétérogénéité des vocabulaires et des langages de modélisation des besoins.
Pour présenter nos contributions, nous commençons par définir quelques hypothèses suivies par
l’analyse de trois modèles d’expression des besoins afin de comprendre leurs principes et fonctionnement.
Cette analyse nous permet de méta-modéliser ces langages de besoins. Cette méta-modélisation
permet d’instancier n’importe quel modèle de besoin exprimer à l’aide d’un langage étudié. Un modèle
pivot est alors proposé à partir des trois modèles étudiés. Pour établir des ponts entre le modèle pivot et
les trois modèles utilisés, des transformations de type modèle-vers-modèle sont définies.
67Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
Ce chapitre est organisé comme suit. Dans la section 2, nous présentons nos hypothèse afin d’élaborer
notre approche d’intégration. Dans la section 3, nous présentons notre méthode unifiant les vocabulaires.
Par la suite, dans la section 4, nous présentons notre méthodes afin d’unifier les langages de d’expression
des besoins. Avant de conclure le chapitre, nous présentons un exemple d’utilisation de notre approche
d’intégration.
2 Nos hypothèses
Deux hypothèses majeures sont considérées pour l’élaboration de notre approche.
1. L’existence d’une ontologie partagée (OP) qui précède la conception de l’application cible.
2. Chaque concepteur extrait un fragment de l’ontologie partagée (appelée Ontologie Locale (OL)).
Afin de garder son autonomie, le concepteur peut étendre son ontologie locale en ajoutant des
concepts et des propriétés qui n’existent pas dans l’ontologie partagée [20].
L’extraction de l’ontologie locale se fait selon une méthode de modularité, qui permet d’extraire une
ontologie à partir d’une autre, tout en assurant la complétude et la cohérence de l’ontologie extraite. Trois
scénarii d’extraction sont possibles :
1. OL ≡ OP : l’ontologie partagée correspond exactement aux besoins des concepteurs. L’expression
des besoins en termes de classes, de propriétés ainsi que des fonctions (Ref) coïncide exactement avec la
description de l’ontologie globale. Autrement dit, la description de l’ontologie locale correspond parfaitement
à la description de l’ontologie partagée.
Formalisation 1
OLi
:< COLi, ROLi,Re f(C)OLi,Re f(R)OLi,FOLi >, avec:
– COLi ≡ COP.
– ROLi ≡ ROP.
– Re f(C)OLi ≡ Re f(C)OP.
– Re f(R)OLi ≡ Re f(R)OP.
2. OL ⊆ OP : l’ontologie locale est extraite à partir de l’ontologie partagée et couvre tous les besoins
des utilisateurs. En effet, la description des besoins en termes de concepts ontologiques décrit un
fragment de l’ontologie globale. Plusieurs méthodes et mécanismes de modularité ont été proposés et
définis selon le formalisme d’ontologie utilisé, comme l’opérateur Case-of pour le langage PLIB. Ainsi,
OL ⊆ OP signifie que:
Formalisation 2
OLi
:< COLi, ROLi,Re f(C)OLi,Re f(R)OLi,FOLi >, avec:
– COLi ⊆ COP.
– ROLi ⊆ ROP.
– Re f(C)OLi ⊆ Re f(C)OP.
– Re f(R)OLi ⊆ Re f(R)OP.
683. Unification des vocabulaires
3. OL ⊇ OP : le sous-ensemble de concepts (classes et propriétés) importé de l’ontologie partagée
ne couvre pas tous les besoins des utilisateurs. Ce sous-ensemble nécessite en général d’être enrichi et
spécialisé pour répondre aux objectifs applicatifs spécifiques. Ainsi, le concepteur peut, si l’ontologie
partagée ne couvre pas de façon suffisamment détaillée le domaine de son application, étendre l’ontologie
locale par ajout de nouvelles classes et/ou de nouvelles propriétés. Les concepts et propriétés
pourront aussi être renommés pour mieux refléter le contexte applicatif. Notons que ce renommage est
sans conséquence car chaque concept de chaque ontologie est associé à un unique identifiant et que les
relations formelles sont des relations entre identifiants. Ainsi, OL ⊇ OP signifie que :
Formalisation 3
OLi
:< COLi, ROLi,Re f(C)OLi,Re f(R)OLi,FOLi >, avec:
– COLi ⊇ COP.
– ROLi ⊇ ROP.
– Re f(C)OLi ⊇ Re f(C)OP.
– Re f(R)OLi ⊇ Re f(R)OP.
Exemple 3
La figure 4.2 présente un exemple de définition d’une ontologie locale à partir de l’ontologie globale
LUBM. Dans un premier temps, nous définissons OL par l’importation d’un ensemble de classes couvrant
une partie des besoins du concepteur. Dans un deuxième temps, les besoins non couverts sont
traités par l’ajout de nouveaux concepts. Par exemple, les concepts décrivant les étudiants diplômés
(DegreeStudent), étudiants sans diplôme (Non-degreeStudent) et la propriété (Degree) ne sont pas dé-
finis à travers l’ontologie globale (DegreeStudent, Non-degreeStudent, Degree) < CLUBM ∪ RLUBM.
Par conséquent, ces deux classes et leurs propriétés, sont rajoutées au niveau de l’ontologie locale.
De plus, la description de la classe étudiant (Student) est modifiée de manière à ce qu’elle soit dé-
finie comme l’union des étudiants diplômés (DegreeStudent) et des étudiants sans diplôme (Non_-
degreeStudent). L’ontologie locale sera complétée comme suit.
– COL = {Person, Student, DegreeStudent, Non-degreeStudent}
– ROL = {PersonId, Name, Age, Marks, Degree }
– Re f(C)OL = {Ref(Student)→ (⊆, Person ∩ ∀ takesCourse(Person, Course))}.
– la définition de la classe étudiant Student est modifiée de la manière suivante : S tudent ≡
DegreeS tudent ∪ Non − degreeS tudent.
3 Unification des vocabulaires
Maintenant nous avons tous les ingrédients pour proposer notre méthode unifiant les vocabulaires.
Pour cela, nous considérons une étude de cas de trois langages qui sera détaillée dans la section suivante.
Pour chaque cas, nous donnerons une formalisation détaillée et un exemple.
69Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
Person
Student Employee
Person
Student
Name
Marks
PersonId
Age
Age
Ontologie Globale (OG)
Ontologie Locale (OL)
Concept
Concept
importé
Propriété
importée
Importer
Héritage
Concepteur
PersonId
Name
Marks
DegreeStudent Non-degreeStudent
Degree
Concept
ajouté
Propriété
ajoutée
Person
Student Employee
Person
Student
Name
Marks
PersonId
Age
Age
Ontologie Globale (OG)
Ontologie Locale (OL)
Concept
Concept
importé
Propriété
importée
Importer
Héritage
Concepteur
PersonId
Name
Marks
DegreeStudent Non-degreeStudent
Degree
Concept
ajouté
Propriété
ajoutée
Figure 4.2 – Exemple d’extraction de l’ontologie locale.
3.1 Étude de cas
Comme nous l’avons déjà évoqué, nous considérons une étude de cas comprenant trois langages
de modélisation des besoins appartenant à la famille semi formelles, à savoir orienté buts (Goal oriented),
Cas d’utilisation UML, et MERISE (Modèle conceptuel de traitements, MCT). Pour rester dans
le contexte d’une entreprise étendue, nous supposons que les trois langages de besoins sont exprimés
respectivement par trois départements différents dont l’origine est l’Espagne, l’Angleterre et la France.
L’ontologie partagée dans cette étude de cas représente l’ontologie du banc d’essai LUBM [62] (voir la
figure 4.3). Elle comporte différentes classes relatives au domaine universitaire (Person, Student, Course,
etc.).
Pour faciliter la compréhension de notre proposition, nous détaillons dans les sections suivantes
l’ensemble de trois modèles utilisés.
3.1.1 Le modèle Orienté buts
Comme nous l’avons vu dans le chapitre 2, différents modèles orientés buts existent. Aussi, après une
analyse des approches orientées buts, nous avons proposé notre modèle de besoin dirigé par les buts, qui
se veut un modèle pivot des approches étudiées (KAOS, IStar, et Tropos) et qui repose sur le paradigme
GQM (Goal/Question/Metric).
Le modèle orienté but (Goal-oriented) pivot est formalisé comme suit :
703. Unification des vocabulaires
Figure 4.3 – Une partie de l’ontologie University proposée par le benchmark LUBM.
Formalisation 4
Goalmodel: < Actor, Goal, Goalrelationships >, où :
– Actor : {actor1, actor2, ..., actorn} est l’ensemble des acteurs interagissant avec le système
pour répondre au but.
– Goal : {goal1, goal2, ..., goaln} est l’ensemble des buts exprimés par un acteur (ex: le concepteur).
Un but représenté par le triplet : Goal: < T,R,M >, où :
– T = {t1, t2, ..., tn} est l’ensemble des tâches qu’un système effectue pour atteindre un but.
∀ti ∈ T, ∃pj ⊆ P, tel que f(ti) = pj
, où pj ∈ {p1, p2, ..., pn} est l’ensemble des propriétés
satisfaites par un système. Ici, f(ti) = pj est une fonction qui représente l’ensemble des
propriétés pj définissant ti
.
– R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système.
– M = {m1, m2, ..., mn} est l’ensemble des métriques, formelles ou semi-formelles, selon lesquelles
un résultat est quantifié.
– Goalrelationships = {relation1,relation2, ...,relationn} est l’ensemble des relations entre les buts.
Goalrelationships = (AND/OR decomposition, Contains, Requires, Refines, Conflicts and Equivalence).
Exemple 4
La figure 4.4 présente un modèle de buts utilisé par le concepteur Espagnol pour exprimer ses be-
71Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
soins. Considérons le besoin : "El sistema permitirá a la administración para eliminar toda la información
de los estudiantes mayores de 40 años", en Français "Le système doit permettre à l’administration
de supprimer les informations des étudiants ayant plus de 40 ans".
Ce but est décrit par les attributs suivants : un identifiant id (001), un nom (But G1.1), une description,
un contexte (Universitaire) et une priorité. On distingue deux types de priorité : obligatoire
et optionnelle.
Eliminar toda la información de los estudiantes
mayores de 40 años
Eliminar la información
personal
Eliminar la información
escolar
Administración
Eliminar el
nombre
Eliminar
la edad
Eliminar la fecha
de nacimiento
Eliminar notas
name
edad notas
Eliminar curso
curso
Tâche
Propriété
Estudiante de edad > 40 años
(Y (AND)
Calcular la edad
Universidad
Sous But
But
nacimiento
Eliminar toda la información de los estudiantes
mayores de 40 años
Eliminar la información
personal
Eliminar la información
escolar
Administración
Eliminar el
nombre
Eliminar
la edad
Eliminar la fecha
de nacimiento
Eliminar notas
name
edad notas
Eliminar curso
curso
Tâche
Propriété
Estudiante de edad > 40 años
(Y (AND)
Calcular la edad
Universidad
Sous But
But
nacimiento
Figure 4.4 – Exemple de modèle orienté buts modélisant les besoins du concepteur Espagnol.
Ce besoin est formalisé de la manière suivante.
– Tâches (T) = {Eliminar notas, Eliminar curso, Eliminar el nombre, Eliminar la fecha de nacimiento,
Eliminar la edad, Calcular la edad}, tel que les Propriétés (P) = {notas, curso, nombre,
fecha de nacimiento, edad} sont satisfaites.
– Resultats (R) = {Información estudiantes eliminados}.
– Métriques (M) = {Edad > 40 años}.
3.1.2 Le modèle des cas d’utilisation
Selon la définition donnée par Jacobson, Un cas d’utilisation est une description d’un ensemble de
séquences d’actions, incluant des variantes, qu’un système effectue pour fournir un résultat observable
et ayant une valeur pour un acteur[68].
723. Unification des vocabulaires
Le modèle des cas d’utilisation peut être formalisé comme suit :
Formalisation 5
UCmodel: < Actor, UseCase, Relationship >, où :
– Actor = {actor1,actor2,...,actorn} est l’ensemble des acteurs qui interagissent avec le système
pour répondre au cas d’utilisation.
– UseCase = {case1,case2,...,casen} est l’ensemble des cas d’utilisation (Use cases) exprimés
par un acteur (ex : le concepteur). Un cas d’utilisation est représenté comme suit : U seCase:<
A,R, Ep, Cdt >, où :
– A = {a1, a2, ..., an} est l’ensemble d’actions qu’un système effectue pour fournir un résultat.
∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj
, où pj ∈ {p1, p2, ..., pn} est l’ensemble des propriétés
satisfaites par un système. Ici, f(ai) = pj est une fonction qui représente l’ensemble des
propriétés pj définissant ai
.
– R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système.
– Ep = {ep1, ep2, ..., epn} est l’ensemble des points d’extension.
– Cdt = {cdt1, cdt2, ..., cdtn} est l’ensemble des conditions.
– Relationships = {relation1,relation2,...,relationn} est l’ensemble des relations entre les cas
d’utilisation. Ces relations sont de trois types: (i) les relations d’inclusion, (ii) les relations
d’extension et (iii) les relations de généralisation.
Exemple 5
La figure 4.5 présente un modèle des cas d’utilisation utilisé par le concepteur Anglais pour exprimer
ses besoins. Considérons le besoin: "The system shall allow the administration to delete information
of all students older than 40 years", en Français "Le système doit permettre à l’administration de
supprimer les informations des étudiants ayant plus de 40 ans". Ce besoin est un cas d’utilisation dé-
crit par les attributs suivants : un identifiant id (001), un nom (Ucas1.1), une description, un contexte
(Universitaire) et une priorité. On distingue deux types de priorité: obligatoire et optionnelle.
Suivant la formalisation précédente, ce besoin est décrit par :
– Action (A) = {Delete marks, Delete courses, Delete name, Delete birth day, Delete age, Delete
weight}, tel que les Propriétés (P) = {marks, courses, name, birth day, age, weight} soient satisfaites.
– Résultat (R) = {Students information deleted}.
– Point d’extension Ep = {Calculate age}.
– Condition Cdt = {age > 40}.
3.1.3 Le Modèle Conceptuel de Traitements (MCT)
Selon la définition donnée par Pierre [99], un Modèle Conceptuel de Traitements (MCT) est une
succession de traitements déclenchés par des événements et qui donnent naissance à de nouveaux évé-
nements. Un traitement (opération) est une suite d’actions réalisées en vue d’obtenir un résultat. Dans
notre travail, nous nous intéressons à l’utilisation du MCT pour l’expression des besoins utilisateurs.
Le modèle de traitements peut être formalisé comme suit :
73Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
« Include »
Delete studies information
- Delete age
- Delete name
- Delete birth day
Delete information of all students
older than 40 years
- Delete marks
- Delete courses
Actions
Administration
Actions
University
Calculate age
Delete personal information
Extension Points: execute actions
Condition: if age > 40
Extension Point: execute actions
« Extend »
- Delete weight
« Include »
Properties
Properties
Use case
« Include »
Delete studies information
- Delete age
- Delete name
- Delete birth day
Delete information of all students
older than 40 years
- Delete marks
- Delete courses
Actions
Administration
Actions
University
Calculate age
Delete personal information
Extension Points: execute actions
Condition: if age > 40
Extension Point: execute actions
« Extend »
- Delete weight
« Include »
Properties
Properties
Use case
Figure 4.5 – Exemple de modèle de cas d’utilisation modélisant les besoins du concepteur Anglais.
Formalisation 6
MCTmodel: < Actor, Event, Traitement, Synchronization >, où :
– Actor = {actor1,actor2,...,actorn} est l’ensemble des acteurs qui interagissent avec le système.
– Event = {event1,event2,...,eventn} est l’ensemble des événements.
– Traitement = {traitement1,traitement2,...,traitementn} est l’ensemble des traitements accomplies
par le système. Un traitement est représenté par le triplet : T raitement:< A,R, Emr >,
où :
– A = {a1, a2, ..., an} est l’ensemble d’actions qu’un système exécute en réponse à un évé-
nement. ∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj
, où pj ∈ {p1, p2, ..., pn} est l’ensemble
des propriétés satisfaites par un système. Ici, f(ai) = pj est une fonction qui représente
l’ensemble des propriétés pj définissant ai
.
– R = {r1,r2, ...,rn} est l’ensemble des résultats créés par un traitement qui peut lui-même
jouer le rôle d’événement.
– Emr = {emr1,emr2,...,emrn} est l’ensemble des règles d’émission emission rules qui permettent
d’exprimer des conditions de sortie des résultats.
– Synchronization = {synch1,synch2,...,synchn} est l’ensemble des synchronisation (ET/OU) qui
déclenchent un ou plusieurs traitements.
743. Unification des vocabulaires
Exemple 6
La figure 4.6 présente un modèle conceptuel de traitements utilisé par le concepteur Français pour
exprimer ses besoins. Considérons le besoin : "Le système doit permettre à l’administration de supprimer
toutes les informations des étudiants ayant plus de 40 ans". Ce besoin est un événement décrit
par les attributs suivants : un identifiant id (001), un nom (Event 1.1), une description, un contexte
(Universitaire) et une priorité. On distingue deux types de priorité : obligatoire et optionnelle.
Supprimer toutes les informations des
étudiants ayant plus de 40 ans
Supprimer les informations scolaires
- Supprimer les notes
- Supprimer les cours
Supprimer les informations personnelles
Âge = < 40
- Supprimer le nom
- Supprimer la date de naissance
- Calculer l’âge
Informations
personnelles supprimées
Rejeté
Actions
Université
Âge > 40
Informations scolaires
supprimées
Propriétés
Rejeté
OK OK
ET
Administration
Evénement
Supprimer toutes les informations des
étudiants ayant plus de 40 ans
Supprimer les informations scolaires
- Supprimer les notes
- Supprimer les cours
Supprimer les informations personnelles
Âge = < 40
- Supprimer le nom
- Supprimer la date de naissance
- Calculer l’âge
Informations
personnelles supprimées
Rejeté
Actions
Université
Âge > 40
Informations scolaires
supprimées
Propriétés
Rejeté
OK OK
ET
Administration
Evénement
Figure 4.6 – Exemple de modèle de traitements modélisant les besoins du concepteur Français.
Suivant la formalisation précédente, ce besoin est décrit par :
– Action (A) = {Supprimer le nom, Supprimer la date de naissance, Calculer l’âge, Supprimer les
notes, Supprimer les cours}, tel que les Propriétés (P) = {nom, date de naissance, âge, notes,
cours} soient satisfaites.
– Résultat (R) = {Informations des étudiants supprimées}.
– Règle d’émission (Emr) = {Âge > 40}.
75Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
3.2 Couplage des modèles utilisés avec l’ontologie
Pour réaliser le couplage entre les trois modèles étudiés et l’ontologie, nous utilisons les techniques
de la méta-modélisation. Cette dernière nous permis de définir les concepts à utiliser pour modéliser
les besoins des utilisateurs. Nous proposons d’étendre le méta-modèle d’ontologie par des méta-classes
constituant le méta-modèle des besoins (voir la figure 4.7). Ensuite en liant les coordonnées de cette
classe avec les méta-classes ontologiques (Concepts et propriétés). Nous utilisons le terme (Domaine)
pour désigner les ressources de l’ontologie (concepts et propriétés) qui peuvent être utilisées pour définir
le besoin.
Ingénierie des
Besoins (IB)
Métamodèle des besoins
Modèle des besoins
Métamodèle d’ontologie
Modèle d’ontologie
Domaine de
connaissance
Instance de Instance de
Ingénierie des
Besoins (IB)
Métamodèle des besoins
Modèle des besoins
Métamodèle d’ontologie
Modèle d’ontologie
Domaine de
connaissance
Instance de Instance de
Figure 4.7 – Couplage des modèles des besoins avec le modèle d’ontologie.
3.2.1 Méta-modèle de l’ontologie partagée
Le standard Meta-Object Facility (MOF) de l’Object Management Group (OMG) fournit un métamodèle
OWL 31 décrivant les principaux constructeurs d’une ontologie OWL. La figure 4.8 représente
un fragment de ce méta-modèle qui représente le méta-modèle de l’ontologie partagée. Dans ce métamodèle,
une ontologie est représentée principalement par les classes suivantes : OWLClass, DataTypeProperty
et ObjectProperty, représentant respectivement les classes, les propriétés de type attribut et
les propriétés de type relations. La subsomption des classes est décrite par la relation réflexive subclassOf.
Différentes classes existent dans le méta-modèle OWL pour définir les opérateurs entre les classes
(IntersectionClass, UnionClass, etc.).
31. https://www.w3.org/2007/OWL/wiki/MOF-Based_Metamodel
763. Unification des vocabulaires
Figure 4.8 – Méta-modèle d’ontologie OWL.
3.2.2 Couplage des trois langages proposés avec les ontologies locales
Nous avons montré comment nous avons représenté les trois méta-modèles proposés, en utilisant une
approche de méta-modélisation. Nous présentons maintenant le couplage entre ces méta-modèles et les
ontologies locales.
En étendant la première formalisation d’une ontologie (section 2.5 du chapitre 3), l’ontologie locale
des besoins sera définie formellement de la manière suivante :
OLB :< C, R,Re f(C),Re f(R),MB,F ormalisme > où MB est le modèle des besoins définis en utilisant
les concepts et propriétés ontologiques MB∈ 2
CU2
R
. Dans notre cas d’étude : MB = Goalmodel ⊕
UCmodel ⊕ MCTmodel où chacun des modèles est défini comme suit. (⊕ signifie OU exclusif.)
Ontologie des buts (OntoGoal). Cette ontologie consiste essentiellement à connecter les buts sur
l’ontologie locale. Concrètement, cette connexion se fait par la création de nouvelles méta-classes (Goal,
Result, Metric, Task, Relationships, etc.), et en liant les coordonnées des buts (Action, Result et Metric)
avec la méta-classe rdfs:Class de l’ontologie OWL. La figure 4.9 (a) représente un fragment du métamodèle
d’ontologie auquel est connecté le méta-modèle de buts 4.9 (b). Les buts de concepteurs sont
spécifiés au niveau ontologique où nous avons défini une connexion entre les coordonnées de chaque but
(Task, Result and Metric) les concepts et les propriétés de l’ontologie locale.
Une ontologie des buts (OntoGoal) représente la connexion entre le modèle de buts et le modèle
ontologique. Formellement, OntoGoal sera définie de la manière suivante :
77Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
(a) (b)
Figure 4.9 – Connexion entre le modèle ontologique et le modèle orienté buts.
Formalisation 7
OntoGoal :< OLi
, Goalmodel > est l’ontologie locale des buts, où :
– OLi
: < Ci
, Ri
, Re f(Ci), Re f(Ri), Fi > est l’ontologie locale.
– Goalmodel: < Actor, Goal,Relationship >, où :
– Goal:< T,R,M >, avec :
– T = {t1, t2, ..., tn} est l’ensemble de tâches . ∀ti ∈ T, ∃dj ⊆ D, telle que f(ti) = dj
, où
dj ∈ (Domaine(t)) est l’ensemble des ressources de l’ontologie de domaine.
– R = {r1,r2, ...,rn} est l’ensemble de résultats.
– M = {m1, m2, ..., mn} est l’ensemble de métriques.
– Relationships = {relation1,relation2,...,relationn} est l’ensemble des relations entre les
buts. relationi ∈ Relationships ⊆ Ri
, l’ensemble de relations (rôles) de l’ontologie locale.
La figure 4.10 illustre un exemple d’instanciation de modèle d’ontologie (partie (a)) et le modèle
orienté but (partie (b)). Le concepteur peut exprimer le but : "Le système doit permettre à l’administration
de supprimer les informations des étudiants ayant plus de 40 ans" au niveau ontologique en utilisant les
propriétés et les concepts de l’ontologie. Par exemple, les propriétés age, name, marks sont des propriétés
ontologiques. Ontologie des cas d’utilisation (OntoUcase). Les besoins de concepteurs modélisés par
les cas d’utilisation sont spécifiés au niveau ontologique où nous avons défini une connexion entre les
coordonnées de chaque cas d’utilisation (Action, Résultat, Condition et Point d’extension) et les concepts
et propriétés de l’ontologie locale (voir la figure 4.11). Une ontologie des cas d’utilisation (OntoUcase)
783. Unification des vocabulaires
(a) (b)
Figure 4.10 – Instanciation des modèles de l’ontologie et du modèle orientés buts.
représente la connexion entre le modèle des cas d’utilisation et le modèle ontologique.
Formellement, OntoUcase est définie de la manière suivante.
Formalisation 8
OntoUcase :< OLi
, UCmodel > est l’ontologie locale des cas d’utilisation, où :
– OLi
: < Ci
, Ri
, Re f(Ci), Re f(Ri), Fi > est l’ontologie locale.
– UCmodel: < Actor, UseCase,Relationship >, avec :
– UseCase:< A,R, Ep, Cdt >, où :
– A = {a1, a2, ..., an} est l’ensemble des actions. ∀ai ∈ A, ∃dj ⊆ D, telle que f(ai) = dj
, où
dj ∈ (Domaine(a)) est l’ensemble des ressources de l’ontologie de domaine.
– R = {r1,r2, ...,rn} est l’ensemble des résultats.
– Ep = {ep1, ep2, ..., epn} est l’ensemble des points d’extension.
– Cdt = {cdt1,cdt2,..., cdtn}, est l’ensemble des métriques.
– Relationships = {relation1,relation2,...,relationn} est l’ensemble des relations entre les cas
d’utilisation. relationi ∈ Relationships ⊆ Ri
, l’ensemble de relations (rôles) de l’ontologie
locale.
79Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
(a) (b)
Figure 4.11 – Connexion entre le modèle ontologique et le modèle use case.
Ontologie des traitements (OntoMCT). Les besoins de concepteurs modélisés par les traitements sont
spécifiés au niveau ontologique où nous avons défini une connexion entre les coordonnées de chaque
traitement (Action, Résultat et Règles d’émission ), les concepts et les propriétés de l’ontologie locale
(voir la figure 4.12). Une ontologie de traitements (OntoMct) représente la connexion entre le modèle
conceptuel de traitements et le modèle ontologique.
Formellement, OntoMCT est définie de la manière suivante :
Formalisation 9
OntoMCT :< OLi
,MCTmodel > est l’ontologie locale des traitements, avec :
– OLi
: < Ci
, Ri
, Re f(C)i
, Re f(R)i
, Fi > est l’ontologie locale.
– MCTmodel: < Actor, Event,Traitement,Synchronization >, où :
– Event= {event1,event2,...,eventn} est l’ensemble des événements. Pour chaque event ∈ Event,
event∈ 2
CU2
R
– Traitement:< A,R, C, Emr >, où :
– A = {a1, a2, ..., an}, l’ensemble des actions. ∀ai ∈ A, ∃dj ⊆ D, telle que f(ai) = dj
, où
dj ∈ (Domaine(a)) est l’ensemble des ressources de l’ontologie de domaine.
– R = {r1,r2, ...,rn} l’ensemble des résultats.
– Emr = {emr1, nemr2, ..., emrn} est l’ensemble des règles d’émission.
804. Unification des langages de modélisation des besoins
(a) (b)
Figure 4.12 – Connexion entre le modèle ontologique et le modèle MCT.
– Synchronization = {synch1,synch2,...,synchn}, est l’ensemble des relations de sychronisation
entre les événements. synchi ∈ Relationships ⊆ Ri
, l’ensemble de relations (rôles) de l’ontologie
locale.
Pour résumer, nous avons établi une connexion entre l’ontologie de domaine et les trois langages de
modélisation des besoins. Cela réduit considérablement l’hétérogénieté syntaxique et sémantique.
4 Unification des langages de modélisation des besoins
Comme nous l’avons indiqué, la solution pivot obtenue par des exemples est proposée pour unifier
l’ensemble des langages de modélisation des besoins. Le modèle pivot est obtenu après l’analyse des
concepts fondamentaux des trois langages étudiés. Soit D = {D1, D2, ..., Dn}, l’ensemble des concepteurs
(Designers) impliqués dans le développement d’une application donnée. Chaque concepteur Di doit
utiliser un langage de modélisation des besoins LBi et une terminologie (vocabulaire) Vi pour exprimer
ses besoins B
Di
. Pour intégrer les différents langages des besoins, une solution naïve consiste à établir
(
n×(n−1)
2
) correspondances entre les n langages. Cette solution est coûteuse, car elle nécessite des efforts
considérables pour établir les correspondances entre les différents langages des besoins, notamment si
les langages utilisés sont nombreux. Pour réduire cette complexité, le langage pivot est approprié. Du
81Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
fait qu’il offre une représentation générique de différents langages. Plus précisément, lorsque un langage
pivot est utilisé, le nombre de correspondance est réduit à n si n langages sont pris en considération. Les
différentes correspondances établies entre les langages sont illustrées par la figure 4.13.
Langage 1
Langage 2
Langage 3
Langage 4
Langage n
Langage 4
Langage 1
Langage 2
Langage 3
Langage n Langage
Pivot
(b) Solution Pivot. (a) Solution Ad hoc.
n(n-1)/2 Correspondances (n) Correspondances
Langage 1
Langage 2
Langage 3
Langage 4
Langage n
Langage 4
Langage 1
Langage 2
Langage 3
Langage n Langage
Pivot
(b) Solution Pivot. (a) Solution Ad hoc.
n(n-1)/2 Correspondances (n) Correspondances
Figure 4.13 – Intégration centralisée avec langage Pivot.
Formellement, selon une approche pivot, un système d’intégration des besoins hétérogènes RIS (Requirements
integration system) est représenté par un triplet :
Formalisation 10
RIS :< P; LB;M > avec :
– P : un schéma pivot (générique) exprimé par un langage (modèle) de modélisation donné LBP
sur une terminologie (vocabulaire) VP;
– LB = {LB1, LB2, ..., LBn}, l’ensemble de langages de modélisation des besoins utilisés par
des concepteurs hétérogènes impliqués dans le développement du système complexe. Chaque
LBi (1 ≤ i ≤ n) doit utiliser une teminologie VLB;
– M = {M1,M2, ...,Mn}, l’ensemble des correspondances (mapping) entre les langages de
modélisation LBi et le langage pivot P. Cela conduit à [n] correspondances si n langages sont
pris en considération.
4.1 Proposition d’un modèle pivot des besoins
Le Tableau 4.1 présente une comparaison entre les trois modèles des besoins (Goal-Oriented, Use
case (UML) et MCT de MERISE) pour extraire les unités de modélisation (les concepts) communs. Cette
comparaison nous a permis d’élaborer le modèle pivot qui est défini comme suit et illustré par la figure
4.14.
824. Unification des langages de modélisation des besoins
Table 4.1 – Les concepts communs entre les modèles de besoins.
Formalisation 11
Pivotmodel: < Actor,Requirement,Relationships >, où :
– Actor = {actor1, actor2, ..., actorn} un ensemble d’acteurs (e.g. concepteur)
– Requirement = {req1,req2, ...,reqn} un ensemble de besoins exprimés par un acteur. Nous
définissons un besoin (requirement) comme suit : Requirementi
: < A,R, C > un ensemble de
besoins où :
– A = {a1, a2, ..., an} est l’ensemble d’actions qu’un système effectue pour fournir un résultat.
∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj
, où pj = {p1, p2, ..., pn} est l’ensemble des propriétés
satisfaites par un système.
– R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système.
– C = {c1, c2, ..., cn} est l’ensemble des critères selon lesquels un résultat est quantifié.
– Relationships = {relation1,relation2, ...,relationn} est l’ensemble de relations entre les besoins.
4.2 Couplage de modèle pivot à l’ontologie
Après la construction du méta-modèle pivot, on relie les caractéristiques de chaque concept (Action,
Résultat, Critère, etc. ) avec des classes et des propriétés ontologiques. Un modèle ontologique pivot
(OntoPivot) représente la connexion entre le modèle pivot et le modèle de l’ontologie globale (figure
83Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
Figure 4.14 – Le méta-modèle pivot.
4.15).
Formellement, OntoPivot est définie de la manière suivante :
Formalisation 12
OntoPivot :< OP, Pivotmodel > est ontologie des besoins, où :
– OP : < C, Ro, Re f(C), Re f(R), F > est l’ontologie partagée.
– Pivotmodel: < Actor,Requirement,Relationships >, avec :
– Requirement:< A,R, C >, où:
– A = {a1, a2, ..., an} est l’ensemble des actions. ∀ai ∈ A, ∃dj ⊆ D, telle que f(ai) = dj
, où
dj ∈ (Domaine(a)) est l’ensemble des ressources de l’ontologie de domaine.
– R = {r1,r2, ...,rn} est l’ensemble des résultats.
– C = {c1, c2, ..., cn} est l’ensemble des critères.
– Relationships = {relation1,relation2, ...,relationn} est l’ensemble des relations entre les
besoins. relationi ∈ Relationships ⊆ Ro est l’ensemble de relations de l’ontologie de domaine.
845. Un exemple d’utilisation de notre méthode d’intégration
DefinedBy
DefinedBy
DefinedBy
(a) (b)
Figure 4.15 – Connexion entre le modèle ontologique et le modèle pivot.
5 Un exemple d’utilisation de notre méthode d’intégration
Pour faciliter la compréhension de notre approche, nous considérons le scénario d’utilisation indiqué
par la figure 4.16, où les trois langages de modélisation des besoins sont considérés.
Chaque concepteur extrait d’abord une ontologie locale référençant l’ontologie partagée qui satisfait
ses exigences. Une fois l’ontologie locale extraite, le concepteur décrit ses besoins en fonction de celle-ci.
Ces besoins sont ensuite transformés à l’aide des règles de transformation au modèle pivot.
Nous rappelons que la transformation de modèles fait partie de l’approche IDM. Elle permet d’obtenir
différents modèles cibles suite au traitement de différents modèles sources (figure 4.17). La transformation
de modèle est également utilisée pour établir les correspondances (mapping) et les traductions
entre différents langages de modélisation.
Dans ce scénario, nous transformons les langages des besoins locaux (Ontologie Orienté-buts (OntoGoal),
Ontologie des Cas d’utilisation (OntoUcase) et Ontologie des traitements (OntoMCT)) en un
langage commun (Ontologie Pivot, OntoPivot). Cette transformation se fait par l’intermédiaire des fonctions
qui décrivent les règles de transformation suivantes.
85Chapitre 4. Unification des vocabulaires et des langages de modélisation des besoins
Ontologie partagée
Modèle Pivot des besoins
Couplage
Transformation (Mappings) Modularité (Extractions des OLs)
1
Besoins validés
Corrects
Sans
ambiguïté
Consistants
…..
OL 1
Concepteurs
Sous-système (1)
Orientés buts
OL2
Cas d’utilisation
OLn
(MCT) MERISE
Concepteurs
Concepteurs
Couplage
2 Intégration des besoins
Sous-système (2)
Sous-système (n)
Couplage
2
Couplage
2
3
3
Méta-modèle
Méta-modèle
Méta-modèle
Modèle Ontologique Pivot (OntoPivot)
Ontologie partagée
Modèle Pivot des besoins
Couplage
Transformation (Mappings) Modularité (Extractions des OLs)
1
Besoins validés
Corrects
Sans
ambiguïté
Consistants
…..
OL 1
Concepteurs
Sous-système (1)
Orientés buts
OL2
Cas d’utilisation
OLn
(MCT) MERISE
Concepteurs
Concepteurs
Couplage
2 Intégration des besoins
Sous-système (2)
Sous-système (n)
Couplage
2
Couplage
2
3
3
Méta-modèle
Méta-modèle
Méta-modèle
Modèle Ontologique Pivot (OntoPivot)
Figure 4.16 – Scénario d’intégration des besoins selon un langage pivot.
T r a n s f 1 : Goal −−−−−> R e q ui r em e nt .
T r a n s f 2 : UseCase −−−−−> R e q ui r em e nt .
T r a n s f 3 : T r e atm e nt −−−−−> R e q ui r em e nt .
T r a n s f 4 : M et ri c −−−−−> C r i t e r i o n .
T r a n s f 5 : C o n d i t i o n −−−−−> C r i t e r i o n .
T r a n s f 6 : Emi s si o n −r u l e −−−−−> C r i t e r i o n .
Exemple 7
Goal001 (Méta-modèle OntoGoal) —> Requirement001 (Méta-modèle Ontologique Pivot).
UseCase001 (Méta-modèle OntoUcase) —> Requirement002 (Méta-modèle Ontologique Pivot).
Treatement001 (Méta-modèle OntoMCT) —> Requirement003 (Méta-modèle Ontologique Pivot).
Task01 (Méta-modèle OntoGoal) —> Action (Méta-modèle Ontologique Pivot).
Condition001 (Méta-modèle OntoUcase) —> Criteria001 (Méta-modèle Ontologique Pivot).
Metric002 (Méta-modèle OntoGoal) —> Criteria0012 (Méta-modèle Ontologique Pivot).
Emission-rule003 (Méta-modèle OntoMCT) —> Criteria003 (Méta-modèle Ontologique Pivot).
866. Conclusion
Méta-métamodèle
Métamodèles sources Métamodèles cibles
Modèles sources (S) Modèles cibles (T)
Métamodèle du
langage de
transformation
Modèles de
transformation
est conforme à est conforme à est conforme à
Importer Importer
est conforme à est conforme à
Méta-métamodèle
Métamodèles sources Métamodèles cibles
Modèles sources (S) Modèles cibles (T)
Métamodèle du
langage de
transformation
Modèles de
transformation
est conforme à est conforme à est conforme à
Importer Importer
est conforme à est conforme à
Figure 4.17 – Principe de transformation.
6 Conclusion
Dans ce chapitre, nous avons proposé une solution d’intégration de besoins hétérogènes, unifiant
les vocabulaires et les langages de modélisation des besoins utilisés. Pour unifier les vocabulaires, nous
avons proposé l’utilisation d’une ontologie de domaine supposée existante. Dans ce cas, chaque concepteur
référence cette ontologie pour exprimer ses besoins. Pour unifier les langages de modélisation des
besoins, nous avons étudié trois langages à savoir, Use case d’UML, le langage orienté buts, et le modèle
de traitement de la méthode Merise. Cette étude nous a permis de définir un langage pivot factorisant
l’ensemble de langages étudiés. Un couplage entre l’ensemble des méta-modèles utilisés et l’ontologie
est établi ainsi qu’un scénario d’intégration des besoins est alors défini selon les spécifications de ce
langage pivot. Chaque concepteur extrait d’abord une ontologie locale référençant l’ontologie partagée
qui satisfait ses exigences. Une fois extraite, il décrit ses besoins en fonction de celle-ci. Les besoins
sont ensuite transformés à l’aide des règles sur le modèle pivot. Dans ce scénario, nous avons utilisé des
transformations de type Model-to-Model.
Dans ce chapitre, nous avons constaté que l’intégration des différents langages de modélisation des
besoins selon la solution du langage pivot devient complexe et coûteuse si le nombre de langages de
modélisation des besoins augmente. Donc, elle nécessite des efforts considérables pour établir les correspondances
entre les différents langages des besoins et le langage pivot via des transformation Modelto-Model.
Pour réduire cette complexité, une deuxième solution d’intégration qui repose sur la définition
d’un méta-modèle générique (unifié) représentant les besoins est proposée dans le chapitre suivant.
87Chapitre 5
Vers une Fusion de méta-modèles des langages de
modélisation des besoins
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2 Fusion des méta modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3 Connexion du méta-modèle générique avec l’ontologie . . . . . . . . . . . . . 93
4 Raisonnement sur les besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.1 Scénarii de raisonnement . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.1.1 Scénario 1 : ship whole . . . . . . . . . . . . . . . . . . . . . . 96
4.1.2 Scénario 2 : reason as needed . . . . . . . . . . . . . . . . . . 97
4.2 Étude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.3 Relations sémantiques entre les besoins : Définition & Formalisation . . . 99
4.4 Évaluation du processus de raisonnement . . . . . . . . . . . . . . . . . 102
5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Résumé. Dans le chapitre précédent, nous avons proposé une approche d’intégration des
langages de besoins basée sur un modèle pivot défini par un méta-modèle. L’inconvénient
majeur de cette approche est le nombre de transformations faites du nombre de n, si n langages
sont considérés. Pour réduire cette complexité, nous proposons une autre approche
sémantique consistant à fusionner l’ensemble des langages de besoins (trois dans notre cas).
Cette fusion donnera lieu à un modèle appelé générique, où chaque langage devient une instance
de ce dernier. Une mécanisme de raisonnement est fourni afin d’identifier les besoins
conflictuels et contradictoires d’une manière efficace [26].
891. Introduction
1 Introduction
Afin de réduire la complexité de la solution d’intégration proposée dans le chapitre précédent, nous
proposons une nouvelle approche dirigée par la fusion des méta-modèles de langages de modélisation
utilisés (figure 5.1). Le méta-modèle générique est également couplé à l’ontologie partagée. Au lieu de
faire des transformations de type modèle-à-modèle, des instanciations sont faites. Dans cette approche,
un concepteur donne seulement le nom de son langage d’expression de besoins et son ontologie locale et
une instanciation est générée. Pour identifier les besoins contradictoires, un processus de raisonnement
Modèle orientés buts Modèle des cas d’utilisation Modèle de traitements
Concepts
(orienté buts)
Concepts
(cas d’utilisation)
Concepts
(modèle de traitements)
Méta-modèle générique
« Instance de » « Instance de » « Instance de »
Modèle orientés buts Modèle des cas d’utilisation Modèle de traitements
Concepts
(orienté buts)
Concepts
(cas d’utilisation)
Concepts
(modèle de traitements)
Méta-modèle générique
« Instance de » « Instance de » « Instance de »
Figure 5.1 – Méta-modèle générique fusionnant les trois modèles étudiés.
est effectué en exploitant la présence des ontologies (locales et partagée).
Ce chapitre est organisé comme suit. Nous présentons d’abord une notre approche dirigée par la fusion
des méta-modèles est proposée. Ensuite un mécanisme de raisonnement sur les besoins est proposé,
incluant deux stratégies de raisonnement. Ces dernières sont implémentées et comparées en termes de
temps de réponse.
2 Fusion des méta modèles
Dans le chapitre précédent, nous avons proposé un méta-modèle pivot qui contient un ensemble de
concepts communs entre les méta-modèles étudiés (orientés buts, cas d’utilisation et modèle de traitements).
Le passage d’un de ces derniers vers notre méta-modèle pivot requiert des transformations,
ainsi qu’une connaissance profonde du notre méta-modèle pivot. La solution que nous proposons dans
ce chapitre est basée sur la fusion de l’ensemble des méta-modèles étudiés. Cette fusion est représentée
par un méta-modèle générique qui va permettre aux concepteurs d’éviter le processus de transformation.
En outre, les concepts présentés précédemment dans le méta-modèle pivot feront aussi partie de ce
méta-modèle car chaque concept pivot va représenter un concept générique au sein du nouveau métamodèle.
Chaque concept générique (super-classe) supervise les concepts correspondants des différents
méta-modèles. En conséquence, l’instanciation de notre méta-modèle générique donne lieu à un modèle
regroupant les besoins exprimés avec les différents langages. En effet, chaque instance est un ensemble
de besoins, où chaque besoin peut être exprimé par un des langages étudiés.
91Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins
La figure 5.2 présente notre méta-modèle générique fusionnant les trois méta-modèles de besoins
développés dans le chapitre précédent. Chaque besoin (Requirement) est caractérisé par un identifiant
(IdReq), un nom (NameReq), une description textuelle (DescriptionReq), un objet (PurposeReq) , un
contexte ContextReq, une priorité PriorityReq (en prenant les valeurs : Mandatory, High, Medium)).
Figure 5.2 – Métamodèle générique des besoins.
Un besoin est décrit par les caractéristiques suivantes.
– Résultat (Result) : il représente la finalité du besoin d’une manière générale. Par exemple le besoin
suivant "Une entreprise a besoin d’un nombre prédéfini d’employés", le nombre prédéfini d’employés
constitue le résultat du besoin. Result possède une propriété measure qui sert à quantifier
(mesurer) le résultat à l’aide des fonctions statistiques dédiées (Sum, Max, Min, AVG, etc).
– Action : elle reflète un ensemble de séquences d’actions qui permettent de réaliser un besoin.
– Critère (Criterion) : il permet de filtrer éventuellement un besoin en lui associant des conditions
à satisfaire, Ainsi, pour l’exemple précédent : Une entreprise a besoin d’un nombre prédéfini
d’employés ne dépassant pas un certain âge", le critère précisé ici, est que l’âge des employés doit
être inférieur à un seuil donné.
– Type : il permet de spécialiser un besoin. Dans notre étude de cas un besoin peut être un but (Goal),
un cas d’utilisation (Use case) ou un traitement (Treatement).
– Acteur : chaque besoin est proposé par un Acteur (personne, entreprise, ou unité de système autonome).
923. Connexion du méta-modèle générique avec l’ontologie
– Relations (Relationships) : les besoins peuvent être liés les uns aux autres à travers des relations
(Requires, Conflicts, Contains, Equivalence, AND/OR, etc.).
Deux catégories de besoins sont identifiées : les besoins fonctionnels et non-fonctionnels.
Notons que les coordonnées d’un besoin à savoir : Result, Action, Criterion portent sur des objets
cibles qui dépendent du contexte d’usage. Dans le contexte des bases de données sémantiques, ces objets
peuvent être représentés par des Concepts dans PLIB, rdfs:Resources dans RDF, OWLClasses dans
OWL, etc. Nous allons détailler ce point dans la section suivante expliquant la connexion entre le modèle
des besoins et le modèle de l’ontologie.
Formellement, le méta modèle générique est défini de la manière suivante.
Formalisation 13
Genericmodel: < Actor,Requirement,Relationships >, où :
– Actor = {actor1, actor2, ..., actorn} est l’ensemble d’acteurs (e.g. concepteur)
– Requirement = {req1,req2, ...,reqn} est l’ensemble de besoins exprimés par un acteur. Nous
définissons un besoin (requirement) comme suit: Requirementi
: < A,R, C,T >, (1 ≤ i ≤ n)
est un ensemble de besoins où :
– A = {a1, a2, ..., an} est l’ensemble de séquences d’actions qu’un système effectue pour fournir
un résultat. ∀ai ∈ A, ∃pj ⊆ P, telle que f(ai) = pj
, où pj ∈ {p1, p2, ..., pn} est l’ensemble
des propriétés satisfaites par un système.
– R = {r1,r2, ...,rn} est l’ensemble des résultats réalisés par le système.
– C = {c1, c2, ..., cn} est l’ensemble des critères selon lesquels un résultat est quantifié.
– T = {t1, t2, ..., tn}, est l’ensemble des types de besoins. Dans notre cas d’étude,
ti ∈ {Goal, U secase, T reatment}.
– Relationships = {relation1,relation2, ...,relationn} , est l’ensemble de relations entre les besoins.
Dans notre cas, Relationship = {Goalrelationships∪UseCaserelationships∪MCTrelationships}
= (Contains, Requires, Refines, Conflicts, Equivalence, AND/OR decomposition, Generalization,
Synchronization, etc.).
3 Connexion du méta-modèle générique avec l’ontologie
Cette étape consiste essentiellement à étendre l’ontologie globale par des méta-classes constituant
le méta-modèle générique de besoins. Ensuite en liant les coordonnées de chaque besoin (Requirement)
Action, Result et Criterion avec des classes et propriétés ontologiques. (voir la figure 5.3)
Dans la pratique, ces coordonnées peuvent porter non seulement sur un seul objet, mais également
sur des expressions (entre autres relations arithmétiques) entre plusieurs objets cibles. Dans la figure 4.10
(section 3.2.2 du chapitre 4), le résultat du besoin porte sur un seul objet qui est la classe ontologique
Student, comme il peut bel et bien porter sur une expression entre propriétés ontologiques, comme par
exemple le besoin du calcul de la moyenne des étudiants où on aura affaire à un produit entre la propriété
note et coefficient de la classe Course. D’autres exemples sont étudiés plus loin dans le chapitre 6.
Au final , les besoins sont spécifiés au niveau ontologique où nous avons substitué les classes du
modèle des besoins par son équivalent dans le modèle d’ontologie. Un modèle ontologique (OntoReq)
93Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins
Méta-modèle d’ontologie Méta-modèle de besoins
Person
Student Employee
name: String
age: Integer
salary : double class : String
Student 1: Student
name: ‘AAA’
age: 22
Employee 1: Employee
name: ‘BBB’
age: 36
class: ‘A’ salary : 3000 $
Instances
conforme à
conforme à conforme à
Modèle Méta-modèle
conforme à conforme à
Goal 1: Goal
id: 001
NameGoal : ‘goal 01’
DescriptionGoal : ‘Le système doit permettre à l’administration de
supprimer les informations des étudiants ayant plus de 40 ans’
Context : ‘universitaire’
conforme à
Modèle de buts
Méta-modèle d’ontologie Méta-modèle de besoins
Person
Student Employee
name: String
age: Integer
salary : double class : String
Student 1: Student
name: ‘AAA’
age: 22
Employee 1: Employee
name: ‘BBB’
age: 36
class: ‘A’ salary : 3000 $
Instances
conforme à
conforme à conforme à
Modèle Méta-modèle
conforme à conforme à
Goal 1: Goal
id: 001
NameGoal : ‘goal 01’
DescriptionGoal : ‘Le système doit permettre à l’administration de
supprimer les informations des étudiants ayant plus de 40 ans’
Context : ‘universitaire’
conforme à
Modèle de buts
Figure 5.3 – Connexion entre le méta-modèle ontologique et le méta-modèle générique des besoins.
représente cette connexion.
OntoReq =
Y
Requirements
(OG)
Maintenant nous avons tous les ingrédients pour intégrer les besoins. En suivant les mêmes étapes du
scénario d’intégration présenté dans le chapitre 4. Ici, chaque concepteur extrait d’abord une ontologie
locale référençant l’ontologie partagée qui satisfait ses exigences. L’ontologie locale extraite représente
le vocabulaire partagé et le langage d’expression demandé par le concepteur. Une fois l’ontologie locale
est extraite, le concepteur décrit ses besoins en fonction de son ontologie locale. Ensuite, ses besoins
sont transformés à l’aide des règles de transformation au modèle générique afin d’établir le mécanisme
de raisonnement.
4 Raisonnement sur les besoins
Dernièrement, l’inférence à base ontologique apparaît comme un moyen pertinent pour améliorer
la gestion de l’information au cours de cycle de vie des applications informatiques. Les ontologies permettent
des raisonnements automatiques ayant pour objet soit d’effectuer des vérifications de consistance,
soit d’inférer de nouveaux faits. Fankam.[37] décrit, qu’il existe deux types d’ontologies : les ontologies
944. Raisonnement sur les besoins
de stockage (Storage ontologies) et les ontologies d’inférence (Inference ontologies). Les ontologies de
stockage sont utilisées pour la capture de l’information, le stockage, la classification et la réutilisation
des sources hétérogènes. Contrairement au premier type, les ontologies d’inférence peuvent raisonner
et inférer sur des informations. L’inférence est la capacité de faire des déductions sur les instances, les
classes et les propriétés ontologiques. Ce mode de raisonnement est effectué par un moteur d’inférence.
De nombreux langages et outils informatiques sont apparus pour un raisonnement à base ontologique.
Nous pouvons citer OWL et SWRL.
Le raisonnement, en générale, est un processus cognitif permettant soit d’obtenir de nouveaux ré-
sultats soit de faire la vérification d’un fait. Le raisonnement à base de règles (rules based reasonning)
s’inscrit dans une logique mathématique, en utilisant la déduction, l’abduction ou l’induction. Il présente
certains avantages : tout d’abord, il est facile à comprendre et à interpréter. De plus, il est assez naturel
car l’être humaine raisonne souvent sous forme de règles : (s’il pleut dehors, alors je vais prendre mon
parapluie). Un autre atout de ce type de raisonnement est sa modularité, en effet, il est possible d’ajouter
des règles ou d’en enlever simplement selon les besoins de l’utilisateur [72]. Pour raisonner à base de
règles, il faut :
– Une base de connaissance : les règles. Une règle est une connaissance qui sert à faire le lien entre
des connaissances connues et d’autres connaissances que l’on peut déduire ou inférer. Une règle
est une expression de la forme : "Si X est Y, alors V est Z ". Elle exprime une relation entre les
variables X et Y. On appelle "X est Y" la prémisse de la règle, et "V est Z" la conclusion de la
règle. En général, on estime que la connaissance exprimée par cette règle est valide. Le type de
raisonnement utilisé est donc déductif car on essaye de déduire des connaissances sur les valeurs
de sortie à partir des valeurs des entrées.
Exemple. Cette règle modélise la connaissance suivante : (si un étudiant X est inscrit à un cours
Y alors il existe un enseignant Z qui enseigne Y et qui enseigne à X). La traduction logique de
cette règle (R) est: φ(R) = ∀x∀y((Etudiant(x) ∧ Cours(y) ∧ inscrit(x, y)) → ∃z(Enseigant(z) ∧
enseigne(z, y) ∧ enseigneA(z, x)))
– Un ensemble de faits : les données.
– Un moteur d’inférence : un processus de raisonnement qui s’appuie sur des connaissances acquises,
et qui s’articule autour de règles fondamentales pour permettre d’obtenir de nouvelles
connaissances. Pour simplifier, on peut considérer que l’inférence est un mode de raisonnement.
Le couplage entre le modèle des besoins et l’ontologie permet de détecter les besoins incohérents
et contradictoires. Le concepteur peut spécifier les besoins comme des individus (instances) dans l’ontologie.
Les règles de vérification de la cohérence (consistency checking rules) sont exécutées sur cette
ontologie (Fig 5.4).
Plus formellement notre mécanisme de raisonnement OntoRR, (Ontological Reasoning about Requirements)
est définit comme suit :
Formalisation 14
OntoRR: < O,Requirementmodel,Rules >, où :
– O : < C, R, Re f(C), Re f(R), F >, an ontology.
– Requirementmodel = {model1, model2, ..., modeln}, est l’ensemble de modèles. Dans notre cas,
Requirementmodel = Pivotmodel ⊕ Goalmodel ⊕ Ucasemodel ⊕ MCTmodel.
– Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules,
95Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins
Ingénierie des
Besoins
Meta-modèle de
besoins
Module de besoins
Moteur d'inférence
Module de
raisonnement
Module d’ontologie
Ontologie de
domaine
Meta-modèle
d’ontologie
Instance de
Modèle de besoins Modèle d’ontologie
Connexion
Règle de raisonnement
Instance de
Connexion
Ingénierie des
Besoins
Meta-modèle de
besoins
Module de besoins
Moteur d'inférence
Module de
raisonnement
Module d’ontologie
Ontologie de
domaine
Meta-modèle
d’ontologie
Instance de
Modèle de besoins Modèle d’ontologie
Connexion
Règle de raisonnement
Instance de
Connexion
Figure 5.4 – Processus de raisonnement.
Rules = {Containsrule, Requiresrule, Re f inesrule,Con f lictsrule
andEqualsrule}.
4.1 Scénarii de raisonnement
La présence de la connexion entre le modèle de l’ontologie et le modèle des besoins nous permet de
proposer deux scénarii de raisonnement.
4.1.1 Scénario 1 : ship whole
Dans ce scénario appelé ship whole, chaque concepteur envoie ses besoins sans aucun traitement
local au modèle générique qui effectue le raisonnement pour identifier les besoins conflictuels. Cette
phase est réalisée après la transformation des besoins locaux en modèle générique. Cette solution peut
être coûteuse si le nombre de besoins est important.(figure 5.5).
Ce scénario est défini formellement par :
Formalisation 15
OntoRU: < OntoReq,Rules >, où :
– OntoReq :< OP, Genericmodel >, ontologie des besoins.
– Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules,
Rules = {Containsrule, Requiresrule, Re f inesrule,
Con f lictsruleandEqualsrule}.
964. Raisonnement sur les besoins
Modèle générique de besoins
Connexion
Ontologie partagée
Concepteurs
Sous-système (1)
Méta-modèle Concepteurs
Sous-système (2)
Méta-modèle Concepteurs
Sous-système (n)
… Méta-modèle
Transformation (Mapping)
OLBn
Raisonnement
«ship whole »
Modèle générique de besoins
Connexion
Ontologie partagée
Concepteurs
Sous-système (1)
Méta-modèle Concepteurs
Sous-système (2)
Méta-modèle Concepteurs
Sous-système (n)
… Méta-modèle
Transformation (Mapping)
OLBn
Raisonnement
«ship whole »
Figure 5.5 – Scénario (1) : ship whole.
4.1.2 Scénario 2 : reason as needed
Pour pallier le problème de coût, nous proposons l’architecture reason as needed qui permet à chaque
concepteur de raisonner localement autant qu’il le peut, puis d’envoyer ensuite des besoins valides au
modèle générique, qui à son tour effectue d’autres raisonnements.(figure 5.6).
Dans notre étude de cas, le raisonnement est effectué localement sur les ontologies locales des besoins
(OntoGoal,OntoUcase et OntoMCT) et d’une manière globale après la phase de transformation sur
l’ontologie de besoins globale (OntoReq).
Ce scénario est défini formellement par :
1. Sur l’ontologie de buts, OntoGoal
Formalisation 16
OntoRG: < OntoGoal,Rules >, où :
– OntoGoal :< OLi
, Goalmodel >, l’ontologie locale des buts.
– Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les buts. Où rulei ⊆ Rules,
Rules = {Containsrule, Requiresrule, Re f inesrule,
Con f lictsruleandEqualsrule}.
97Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins
Modèle générique de besoins
Connexion
Ontologie partagée
Concepteurs
Sous-système (1)
Méta-modèle Concepteurs
Sous-système (2)
Méta-modèle Concepteurs
Sous-système (n)
… Méta-modèle
Transformation (Mapping)
OLBn
Raisonnement
Raisonnement
Raisonnement Raisonnement
Modèle générique de besoins
Connexion
Ontologie partagée
Concepteurs
Sous-système (1)
Méta-modèle Concepteurs
Sous-système (2)
Méta-modèle Concepteurs
Sous-système (n)
… Méta-modèle
Transformation (Mapping)
OLBn
Raisonnement
Raisonnement
Raisonnement Raisonnement
Figure 5.6 – Scénario (2) : reason as needed.
2. Sur l’ontologie des cas d’utilisation, OntoUcase
Formalisation 17
OntoRU: < OntoUcase,Rules >, où :
– OntoUcase :< OLi
, UCmodel >, l’ontologie locale des cas d’utilisation.
– Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules,
Rules = {Containsrule, Requiresrule, Re f inesrule,
Con f lictsruleandEqualsrule}.
3. Sur l’ontologie des traitement, OntoMCT
Formalisation 18
OntoRU: < OntoMCT,Rules >, où :
– OntoMCT :< OLi
,MCTmodel >, l’ontologie locale des traitements
– Rules = {rule1,rule2, ...,rulen}, l’ensemble des relations entre les besoins. Où rulei ⊆ Rules,
Rules = {Containsrule, Requiresrule, Re f inesrule,
Con f lictsruleandEqualsrule}.
Les deux scénarii s’appuient sur les relations sémantiques définis dans la section 4.3.
4.2 Étude de cas
Pour évaluer notre processus de raisonnement, nous proposons l’utilisation d’un ensemble de besoins
sur le domaine universitaire, avec des besoins concernant les étudiants, les départements, les cours, etc.
984. Raisonnement sur les besoins
Cet ensemble est sélectionné du document de besoins concernant le système gestion des cours (CMS,
Course Management System) 32. L’ensemble sélectionné contient 60 besoins. Nous supposons qu’ils sont
collectés auprès de trois concepteurs différents qui utilisent nos modèles : 25 par le modèle (Goal), 15 par
(Use case) et 20 par MCT. Nous avons utilisé l’ontologie LUBM contenant 45 classes et 38 propriétés
(dont 31 Object properties, et 7 Data type properties). Nous avons sélectionné 10 besoins (R1, R2, ..., R10)
de ce document, pour bien comprendre la définition et la formalisation des relations entre les besoins.
Les besoins qui suit est une partie de ce document.
- R1: The system shall allow the department to manage courses.
- R2: The system shall allow the department to create courses.
- R3: The system shall provide database course information.
- R4: The system shall be able to store database course information.
- R5: The system shall allow department to delete all studies and personal information of
students more than 40 years old.
- R6: The system shall allow department to delete all studies and personal information of
students less than 40 years old.
- R7: The system shall allow department to create entirely new courses.
- R8: The system shall allow department to create courses.
- R9: The system shall allow lecturers to create courses.
- R10: The system shall allow lecturers to create courses.
4.3 Relations sémantiques entre les besoins : Définition & Formalisation
Nous avons identifié cinq types de relations : Contains, Requires, Conflicts, Refines et Equals. Nous
utilisons les définitions informelles définies par [55]. Dans le reste de cette section, nous donnons une
définition formelle de ces relations. Nous utilisons le terme "domaine" pour désigner les ressources de
l’ontologie (concepts et propriétés) qui peuvent être utilisés pour définir le besoin.
1. Relation "Contains" :
Définition 1
Un besoin B1 contient des besoins {B2 ... Bn} si {B2 ... Bn} font parties de l’ensemble B1 (part-whole
hierarchy). Cette relation permet de décomposer un besoin complexe en plusieurs parties. La relation
contains est non réflexive, non symétrique et transitive.
Soit: B1:< A1,R1,M1 >, B2:< A2,R2,M2 >,...,Bn:< An,Rn,Mn > des besoins où n ≥ 2.
Domain(B1)=domain (A1)∪ domain (R1) ∪ domain (M1)
Domain(B2)= domain (A2)∪ domain (R2)∪ domain (M2)
Domain(Bn)= domain (An)∪ domain (Rn)∪ domain (Mn)
Formalisation 19
Containsrule:B1 Contains B2,B3,...,Bn: domain(B2) ⊂ domain(B1), domain(B3) ⊂ domain(B1),..., domain(Bn) ⊂
domain(B1)
32. http://wwwhome.cs.utwente.nl/ goknila/sosym/Requirements_Document_for_CMS.pdf
99Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins
Exemple 1:
B1 : The system shall allow the department to manage courses.
B2 : The system shall allow the department to create courses.
– Domain(B1)= (department, Course, Add-course, Delete-course, Update-course, Select-course).
– Domain(B2)= (department, Course, Add-course).
Nous observons que (domain(B2) ⊂ domain(B1)). Nous concluons que B2 est l’une des besoins décomposés
de B1. Donc, (B1 contains B2).
2. Relation "Requires" :
Définition 2
Un besoin B1 requiert un besoin B2 si B1 n’est satisfait que lorsque B2 est satisfait. La relation requires peut être
considérée comme pré-condition pour le besoin exigeant. La relation requires est non-réflexive, non symétrique
et transitive.
Soit: B1 : < A1,R1,M1 >, B2:< A2,R2,M2 > deux besoins des utilisateurs où :
Domain(B1)= domain (A1)∪ domain (R1) ∪ domain (M1)
Domain(B2)= domain (A2)∪ domain (R2)∪ domain (M2)
Formalisation 20
Requiresrule : B1 requires B2: ∀x ∈ domain(B1): x ∈ domain(B2) ∧∃x ∈ domain(B2) :x < domain(B1)
Nous expliquons la relation requires avec l’exemple suivant.
Exemple 2 :
B3 : The system shall provide database course information.
B4 : The system shall be able to store database course information.
– Domain(B3)= (Course, Provide-course, Stor-course).
– Domain(B4)= (Course, Stor-course).
Afin de fournir des informations sur les cours de base de données, le système a besoin de stocker des informations
sur ces cours. Par conséquent, nous concluons que B3 requires B4 pour être satisfait.
3. relation "Conflicts with" :
Définition 3
Un besoin B1 est en conflit avec un besoin B2 si la réalisation de B1 exclut la réalisation de B2 et vice versa. La
relation de conflit adresse une contradiction entre les besoins. Notre approche de raisonnement peut exécuter
des relations de conflits n-aires entre des besoins multiples. La relation de conflit binaire est symétrique, nonréflexive
et elle n’est pas transitive.
Formalisation 21
Con f lictsrule : B1 Conflicts with B2: (¬∃x : (x ∈ (domain(B1))∧ x ∈ (domain(B2)) ⇔ domain(B1) ∩ domain(B2)
= ∅) ⇔ ∀x ∈ domain(B1) ⇒ ∃y ∈ domain(B2) ∧Contradict(x, y) .
Nous expliquons la relation "conflicts with" avec l’exemple suivant.
Exemple 4 :
B5 : The system shall allow department to delete all studies and personal information of students with more
than 40 years.
B6 : The system shall allow department to delete all studies and personal information of students with less
than 40 years.
1004. Raisonnement sur les besoins
– Domain(B5)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Name, Age, Marks,
Birth date, More, Delet-name, Delet-Birthdate, Delet-course, Delet-marks, Age>=40, DisjointWith (More,
Less),...).
– Domain(B6)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Name, Age, Marks,
Birth date, Less, Delet-name, Delet-Birthdate, Delet-course, Delet-marks, Age<40, DisjointWith (More,
Less), DisjointWith (Age<40, Age>=40)...).
Nous observons que DisjointWith (More, Less) et DisjointWith (Age<40, Age>=40) sont des concepts
conflictuels (une relation de contradiction entre les concepts). Donc, nous concluons que: B5 conflicts with
B6.
4. Relation "Refines" :
Définition 4
Un besoin B1 affine un besoin B2 si B1 est dérivé de B2 en ajoutant plus de détails à ses propriétés. Pareillement
à la relation requires, le relation refines est non-réflexive, non symétrique et transitive.
Formalisation 22
Re f inesrule: B1 Refines B2: domain(B2) ⊂ domain(B1)
Nous expliquons la relation refines avec l’exemple suivant.
Example 3 :
B7 : The system shall allow department to create courses.
B8 : The system shall allow department to create entirely new courses.
– Domain(B7)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Add-course,etc.).
– Domain(B8)= (department, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Add-New-course,
etc.).
Nous observons que (domain(B7) ⊂ domain(B8)). Le besoin B7 nécessité seulement d’une propriété pour
la description du cours Course. Cependant, B8 explique en détails les cours par l’ajout d’une propriété
New-course. Nous concluons que B8 affine B7. Par conséquent, on peut noter également que B8 requires B7.
5. Relation "Equals" :
Définition 5
Un besoin B1 est égale à un besoin B2, si les propriétés de B1 sont exactement les mêmes que celles de B2 et
vice versa. La relation égale est symétrique, reflexive et transitive.
Formalisation 23
Equalsrule: B1 Equals B2: domain(B1) ≡ domain(B2)
Nous expliquons la relation "Equals" avec l’exemple suivant.
Example 5 :
B9: The system shall allow lecturers to create courses.
R10: The system shall allow lecturers to create courses.
– Domain(B9)= (Lecturers, Student, Course, Person ∩ ∀ takesCourse(Person, Course),Add-course,etc.).
– Domain(R10)= (Lecturers, Student, Course, Person ∩ ∀ takesCourse(Person, Course), Add-course, etc.).
Nous observons que (domain(B9) ≡ domain(R10)). Donc, B9 est égale R10.
101Chapitre 5. Vers une Fusion de méta-modèles des langages de modélisation des besoins
4.4 Évaluation du processus de raisonnement
Nous effectuons des expériences pour déterminer le nombre de relations inférées dans les deux scé-
narii de raisonnement. Les résultats obtenus sont illustrés dans le tableau 5.1. Toutes les expérimentations
ont été effectuées sur une machine Intel (R) Core (TM) i5 ayant un processeur d’une fréquence de 2.67
GHz, équipée d’une mémoire centrale de 4 Go, tournant sous le système d’exploitation Windows 7 professionnel.
Les résultats montrent que le nombre de relations vérifiées dans le modèle générique (OntoReq) est
plus que le nombre total de relations vérifiées dans les modèles de besoins locaux (OntoGoal, OntoUcase,
OntoMCT). Enfin, pour mesurer l’efficacité des scénarii de raisonnement, nous avons calculé le temps
Scénarii Modèles Nombre de relations Domain (C&R)
Requires Conflicts Contains Refines Equals Totale
Scénario (1)
OntoGoal 2 1 2 2 0 7 38
OntoUcase 2 0 2 1 0 6 25
OntoMCT 2 4 2 0 0 9 34
OntoReq 4 2 2 2 2 12 40
Scénario (2) OntoReq 8 8 8 4 2 30 66
Table 5.1 – Nombre de relations vérifiées pendant le raisonnement.
0,39 0,52
0,75
1,65
0,65
0
0,5
1
1,5
2
2,5
3
OntoGoal
OntoUcase
OntoMCT
OntoReq
OntoReq
Execution time (s)
Scénario (2) Scénario (1)
0,39 0,52
0,75
1,65
0,65
0
0,5
1
1,5
2
2,5
3
OntoGoal
OntoUcase
OntoMCT
OntoReq
OntoReq
Execution time (s)
Scénario (2) Scénario (1)
Figure 5.7 – Temps d’exécution de raisonnement.
d’exécution (en secondes) nécessaire pour exécuter le raisonnement dans chaque scénario. (Figure 5.7).
Les résultats obtenus montrent que le scénario 1 est plus performant que scénario 2. Cela montre
l’intérêt de répartir les efforts de raisonnement au niveau local, puis de les raffiner au niveau global. Le
1025. Conclusion
raisonneurs ne sont efficaces que sur les ontologies de petites tailles (les ontologies locales des besoins).
Plus les ontologies sont grandes plus les performances diminuent.
5 Conclusion
Dans ce chapitre, nous avons présenté une deuxième contribution. Elle consiste à exploiter la puissance
de l’ingénierie dirigée par les modèles pour offrir un deuxième scénario d’intégration des besoins.
Nous avons défini un méta-modèle générique représentant les besoins. Les trois modèles utilisés deviennent
alors des instances de ce méta modèle. Nous nous somme basés sur les mêmes hypothèses
que la première approche d’intégration concernant l’existence d’une ontologie partagée qui couvre la
sémantique du domaine et la définition des ontologies locales qui référencent l’ontologie partagée pour
fournir une autonomie aux concepteurs. Dans ce cas, chaque concepteur donne seulement son langage
préféré pour concevoir une application, il extrait par la suite son langage de besoins couplé à son ontologie.
Nous avons présenté également un mécanisme de raisonnement sur l’ensemble des besoins émis
par les concepteurs. Deux scénarios d’implémentation de raisonnement sont proposées (i) ship whole et
(ii) reason as needed. L’évaluation des deux solutions a montré l’intérêt du raisonnement, ainsi que la
supériorité de la solution reason as needed sur la solution ship whole en termes de temps de traitement.
Dans le chapitre suivant, nous allons étudier la contribution de la prise en compte des besoins dans
la conception physique des entrepôts de données.
103Chapitre 6
Exploitation des besoins pour la conception physique
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
2 La conception physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3 Conception physique dirigée par les besoins . . . . . . . . . . . . . . . . . . . 109
3.1 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.2 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . 111
4 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.1 Le langage d’exploitation OntoQL . . . . . . . . . . . . . . . . . . . . . 112
4.2 Persistance des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.3 Génération des requêtes SQL . . . . . . . . . . . . . . . . . . . . . . . . 114
5 Expérimentation et évaluation de notre proposition . . . . . . . . . . . . . . . 116
5.1 Structures d’optimisation comme des services . . . . . . . . . . . . . . . 116
5.2 La sélection des index . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.3 La fragmentation horizontale . . . . . . . . . . . . . . . . . . . . . . . . 117
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Résumé. Dans les deux chapitres précédents, nous avons proposé deux approches d’inté-
gration sémantique des besoins hétérogènes dans le contexte des entreprises étendues. Dans
ce chapitre, nous allons étudier comment ces approches peuvent contribuer à la conception
physique des entrepôts de données. Cette conception consiste à sélectionner des structures
d’optimisation comme les index et la fragmentation [18, 79, 78]. Actuellement, la conception
physique est réalisée à l’aide des requêtes extraites des fichiers de journalisation (logs)
et supposent que la base/entrepôt de données est en cours d’utilisation. Ce processus augmente
la charge de travail des administrateurs de ce type de bases de données. Comme
processus alternatif, nous proposons une approche de conception physique qui se déroule
pendant la modélisation conceptuelle, une fois les besoins identifiés.
1051. Introduction
1 Introduction
La collecte des besoins est une pré-condition pour réussir un projet de conception de bases de données,
du fait qu’elle contribue à chaque phase du cycle de vie de conception des bases de données avancées.
Ce cycle est composé de six étapes principales : (a) la définition des besoins des utilisateurs, (b)
la modélisation conceptuelle, (c) la modélisation logique, (d) la modélisation physique, (e) l’implémentation
de la base de données et (f) son tuning. Dans ce chapitre, nous allons étudier la contribution de
notre approche de gestion des besoins sur la conception physique. Nous avons choisi cette phase car
elle est l’objet de nombreux travaux menés au sein de l’équipe Ingénierie des Données et des Modèles
du laboratoire LIAS de l’ISAE-ENSMA. Ces travaux concernent la sélection des structures d’optimisation
redondantes (du fait qu’elles dupliquent les données) comme les vues matérialisées, les index, la
réplication, etc. et des structures d’optimisation non redondantes comme le partitionnement horizontale,
l’ordonnancement des requêtes, etc. La sélection de ces structures se fait selon trois modes : statique,
incrémental et dynamique.
Dans la sélection statique, les entrées du problème sont un schéma d’un entrepôt de données ou
d’une base de données, un ensemble de k requêtes les plus fréquemment utilisées (les requêtes sont donc
connues a priori) et une contrainte particulière liée au problème traité. Le problème de sélection de structure
d’optimisation consiste alors à trouver un ensemble d’instances d’optimisation réduisant le coût de
la charge des requêtes et satisfaisant la contrainte. Dans la sélection incrémentale, on suppose à nouveau
que certaines requêtes sont connues mais cette fois-ci, on traite le fait que d’autres requêtes puissent être
posées sur le système. Dans la sélection incrémentale, on lève l’hypothèse sur la connaissance a priori
des requêtes à optimiser. Les travaux existants ont montré la complexité de ces trois types de sélection.
D’après l’analyse des travaux existants, nous avons identifié que les requêtes sont au coeur de la phase
de la conception physique. Ces dernières peuvent être facilement extraites à partir des besoins identifiés
dans la phase conceptuelle, que nous allons détailler dans ce chapitre. Cette démarche nous a amené
à une nouvelle vision de la conception de bases de données, dans laquelle deux types d’acteurs sont
présents tout au long du cycle de vie : le concepteur et l’administrateur. Jusqu’à présent, le concepteur
a pour tâches de (i) proposer une bonne méthodologie de conception tout en identifiant les entités et
les propriétés de l’univers de discours et (ii) réaliser un cahier des charges informatique pour évaluer
la faisabilité et/ou le coût de passage de cette modélisation conceptuelle à une base de données. Tandis
que l’administrateur est généralement responsable de plusieurs tâches qu’il doit assurer simultanément.
Parmi ces tâches, nous pouvons citer la gestion du recouvrement des données, le tuning, le suivi des
structures de données, la gestion de l’intégrité et des droits d’accès, etc. Fabio et al. [96] ont fait une
étude sur le temps passé par l’administrateur pour assurer les tâches d’administration. La figure 6.1
présente le taux d’effort (en pourcentage de temps) consacré par l’administrateur pour les différentes
tâches d’administration. Cette figure montre que la tâche de conception physique et de tuning consomme
17% du temps d’administration. Cet effort est dû au nombre important de choix qu’il doit effectuer. Vu
que la conception physique se fait à l’aide des requêtes qui peuvent être identifiées à l’aide de l’expression
des besoins, dans notre vision, cette tâche pourrait être déléguée aux concepteurs.
Ce chapitre est organisé comme suit. Nous présentons d’abord la conception physique d’une manière
générale dans la section 2. Puis, nous montrons comment les besoins peuvent être utilisés pour répondre
à cette conception dans la section 3. Afin de pouvoir utiliser les besoins dans tout le cycle de vie d’un
107Chapitre 6. Exploitation des besoins pour la conception physique
Recouvrement
19%
Tuning
17%
Structure de données
14%
Gestion et surveillance
de l'espace
10%
Surveillance du
système
10%
Intégrité/vérifications
statistiques
8%
Modification de
données
8%
Surveillance de
la performance
7% Codage
4%
Mise à niveau du
système
3% Figure 6.1 – Répartition de l’effort de l’administrateur.
système de gestion de données, nous montrons dans la section 4 comment ils peuvent être persistés.
Enfin, une étude de cas est présentée dans la section 5 montre que la conséquence de l’utilisation des
besoins dans la conception physique est la réduction des tâches de l’administrateur.
2 La conception physique
Dans les applications décisionnelles, la conception physique est devenue un enjeu important vu les
exigences des décideurs en termes de temps de réponse de requêtes complexes, impliquant un nombre
important de jointures entre des tables de faits extrêmement larges et des tables de dimension et des opé-
rations d’agrégation [34]. Durant cette phase, l’administrateur doit sélectionner un ensemble de structures
d’optimisation pour satisfaire ses requêtes (figure 6.2). Une large panoplie de structures d’optimisation a
été proposée dans le contexte des entrepôts de données dont une majorité supportée par les systèmes de
gestion de bases de données commerciaux et non commerciaux. Nous pouvons ainsi citer les vues maté-
rialisées, les index avancés, la réplication, la fragmentation, le traitement parallèle, la compression, etc.
Certaines structures sont issues des bases de données traditionnelles comme la fragmentation, la réplication,
certains types d’index (par exemple, le B-tree), le regroupement, etc. Ces structures sont divisées en
deux catégories que nous appelons les structures redondantes et les structures non redondantes [14]. Les
structures redondantes optimisent les requêtes mais entraînent des coûts de stockage et de maintenance.
Les vues matérialisées, les index, la fragmentation verticale sont trois principaux exemples de cette caté-
gorie. Les structures non redondantes ne nécessitent ni coût de stockage, ni coût de maintenance. Deux
exemples de cette catégorie sont la fragmentation horizontale et les traitements parallèles.
1083. Conception physique dirigée par les besoins
Conception
physique
Tables
(modélisation logique)
Profils des tables
Profils des requêtes
Techniques d’optimisation
sélectionnées
Schéma de placement
Ressources utilisées
1. Techniques d’optimisation
2. Contraintes liées à la sélection
Figure 6.2 – La conception physique.
Avant de définir le problème de sélection de structure d’optimisation, nous donnons quelques notations.
Une famille de structures d’optimisation, comme les index, les vues matérialisées, le partitionnement,
est dénotée par S O¯ = {VM, HF , I}. Une structure d’optimisation est une instance d’une famille
donnée. Si par exemple, une classe S O ∈ S O¯ est VM, alors la structure d’optimisation représentera un
ensemble de vues à matérialiser. A chaque classe de S O¯ est associé un ensemble de contraintes dénoté
par contr(S O). Les contraintes liées aux index et aux vues matérialisées représentent le coût de stockage.
Le problème de sélection de ces structures est défini comme suit.
Entrées :
– Charge de requêtes Q = {Q1, Q2, ·, Qk} ;
– Ensemble des structures d’optimisation S O¯ ;
– Ensemble des contraintes contr(S O).
Sorties : un ensemble de structures optimisant le temps d’exécution de Q et satisfaisant les contraintes
contr(S O).
Ce problème est connu comme étant NP-difficile pour chaque instance. Une large panoplie d’algorithmes
a été proposée pour résoudre cette complexité, en prenant en compte un ensemble de requêtes.
Ces dernières sont souvent issues de l’ensemble des besoins identifiés dans la phase de recueil de besoins.
Donc, on peut se demander pourquoi attendre la conception physique pour sélectionner des structures
d’optimisation, si nous pouvons la faire lors de la phase de conception.
3 Conception physique dirigée par les besoins
Les différentes techniques d’optimisation s’effectuent habituellement au niveau physique comme
l’indexation ou la fragmentation horizontale qui reposent sur une charge de requêtes fréquentes et un
ensemble de contraintes données (espace de stockage, coût de mise à jour, etc). Cette charge de requêtes
n’est obtenue qu’après une période d’exploitation de la base de données. Or, il est probable que cette
charge de requêtes soit incluse dans l’ensemble des besoins des utilisateurs qui eux sont disponibles dès
le début de la conception puisqu’il sont fournis par la phase de collection et d’analyse des besoins. Par
exemple, l’ensemble des contraintes (l’espace de stockage, le coût de mise à jour,etc.) est collecté auprès
109Chapitre 6. Exploitation des besoins pour la conception physique
des parties prenantes du système sous forme de besoins non fonctionnels.
Dans ce travail, nous proposons d’exploiter les besoins des utilisateurs pour effectuer une optimisation
dès le niveau logique. Ainsi, nous envisageons de faire remonter ces tâches d’optimisation du niveau
physique au niveau logique, et donc d’alléger un peu la lourde responsabilité de l’administrateur en délé-
gant cette tâche au concepteur. Nous tentons ici de fournir un lien "humain" entre la conception logique
et la conception physique et de réduire ainsi l’écart entre ces deux niveaux de conception.
Le problème de sélection de ces structures est défini comme suit.
Entrées :
– Ensemble des besoins B = {B1, B2, ·, Bk} ;
– Ensemble des structures d’optimisation S O¯ ;
– Ensemble des contraintes contr(S O).
Sorties : un ensemble de structures d’optimisation optimisant le temps d’exécution de Q et satisfaisant
les contraintes contr(S O).
Nous considérons dans ce chapitre deux cas d’étude : le problème de sélection des index I et celui de
la fragmentation horizontale HF . Nous reformulons ces problèmes en prenant comme entrée les besoins
des utilisateurs.
3.1 La sélection des index
Afin d’offrir des solutions d’indexation adaptées au contexte des ED, de nouveaux index ont été
proposés. On peut ainsi citer (a) les index binaires [33] qui optimisent les opérations de sélection définies
sur des attributs appartenant à des tables de dimension. Ces index sont largement utilisés dans les bases de
données XML [14] et dans la recherche d’information [14]. (b) Les index de jointures en étoile permettant
de stocker le résultat d’exécution d’une jointure en étoile entre plusieurs tables. (c) Les index de jointure
binaire (IJB) [97] quant à eux permettent d’optimiser à la fois les jointures en étoile et les opérations de
sélections définies sur les tables de dimensions. Les index de jointure binaire sont supportés par la plupart
des SGBD commerciaux. Nous distinguons deux types d’IJB : les IJB simples (mono-attribut) définis
sur un seul attribut d’une table de dimension et les IJB multiples (multi-attributs) définis sur plusieurs
attributs issus d’une ou plusieurs tables de dimensions. Pour faciliter l’exploitation et la gestion des
IJB multiples volumineux, certains travaux ont proposé l’utilisation de la fragmentation verticale et
horizontale [31].
La sélection d’index de jointure en étoile est un problème difficile [24]. Il est défini comme suit.
– I = {I1, ..., In} un ensemble d’index candidats (obtenus à partir des prédicats de sélection des
requêtes).
– Q = {Q1, ..., Qk} un ensemble de requêtes.
– S la taille de l’espace de stockage allouée pour les index.
L’objectif du problème de sélection des index de jointure binaire est de trouver une configuration d’index
réduisant le coût d’exécution des requêtes et satisfaisant la contrainte de stockage 33
.
D’après cette formalisation, nous constatons la présence des requêtes et avec la présence des besoins,
nous proposons une autre formalisation dirigée par les besoins :
33. Le stockage de l’ensemble des index ne doit pas dépasser la contrainte S
1104. Persistance des besoins
– I = {I1, ..., In} un ensemble d’index candidats (obtenus à partir des besoins).
– B = {B1, ..., Bm} un ensemble de besoins.
– S la taille de l’espace de stockage allouée pour les index.
Cette formalisation a le même objectif que la précédente.
3.2 La fragmentation horizontale
La fragmentation horizontale (F H) est une technique d’optimisation considérant comme l’une des
structures d’optimisation dans le cadre des entrepôts de données relationnels. Elle permet de décomposer
une table en plusieurs sous ensembles disjoints appelés fragments horizontaux, chacun contient
un sous ensemble de tuples. On distingue deux types de F H : (1) F H primaire définie sur une table
de dimension en fonction de ses propres attributs, et (2) F H dérivée définie sur la table des faits en
fonction des dimensions fragmentées. La fragmentation dérivée est adaptée au contexte des entrepôts
de données relationnels. Le problème de sélection d’un schéma de F H est un problème difficile [16].
Traditionnellement, il est formalisé de la manière suivante.
Étant donnés :
– un schéma d’un entrepôt de données composé d’un ensemble de tables de dimensions D = {D1, D2, ..Dd}
et une table de faits F ;
– un ensemble de requêtes Q = {Q1, ..., Qk} ;
– un seuil maximal de fragments finaux W de la table des faits. Ce seuil est fixé par l’administrateur.
Le problème de la F H consiste alors à sélectionner un schéma de fragmentation optimisant le coût
d’exécution des requêtes et satisfaisant le seuil W. D’une manière similaire à ce que nous avons proposé
pour les index, une autre formalisation dirigée par les besoins peut être élaborée.
Le passage d’une formalisation dirigée par des requêtes à une formalisation dirigée par des besoins
nécessite une analyse approfondie des besoins pour extraire les requêtes. Pour ce faire, nous proposons
d’abord de persister les besoins dans une base de données pour pouvoir ensuite les exploiter afin d’identifier
les requêtes.
4 Persistance des besoins
Rappelons que les besoins représente le coeur de toute conception. Pour cela, il est important de les
stocker au sein de la base de données de manière à ce que les concepteurs puissent les trouver facilement
via des procédures d’intégration. Il est à noter aussi que dans n’importe quel projet lié aux bases/entrepôts
de données, aucune trace du modèle des besoins n’est sauvegardée. Etant donné que nos besoins sont
sémantiques (liés à une ontologie), nous proposons une solution de stockage au sein d’une base de
données à base ontologique conçue au laboratoire LIAS, appelée OntoDB [45] qui est implantée sur le
SGBD (Système de Gestion de Base de Données) PostgreSQL 34. Comme illustré dans la Figure 6.3,
l’architecture d’OntoDB se compose des parties suivantes :
– Partie méta-base : souvent appelée system catalog, elle représente la partie traditionnelle des bases
de données classiques qui contient les tables décrivant les tables (méta-base). Dans OntoDB, elle
34. http://www.postgresqlfr.org/
111Chapitre 6. Exploitation des besoins pour la conception physique
contient la description des structures définies dans les trois autres parties ;
– Partie données : contient les instances des classes de l’ontologie, et les propriétés associées à ces
dernières. Elle est stockée sous forme horizontale (Une table pour chaque classe);
– Partie Ontologie : elle contient les concepts (classes, propriétés et relations) de l’ontologie, formalisés
conformément au modèle d’ontologie PLIB;
– Partie Méta-schéma : elle décrit le modèle d’ontologie utilisé, et donc le méta-schéma des instances
ontologiques.
Figure 6.3 – Architecture d’OntoDB.
L’architecture d’OntoDB permet le support des évolutions du modèle d’ontologies PLIB et l’extension
de ce modèle lorsque le besoin se présente. L’interrogation des données au niveau ontologique est
assurée par le langage de requête OntoQL [70].
4.1 Le langage d’exploitation OntoQL
OntoDB est dotée du langage de requêtes OntoQL [70] qui permet d’interroger les données ainsi que
l’ontologie et son modèle persisté sur OntoDB. Il étend le langage SQL pour pouvoir exploiter la partie
ontologique. Il est basé sur un noyau commun aux différents modèles d’ontologie et du fait qu’il n’est pas
statique, il peut être donc facilement étendu par des instructions dédiées. Ainsi, OntoQL est indépendant
de la représentation de l’ontologie (formalisme) et de la représentation des données (logique).
4.2 Persistance des besoins
Nous avons implémenté notre mécanisme de persistance des besoins dans la base de données à base
ontologique OntoDB possédant une architecture de type III (figure 6.4). La structure d’OntoDB offre une
1124. Persistance des besoins
ED sémantique
Méta-modèle ontologie +
méta-modèles de besoins Catalogue système
Instanciation Instanciation
Ontologie de besoins
Traduction
Modèle logique (MLD)
Modèle de besoins
ED sémantique
Méta-modèle ontologie +
méta-modèles de besoins Catalogue système
Instanciation Instanciation
Ontologie de besoins
Traduction
Modèle logique (MLD)
Modèle de besoins
Figure 6.4 – BDBO de type III étendu par les besoins des utilisateurs.
grande flexibilité et permet son extension par le méta-modèle des besoins. Cette extension se fait selon
un schéma horizontal où chaque classe du méta-modèle des besoins est représentée par une table Entity
dans le métaschéma d’OntoDB. Cette extension se fait en utilisant le langage ontologique OntoQL, plus
précisément via le Langage de Définition des Ontologies (LDO) [69] à travers la syntaxe suivante :
CREATE E n t i t y # [ nom de l ’ e n t i t é ] ( [ nom d ’ a t t r i b u t , Type d ’ a t t r i b u t ( P r o p e r t y ) ] )
Le script suivant contient les requêtes OntoQL permettant la création du méta-modèle des besoins
dans le méta-schéma :
CREATE E n t i t y # Ge ne ricMet am o d el ( # Domain S t r i n g ,
#Name S t r i n g , # Date Date , # c o l l e c t s REF( # R e q ui r em e nt s ) )
CREATE E n t i t y # R e s u l t ( # i t s _ p r o p e r t i e s REF ( # P r o p e r t y ) A r r a y )
CREATE E n t i t y # A cti o n ( # i t s _ p r o p e r t i e s REF ( # P r o p e r t y ) A r r a y )
CREATE E n t i t y # C r i t e r i o n ( # i t s _ p r o p e r t i e s REF ( # P r o p e r t y ) A r r a y )
CREATE E n t i t y # R e q ui r em e nt ( # IdReq I nt , #NameReq S t r i n g ,
# D e s c r i p t i o n R e q S t r i n g , # C o nt e xtR e q S t r i n g , # P r i o r i t y R e q I nt ,
# d e f i n e d _ f o r REF( # R e s u l t ) , #ComposedOf REF( # A cti o n ) ,
#MesuredBy REF( # C r i t e r i o n ) , # I s R e s p o n s i b l e REF( # A ct o r ) )
CREATE E n t i t y # O p e r a t i o n UNDER # C r i t e r i o n
CREATE E n t i t y # F u n cti o n UNDER # C r i t e r i o n
CREATE E n t i t y # Goal UNDER # R e q ui r em e nt
CREATE E n t i t y # UseCase UNDER # R e q ui r em e nt
CREATE E n t i t y # T r e atm e nt UNDER # R e q ui r em e nt
CREATE E n t i t y # F u n c t i o n a l _ R e q u i r e m e n t UNDER # R e q ui r em e nt
CREATE E n t i t y # N o n F u n cti o n al _R e q ui r em e nt UNDER # R e q ui r em e nt
113Chapitre 6. Exploitation des besoins pour la conception physique
4.3 Génération des requêtes SQL
Notre proposition consiste à identifier une charge de requêtes en s’appuyant sur les besoins exprimés
avec notre modèle générique (voir section 2 du chapitre 5). Pour ce faire, nous devons parcourir les
besoins et les transformer en requêtes SQL. Après analyse, il s’avère qu’il existe deux types de besoins :
– Besoin « mesurable » (type requête) : C’est un besoin qui peut être mesurable, car il possède un
résultat (souvent quantifiable), et éventuellement un critère, par exemple, le besoin qui « mesure
le nombre des étudiants de sexe féminin », représente un besoin dont le résultat est le nombre des
étudiants et le critère est le sexe féminin. Il est souvent lié aux besoins fonctionnels.
– Besoin « non mesurable » (type programme) : C’est un besoin qui ne possède pas de résultat (pouvant
être exprimé en fonction des concepts ontologiques) tel que nous l’avons défini dans notre
modèle, Par exemple, le besoin qui s’inscrit dans la maintenance web du domaine universitaire
«l’enseignant a besoin d’une interface contenant tel ou tel champs pour évaluer l’étudiant », ne
possède pas de résultat, il décrit plutôt un programme informatique.
Au niveau d’instances physiques, les besoins mesurables sont ceux qui possèdent une liaison avec la
classe «Result » et éventuellement avec la classe «Criterion », contrairement aux besoins non mesurables
qui se contentent d’avoir une description.
En effet, seuls les besoins type requêtes peuvent être transformés en requêtes (d’où leurs noms
d’ailleurs), en opérant une transformation de type Model To Text définie dans l’ingénierie dirigée par
les modèles (IDM). Cette étape est réalisée à l’aide du langage de transformation Acceleo 35 disponible
sous l’environnement Eclipse, pour la définition des règles de transformation appliquées sur chaque besoin
ontologique comme décrit ci-après :
SELECT [ R e s u l t . Measu re ] ( P r o p e r t y ) [ R e s u l t . De fi ne dB y ]
FROM ( C l a s s ) [ R e s u l t . De fi ne dB y ]
WHERE C r i t e r i o n . De fi ne dB y C r i t e r i o n . Opr C r i t e r i o n . L i t e r a l
Prenons l’exemple du besoin suivant extrait des besoins décisionnels de la spécification de SSB :
Ce besoin mesure l’augmentation des revenus des commandes engendrée par l’éliminiation de certaines
réductions de commandes selon des quantités données dans une année donnée. Sachant que l’augmentation
des revenus est égale au produit [Prix-étendu*remise 36].
Tout d’abord, ce besoin est modélisé suivant notre modèle générique des besoins comme suit : (figure
6.5)
Notons qu’ici le Result est défini non pas par un seul concept comme c’est le cas pour les quatre
critères, mais plutôt par une expression de concepts. Cette expression est composée de l’opérande gauche
qui est la propriété lo_extendedPrice, l’opérande droit lo_discount et l’opérateur arithmétique *.
Une fois ce besoin est persisté, nous pourrions le transformer en requêtes (si besoin est), en appliquant
la règle de transformation d’Acceleo comme suit :
– Action définit le type de la requête, si sa valeur est égale à Display, il s’agit d’une requête SELECT,
sinon (Delete, Modify, Create) la clause SELECT est remplacée par la clause appropriée
(DELETE, UPDATE, CREATE) avec les modifications nécessaires.
35. http://www.acceleo.org/pages/accueil/fr
36. Le prix étendu est représenté ontologiquement par la propriété lo_extendedPrice de la commande, représentée à son tour
par la classe Lineorder. Quant à la remise, elle est représentée par la propriété lo_discount de Lineorder
1144. Persistance des besoins
#Result
Measure = Sum
#Criterion 1
Opr : =
Literal : 1993
#Criterion 2
Opr : <
Literal : 3
#Criterion 3
Opr : <
Literal : 1
#Criterion 4
Opr : <
Literal : 25
#Expression
Op : *
LOp
ROp
DefinedBy
#d-year
DefinedBy
DefinedBy
DefinedBy
DefinedBy
#lo-discount
#lo-quantity
#lo-discount
#Requirement 0001
#lo-discount
#lo-extenderprice
IdReq = 0001
DescriptionReq = ce besoins mesure l’…
Context = Business context
Priority = Mandatory
TypeReq = Fuctional requirements …
#Action
Description :
Display
#Result
Measure = Sum
#Criterion 1
Opr : =
Literal : 1993
#Criterion 2
Opr : <
Literal : 3
#Criterion 3
Opr : <
Literal : 1
#Criterion 4
Opr : <
Literal : 25
#Expression
Op : *
LOp
ROp
DefinedBy
#d-year
DefinedBy
DefinedBy
DefinedBy
DefinedBy
#lo-discount
#lo-quantity
#lo-discount
#Requirement 0001
#lo-discount
#lo-extenderprice
IdReq = 0001
DescriptionReq = ce besoins mesure l’…
Context = Business context
Priority = Mandatory
TypeReq = Fuctional requirements …
#Action
Description :
Display
Figure 6.5 – Un besoin SSB modélisé suivant notre modèle générique des besoins.
– La clause SELECT de la requête porte sur la valeur de l’attribut « measure » (SUM, AVG, etc. s’il
existe) de la classe «Result », et les propriétés constituant l’expression liée à cette dernière.
– La clause FROM, quant à elle, porte sur les classes constituant l’expression liée à la classe
«Result ».
– Enfin, pour la clause WHERE, elle est définie par la classe «Criterion », qui se compose dans
l’ordre, d’une opérande gauche (Concept), d’un opérateur de comparaison, et d’une opérande
droite (Litérale).
Ainsi, notre besoin est transformé en la requête suivante :
SELECT {somme ( l o _ e x t e n d e d p r i c e *
l o _ d i s c o u n t ) }
FROM { l i n e o r d e r , d a t e }
WHERE { d _ y e a r = 1 9 9 3 , l o _ d i s c o u n t <3 , l o _ d i s c o u n t >1 , l o _ q u a n t i t y <25}
115Chapitre 6. Exploitation des besoins pour la conception physique
5 Expérimentation et évaluation de notre proposition
Afin d’illustrer notre démarche, nous présentons une étude de cas basée sur le domaine des transactions
commerciales.
5.1 Structures d’optimisation comme des services
Pour évaluer nos propositions concernant la conception physique, nous avons développé une approche
orientée service pour lier nos travaux à ceux des doctorants travaillant sur la conception physique
au laboratoire. Plus précisément nous avons demandé à Amira Kerkad et Rima Bouchakri qui s’inté-
ressent respectivement à la fragmentation horizontale et les index de jointure binaire de nous fournir un
service qui reçoit en paramètre les entrées de chaque problème : le schéma de l’entrepôt de données,
l’ensemble des besoins et les contraintes et qui retourne les résultats. Nous avons ensuite alimenté ce
service avec les requêtes identifiées à partir des besoins. Par cette démarche, notre but est d’évaluer si
l’approche de sélection des structures d’optimisation à partir des besoins permet d’obtenir des résultats
proches de ceux obtenus par l’approche basée sur les requêtes.
Pour le schéma nous avons utilisé les données du banc d’essai Star Schema Benchmark 37 (SSB), qui
est basé sur le schéma de données du benchmark TPC-H. La figure 6.6 présente une partie de l’ontologie
SSB sous la forme d’un diagramme de classes. Il comporte différentes classes relatives au domaine
des transactions commerciales. La classe centrale est : Order, liée aux classes Customer, Supplier, Partproduct
et Time. D’autres classes décrivent la localisation du client comme City, Nation et Region. Les
classes Category et Brand décrivent le type et la marque du produit. Dans ce chapitre, nous considé-
rons le schéma de données SSB comme l’ontologie globale couvrant la sémantique du domaine. Nous
considérons également les besoins décisionnels (business questions) définis au niveau de la spécification
du benchmark SSB comme les besoins exprimés par les concepteurs du système. Dans les sections suivantes,
nous présentons les résultats des deux sélections dirigées par les besoins concernant les index de
jointure binaire et la fragmentation horizontale.
5.2 La sélection des index
Les expérimentations sont effectuées sur le schéma logique du benchmark SSB. L’ensemble des
besoins décisionnels (13 besoins) spécifiés dans la spécification du banc d’essai SSB sont exploités (voir
annexe 2.5). Les expérimentations ont donné les résultats résumés dans le tableau 6.1. Ce tableau présente
les index générés et le taux d’optimisation du coût d’exécution de chaque besoin. Ces résultats sont
confrontés aux index et aux coût d’optimisation obtenus à partir de la charge des requêtes finales (fournies
au niveau de la spécification du banc d’essai SSB). Ces résultats confirment que les index proposés par
les besoins couvrent les index proposés par les requêtes du banc d’essai. Les coûts d’optimisation sont
également similaires. Ceci s’explique par le fait que les requêtes issues des besoins sont similaires aux
requêtes du banc d’essai (sans les clauses group by et order by que nous n’avons pas pu générer).
37. http://www.cs.umb.edu/ poneil/StarSchemaB.PDF
1165. Expérimentation et évaluation de notre proposition
Figure 6.6 – Ontologie du benschmark SSB.
5.3 La fragmentation horizontale
Le service de la fragmentation horizontale utilise l’algorithme basé sur un recuit simulé [15]. Nous
avons comparé les résultats de la fragmentation effectuée en utilisant 12 requêtes de la vraie charge de
requêtes du banc d’essai SSB et les requêtes que nous avons obtenues à partir des besoins. La figure 6.7
illustre les résultats des expérimentations effectuées. Nous remarquons que les besoins apportent un gain
en performance supérieur de 15% comparé aux requêtes. Cette amélioration s’explique par l’absence des
Group By. Ces résultats sont encourageants dans le sens où nous montrons que les besoins permettent
de fournir une optimisation par la F H pratiquement équivalente à une fragmentation effectuée lors de la
phase physique.
La tableau 6.2 illustre les gain en performance par requête.
Ces deux études ont montré la faisabilité de la sélection des structures d’optimisation en se basant
sur les besoins. Ce qui nous incite à penser un autre modèle économique de conception de bases de
données (figure 6.8). Certaines tâches que les concepteurs peuvent faire leur seront alors attribués ce
qui soulage le travail des administrateurs. Rappelons que plusieurs outils d’administration ont été proposés
par les éditeurs commerciaux comme : Oracle SQL Tuning Advisor [42], DB2 Design Advisor
[132] et Microsoft Database Tuning Advisor [9]. Par exemple Oracle SQL Tuning Advisor est un outil
117Chapitre 6. Exploitation des besoins pour la conception physique
Stockage (GO) Besoins Requêtes
Index Coût (%) Index Coût (%)
1 d_year 46.7 d_year 46.7
1.5 d_year, s_region 72.7 d_year, s_region 72.7
2 d_year, s_region, p_category 75.1 d_year, s_region, p_category 75.1
2.5 d_year, d_yearmonth,
s_region
87.9 d_year, d_yearmonth,
s_region
87.9
3 d_year, d_yearmonth,
s_région
87.9 d_year, d_yearmonth,
s_région
87.9
3.5 d_year, d_yearmonth,
s_region, p_category
90.2 d_year, d_yearmonth,
s_region, p_category
90.2
4 d_year, d_yearmonth,
c_region, s_region,
p_category
91.7 d_year, d_yearmonth,
c_region, s_region,
p_category
91.7
4.5 d_year, d_yearmonth,
c_region, s_region, p_mfgr,
p_category
92 d_year, d_yearmonth,
c_region, s_region, p_mfgr,
p_category
91.9
5 d_year, d_yearmonth,
c_region, s_region, s_nation,
p_category
92.7 d_year, d_yearmonth,
c_region, s_region, s_nation,
p_category
92.6
Table 6.1 – Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux requêtes
Besoins Requêtes
N° Gain (%) N° Gain (%)
Q1 75 Q1 75
Q2 50 Q2 87,5
Q3 87,5 Q3 75
Q4 88 Q4 50
Q5 66 Q5 50
Q6 66 Q6 50
Q7 66 Q7 75
Q8 0 Q8 50
Q9 50 Q9 50
Q10 50 Q10 50
Q11 68 Q11 75
Q12 50 Q12 50
Table 6.2 – Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux requêtes
1186. Conclusion
28,458
10,620375
24,489
9,855401
0
5
10
15
20
25
30
Schéma initial Fragmentation horizontale
Millions (I/O)
Requêtes Besoins
Figure 6.7 – Fragmentation horizontale à partir des besoins.
permettant de générer des conseils pour optimiser une charge de requêtes afin d’améliorer leurs performances.
Les conseils se présentent sous forme de recommandations, chacune avec le bénéfice qu’elle
apporte. L’administrateur a le choix soit d’accepter les conseils soit de les compléter. Les recommandations
concernent trois structures d’optimisation : les vues matérialisées, les index définis sur une seule
table et la fragmentation horizontale primaire. Ces recommandations sont établies en utilisant les modèles
de coût basés sur des statistiques sur la base de données. Cet outil utilise souvent une sélection
isolée. DB2 Design Advisor est une amélioration de l’outil DB2 Index Advisor tool défini initialement
pour automatiser la sélection des index. DB2 Design advisor permet de générer des recommandations sur
quatre structures d’optimisation : les vues matérialisées, les index, la fragmentation horizontale primaire
et le groupement. La fragmentation horizontale est limitée au mode de Hachage dans une architecture
parallèle où plusieurs processeurs sont interconnectés à travers un réseau. L’outil Microsoft Database
Tuning Advisor, par exemple fait partie intégrante de SQL Server 2005. Les recommandations géné-
rées par cet outil concernent quatre techniques d’optimisation : la fragmentation horizontale primaire, la
fragmentation verticale, les index et les vues matérialisées. Contrairement à l’outil d’Oracle, Database
Tuning Advisor utilise l’optimiseur de requêtes pour évaluer la qualité des techniques sélectionnées et
les différentes alternatives. Pour réduire le coût des appels à l’optimiseur, l’outil utilise des serveurs de
tests pour estimer la qualité des différentes structures. D’autres outils académiques ont été également
proposés, on peut citer l’exemple de l’outil PARINDA [89], développé à l’Ecole Polytechnique Fédérale
de Lausanne.
Pour conclure, notre travail soulève la question suivante : déléguer les tâches d’administration aux
concepteurs remplacera t-il les advisors?
6 Conclusion
Dans ce chapitre, nous avons montré la contribution de notre approche de gestion des besoins sur
la phase physique des bases de données volumineuses comme les entrepôts de données. Au lieu de sé-
lectionner les structures d’optimisation lors de la phase physique, nous avons proposé une méthodologie
permettant de les sélectionner lors de la conception de la base de données. Cette démarche pourrait ré-
119Chapitre 6. Exploitation des besoins pour la conception physique
Niveau ontologique
Outils
D’administration
Concepteurs
DBA
Requêtes, rapports, statistiques …
SELECT
FROM
WHERE
Niveau conceptuel
Requêtes utilisateurs
Besoins
Sources
Niveau logique
Niveau physique
Niveau ontologique
Outils
D’administration
Concepteurs
DBA
Requêtes, rapports, statistiques …
SELECT
FROM
WHERE
Niveau conceptuel
Requêtes utilisateurs
Besoins
Sources
Niveau logique
Niveau physique
Figure 6.8 – Nouvelle vision de conception des bases de données.
duire considérablement les tâches de l’administrateur. Nous avons montré l’intérêt de notre approche sur
deux structures d’optimisation, les index de jointure binaire et la fragmentation horizontale. Une validation
sur le système de gestion de bases de données ontologique OntoQL est proposée en utilisant les
données du banc d’essai SSB.
Dans le chapitre suivant, nous proposons un prototype d’outil implémentant nos contributions.
120Chapitre 7
Prototype de validation
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1.1 Langages et outils utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2 Architecture fonctionnelle de OntoReqTool . . . . . . . . . . . . . . . . . . . 123
2.1 Les modules de la partie intégration . . . . . . . . . . . . . . . . . . . . 123
2.2 Les modules de la phase d’exploitation . . . . . . . . . . . . . . . . . . . 127
3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Résumé. Dans ce chapitre, nous présentons un outil, appelé OntoReqTool assistant les
concepteurs dans leur tâches d’intégration et d’exploitation des besoins. Il offre aux concepteurs
la possibilité de visualiser l’ontologie de domaine partagée, l’extraction de leurs ontologies
locales, l’expression des besoins selon leurs ontologies locales, la transformation de
chaque langage de besoins vers le modèle pivot, et le raisonnement. Pour la partie exploitation,
l’outil offre aux concepteurs la possibilité de persister les besoins et de les utiliser pour
la conception physique.
1211. Introduction
1 Introduction
Pour que les concepteurs d’une entreprise étendue s’approprient les concepts et les méthodes proposées,
le développement d’un outil est une tâche primordial. L’une des caractéristiques de cet outil est
sa simplicité. L’outil développé couvre les deux principales phases de nos contributions : l’intégration
des besoins hétérogènes et leur exploitation. Pour la première contribution, l’outil doit d’abord offrir aux
concepteurs la possibilité de charger une ontologie dans l’espace des ontologies et de la visualiser. L’af-
fichage doit être ergonomique offrant diverses fonctionnalités de navigation comme l’accès à n’importe
quelle hiérarchie de l’ontologie. Une fois chargée, un concepteur peut facilement identifier une partie
de l’ontologie qui correspond à sa tâche et qui représentera son ontologie locale. Ensuite, il exprime
ses besoins selon son langage favori. Une fois les besoins exprimés, l’ensemble des langages sont transformés
sur le modèle pivot. Toutes les transformations sont visibles aux concepteurs. Le processus de
raisonnement quant à lui, permet de montrer aux concepteurs l’ensemble des besoins conflictuels.
Pour la partie exploitation, l’outil offre aux concepteurs la possibilité de visualiser l’ensemble des
besoins valides, les persister, les transformer en requêtes et lancer le type d’optimisation (les index de
jointure binaire ou la fragmentation horizontale) qu’il souhaite considérer durant sa conception physique.
Dans les sections suivantes, nous commençons par détailler les langages et outils utilisés pour réaliser
notre outil, baptisé OntoReqTool. Nous décrivons ensuite son architecture fonctionnelle et l’ensemble de
ses modules et ses composants.
1.1 Langages et outils utilisés
Nous avons travaillé avec l’éditeur d’ontologie Protégé 3.4.4 38 pour gérer des ontologies, quant à
la partie raisonnement, nous avons utilisé le moteur JESS disponible sous l’éditeur d’ontologié Protégé.
Pour la partie transformation Model-to-Model, nous avons utilisé l’outil Ecore et ATL 39(ATLAS
Transformation Language) de l’environnement Eclipse. Eclipse est un environnement de développement
intégré qui permet d’incorporer des plugins pour utiliser les techniques d’IDM.
Pour persister les besoins, nous avons utilisé le système de gestion de bases de données OntoDB
comme nous l’avons déjà évoqué dans le chapitre précédent.
2 Architecture fonctionnelle de OntoReqTool
L’architecture générale de notre outil est composée de huit modules dont cinq concernant la partie
intégration et trois la partie exploitation (Figure 7.1).
2.1 Les modules de la partie intégration
les modules concernant la partie d’intégration des besoins se déclinent en cinq parties : (a) le chargement
et la visualisation de l’ontologie, (b) le couplage de l’ontologie globale aux besoins, (c) l’extraction
38. http://protege.stanford.edu/download/registered.html
39. http://www.eclipse.org/atl/
123Chapitre 7. Prototype de validation
Projection des
Besoins sur
l’OG
Module 2
Extraction des
OLs des besoins
Module 3
Transformation
des besoins en
modèle générique
Module 4
Raisonnement
sur les besoins
Module 5
Persistance des
besoins dans l’ED
Module 6
Génération des
requêtes SQL
Module 7
Optimisation de
l’ED
Module 8
Étape I : Intégration des besoins
Étape II : Exploitation des besoins
Chargement et
visualisation de
l’OG
Module 1
Fichier .owl
Protégé Protégé ProSé plugin Protégé ATL plugin Eclipse Jess plugin Protégé
OntoQL Acceleo plugin Eclipse OntoDB PostgreSQL
ED sémantique
Projection des
Besoins sur
l’OG
Module 2
Extraction des
OLs des besoins
Module 3
Transformation
des besoins en
modèle générique
Module 4
Raisonnement
sur les besoins
Module 5
Persistance des
besoins dans l’ED
Module 6
Génération des
requêtes SQL
Module 7
Optimisation de
l’ED
Module 8
Étape I : Intégration des besoins
Étape II : Exploitation des besoins
Chargement et
visualisation de
l’OG
Module 1
Fichier .owl
Protégé Protégé ProSé plugin Protégé ATL plugin Eclipse Jess plugin Protégé
OntoQL Acceleo plugin Eclipse OntoDB PostgreSQL
ED sémantique
Figure 7.1 – Architecture fonctionnelle de l’outil (OntoReqTool).
de l’ontologie locale, (d) la transformation des modèles de besoins vers le langage pivot, et (e) la partie
raisonnement.
1. Chargement et visualisation de l’OG : Ce module permet de charger et de visualiser l’ontologie
globale sous forme d’une arborescence. Grâce à l’utilisation de l’éditeur d’ontologie Protégé 3.4.4
qui possède une interface utilisateur graphique (GUI). Cette dernière permet de manipuler aisé-
ment tous les éléments de l’ontologie : classe, méta-classe, propriété, instance, etc. La figure 7.3
illustre un exemple d’affichage de l’ontologie globale LUBM[62] décrivant le domaine universitaire.
L’affichage de visualise les classes "Person", "Student", etc.), les propriétés ("name", "age",
etc.) et les instances ontologiques.
2. Projection des besoins sur l’ontologie globale : ce module consiste essentiellement à étendre l’ontologie
globale par des méta-classes constituant le méta-modèle générique des besoins. Le concepteur
peut alors définir ses besoins à partir de l’ensemble des concepts et propriétés de l’ontologie.
L’éditeur d’ontologies Protégé 3.4.4 permet de manipuler les méta-classes de l’ontologie locale
afin d’ajouter d’autres méta-classes. La figure 7.3 présente l’ontologie des besoins (OntoReq) qui
est définie par l’ajout des méta-classes constituant le méta-modèle générique. Pour chaque besoin,
le concepteur sélectionne les cordonnées d’un besoin (action, résultat et critère) en choisissant les
concepts et propriétés pertinents de l’ontologie globale.
1242. Architecture fonctionnelle de OntoReqTool
OntoReqTool
Figure 7.2 – Diagramme de cas d’utilisation de notre outil.
3. Extraction des ontologies locales (OL) : ce module consiste à extraire les ontologies locales à
partir de l’ontologie globale. Chaque ontologie locale peut être vu comme un fragment (partiel
ou total) de l’ontologie globale. Elle représente les concepts nécessaires utilisés pour spécifier les
besoins au niveau ontologique. Son extraction s’effectue en utilisant le plugin de modularité ProSé
disponible sous l’éditeur d’ontologies Protégé 3.4.4. Ce plugin permet aux concepteurs d’ajouter
ou de supprimer des classes et des propriétés au cas où les OL définies ne couvrent pas tous leurs
besoins, tout en assurant la cohérence et la complétude des ontologies définies. Dans notre étude
de cas, nous avons généré trois ontologies locales correspondant aux trois langages de besoins
utilisés (langage orienté buts, use case d’UML, et le modèle de traitements de Merise). La figure
7.4 présente un exemple d’une ontologie locale des buts (OntoGoal).
4. Transformation des besoins en modèle générique : l’objectif de ce module est d’assurer une transformation
des instances ontologiques qui sont définies localement dans les ontologies locales des
besoins (OntoGoal, OntoUcase et OntoMct) en un langage générique (Ontologie Pivot nommé
(OntoPivot)). Cette transformation est réalisée par des règles décrivant les correspondances entre
les entités des langages sources et celles de chaque langage cible. Plus concrètement, la transformation
se situe entre les méta-modèles sources "OntoGoal-Metamodel", "OntoUcase-Metamodel" et
"OntoMCT-Metamodel" et le méta-modèle cible "OntoReq-Metamodel" (Figure7.5). L’ensemble
de règles de transformation sont décrits dans l’annexe 2.5.
125Chapitre 7. Prototype de validation
(Besoins : Instances ontologique)
(Méta-classes : besoins)
(Classes du LUBM)
Figure 7.3 – Projection des besoins sur l’OG (OntoReq).
5. Le raisonnement sur les besoins : ce module consiste essentiellement à raisonner sur l’ontologie de
besoins afin d’identifier ceux qui sont contradictoires et ambigüs. Le mécanisme de raisonnement
utilisé par notre méthode est implémenté en exploitant les règles de raisonnement décrivant les
relations sémantiques entre les besoins. Ces règles sont définies en utilisant le langage SWRL 40
combinées au moteur d’inférence JESS comme illustré dans la figure 7.6.
40. http://flashinformatique.epfl.ch/spip.php?article1212
1262. Architecture fonctionnelle de OntoReqTool
OntoMCT
OntoUcase
OntoGoal
Ontologie de besoins (OntoReq)
Figure 7.4 – Ontologie locale des buts (OntoGoal).
2.2 Les modules de la phase d’exploitation
Deux modules caractérisent la phase d’exploitation : la persistance des besoins et la sélection des
structures d’optimisation.
1. Persistance des besoins dans un entrepôt de données sémantique : dans ce module l’ensemble des
besoins sont stockés dans une base de données sémantique développée au laboratoire. Cette base
est dotée d’un langage de requêtes sémantique OntoQl [69].
Afin de permettre au concepteur de persister ses besoins, nous lui offrons une interface graphique
(pour l’instanciation du méta-modèle en fonction des concepts ontologiques) (figure 7.8).
Prenons un besoin simple afin de montrer la manipulation des besoins via notre prototype qui
utilise OntoQL comme langage de requêtes. Cette manipulation doit assurer la création, la modifi-
127Chapitre 7. Prototype de validation
Figure 7.5 – Transformation des besoins en modèle générique.
cation, l’interrogation et la transformation en requête des besoins.
Besoin : Le système doit permettre à l’administration de supprimer les étudiants du département
"médecine" ayant une moyenne inférieure à 10.
– Modélisation (instanciation) du besoin via l’interface du prototype : suivant la description du
modèle des besoins détaillée dans le chapitre 5, notre besoin sera modélisé comme suit.
– Result : suppression des étudiants.
– Action : le résultat peut souvent être raffiné en plusieurs actions. Dans notre exemple, Il
pourrait s’agir tout d’abord d’une suppression de ces entités étudiant, puis d’une suppression
des entités ayant une relation avec ces dernières. OntoQL réalise ce processus implicitement
via une seule requête (action).
– Criterion : Le résultat peut également être contrôlé par une ou plusieurs métriques. Ici, deux
critères sont mises en évidence :
– Criterion 1 : les étudiants doivent appartenir au département de Médecine.
– Criterion 2 : les étudiants doivent avoir une moyenne inférieure à 10.
Autrement dit, on ne peut exécuter les actions (suppression) sur les entités étudiants, que s’ils
remplissent ces deux critères.
– Création des besoins : une fois les champs correspondants sont bien remplis, des requêtes OntoQL
sont générées automatiquement afin de persister (créer) les besoins introduits par l’utilisateur
dans la base de données (figure7.8). Pour cet exemple, les requêtes générées sont :
1282. Architecture fonctionnelle de OntoReqTool
Besoins (Instance) Besoins conflictuels Règles de raisonnement
Editeur des règles de
raisonnement
Jess
Besoins (Instance) Besoins conflictuels Règles de raisonnement
Editeur des règles de
raisonnement
Jess
Figure 7.6 – Raisonnement sur les besoins.
INSERT i n t o # R e s u l t ( # name , #On , # D e s c r i p t i o n ) VALUES ( ’ D el et e ’ , ( SELECT p . # oi d )
FROM # C l a s s p WHERE p . # name = ’ St u d e nt ’ ) , DELETE t h e s t u d e n t s o f m e di c al d e p a rt em e nt ,
owning an a v e r a g e l e s s e r t h a n 1 0 ’ )
INSERT i n t o # C r i t e r i o n ( # name , # r e l a t i o n , # s o u r c e , # t a r g e t ) VALUES ( ’ C r i t e r i o n 1 ’ , ’ e q u a l t o ’ ,
( SELECT p . # oi d FROM # P r o p e r t y p WHERE p . # name = ’ name ’
AND p . # s c o p e . # name = ’ D e p a rt em e nt ’ ) , ’ Medecine ’ )
INSERT i n t o # C r i t e r i o n ( # name , # r e l a t i o n , # s o u r c e , # t a r g e t )
VALUES ( ’ C r i t e r i o n 2 ’ , ’ l e s s e r t h a n ’ ,
( SELECT p . # oi d FROM # P r o p e r t y p WHERE p . # name = ’ a v e r a g e ’
AND p . # s c o p e . # name = ’ St u d e nt ’ ) , ’ 1 0 ’ )
UPDATE # C r i t e r i o n SET #andC = ( SELECT max ( c . # oi d ) )
FROM # C r i t e r i o n c ) WHERE # oi d = ( SELECT max ( c r . # oi d )
FROM # C r i t e r i o n c r WHERE c r . # name = ’ C r i t e r i o n 1 ’ )
INSERT i n t o # Goal ( # name , # d e s c r i p t i o n , # h a s R e s ult , # h a s C r i t e r i o n )
VALUES ( ’ Goal_0001 ’ , e t c )
INSERT i n t o # R e q ui r em e nt ( # IdReq , #NameReq , # D e s c ri pti o nR e q , # C o nte xtRe q , # P r i o r i t y R e q ,
# De finedBy , # Ac hie ve s , #ComposeOf , #MesuredBy , # I s R e s p o n s i b l e )
VALUES ( ’ 0 0 1 ’ , ’ Req_00000001 ’ , ’ The s y st em s h a l l all o w t h e a d m i n i s t r a t i o n
t o d e l e t e t h e s t u d e n t s b e l o n g i n t o t h e m e di c al d e p a rt e m e nt and h a vi n g an
a v e r a g e l e s s e r t h a n 1 0 ’ , ’ S c o l a r i t y ’ , 1 , St u d e nt , ( SELECT max ( r . # oi d )
FROM # R e s i l t r WHERE r . # name = ’ R e s ult 1 ’ ) , n u l l , ( SELECT max ( c . # oi d FROM # C r i t e r i o n c
WHERE c . # name = ’ C r i t e r i o 1 ’ ) , Dean o f S t u d i e s )
Une fois les besoins persistés, nous avons la possibilité de les modifier, de les interroger ou de
129Chapitre 7. Prototype de validation
Figure 7.7 – Interface graphique de la phase d’exploitation de l’ED.
Figure 7.8 – Persistance des besoins dans l’ED.
1302. Architecture fonctionnelle de OntoReqTool
les transformer principalement en requêtes SQL.
– Modification des besoins : notre interface ne permet pas de modifier le besoin en tant que tel
vu les différents paramètres pouvant être modifiés. Cependant le besoin peut être supprimé et
réintroduit, ou modifié par la console via OntoQL. A ce propos, les requêtes suivantes montrent
une modification du besoin initial, qui consiste à lui ajouter un critère (L’âge des étudiants
concernés doit être supérieur à 40 ans) :
INSERT i n t o # C r i t e r i o n ( # name , # r e l a t i o n , # s o u r c e , # t a r g e t )
VALUES ( ’ C r i t e r i o n 3 ’ , ’ g r e a t e r t h a n ’ ,
( SELECT p . # oi d FROM # P r o p e r t y p WHERE p . # name = ’ age ’ AND p . # s c o p e . # name = ’ St u d e nt ’ ) ,
’ 4 0 ’ )
UPDATE # C r i t e r i o n SET #andC = ( SELECT max ( c . # oi d ) ) FROM # C r i t e r i o n c )
WHERE # oi d = ( SELECT max ( c r . # oi d ) FROM # C r i t e r i o n c r WHERE c r . # name = ’ C r i t e r i o n 2 ’ )
– Interrogation des besoins : si l’utilisateur de notre prototype désire afficher les besoins persistés
jusque là, soit par curiosité ou dans le but d’en modifier/supprimer certains. Les requêtes
générées suivent le processus suivant :
(a) Nous parcourons d’abord les besoins, via la requête OntoQL
SELECT # oi d , #name FROM # R e q ui r em e nt
(b) Pour chaque besoin (résultat retourné par la requête précédente), nous extrayons ses résultats
comme suit :
SELECT r . # A c hi e v e s FROM # R e q ui r em e nt WHERE r . # oi d = + r s u l t S e t . g e t I n t ( 1 ) ) ;
(c) Pour chaque Result (résultat retourné par la requête précédente), nous extrayons les propriétés/concepts
ontologiques sur lesquels il porte :
SELECT r . # On FROM # R e s u l t r WHERE r . # oi d = "+ r s u l t S e t 2 . g e t I n t ( 1 ) ) ;
De la même manière, nous traitons les critères (respectivement les actions) s’il en existe, sauf
que nous prenons le chemin de Criteria (respectivement de Action et cela autant de fois qu’il y
a de critères (respectivement d’actions composant le résultat).
2. Génération des requêtes SQL : les besoins des utilisateurs, seront traduits en requêtes ontologiques,
i.e. manipulant des classes d’ontologie. Cette transformation est déjà détaillée dans la section du
chapitre 6. Pour cet exemple, la transformation aboutit à la requête suivante : (figure7.9).
DELETE{} FROM {STUDENT}
WHERE { a v e r a g e < 10 AND nameDep = ’ Medecine ’ }
3. La sélection des structures d’optimisation : dans ce module, l’ensemble des requêtes générées sont
prises en compte par les algorithmes de sélection des structures d’optimisation. Dans cette étude,
nous avons considéré le problème de la sélection des index de jointure binaire et la fragmentation
horizontale (figure 7.8). Ce module peut exécuter tout type de services permettant la sélection des
structures d’optimisation.
131Chapitre 7. Prototype de validation
Figure 7.9 – Requêtes SQL générées.
3 Conclusion
Dans ce chapitre, nous avons présenté un outil, appelé, OntoReqTool, permettant d’assister les concepteurs
dans leur tâche d’intégration et d’exploitation des besoins. Il offre des interfaces conviviales et
simples pour permettre aux concepteurs de naviguer et de visualiser l’ensemble des tâches effectuées.
Une autre caractéristique de l’outil est sa capacité à se connecter aux services de conception physique
dans le but de sélectionner des structures d’optimisation à partir des besoins.
Dans le chapitre suivant, nous établissons un bilan des contributions apportées et nous traçons diffé-
rentes perspectives de recherche qui pourraient être menées ultérieurement, tant du point de vue théorique
que pratique.
132Chapitre 8
Conclusion générale
Sommaire
1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
1331. Conclusion
1 Conclusion
Dans cette thèse, nous avons étudié le problème de l’intégration et de l’exploitation des besoins
dans le cadre des entreprises étendues. Dans cette section nous résumons les principaux apports de nos
travaux.
Nous avons d’abord positionné le rôle des besoins et leurs intérêts dans la conception d’applications
avancées. Les besoins se trouvent au cœur des systèmes d’intégration, qui regroupaient initialement les
données, les applications et les plateformes. Nous avons également identifié l’importance de les intégrer
dans le cadre d’une entreprise étendue qui peut regrouper un grand nombre de participants pour élaborer
un projet donné. Cette intégration pose énormément de problèmes d’hétérogénéité : hétérogénéité
sémantique et syntaxique, diversité des langages de modélisation des besoins, identification des besoins
conflictuels, etc. Après avoir fait le parallèle et surtout exploité les travaux d’intégration de sources de
données, nous avons proposé une démarche d’intégration des besoins dirigée par des ontologies conceptuelles
qui offrent un vocabulaire unifié à l’ensemble des concepteurs. Pour répondre au problème d’hé-
térogénéité des langages de modélisation des besoins, une solution d’intégration basée sur un modèle
pivot est proposée. Nous avons également montré l’intérêt des besoins pour le cycle de vie de conception
des bases et des entrepôts de données, plus particulièrement lors de la phase physique. Ces contributions
ont été motivées et expérimentées par l’utilisation des données issues de bancs d’essai utilisées par la
communauté d’entreposage de données.
1.1 Bilan des contributions
Vu la dimension multidisciplinaire de notre problème, nous avons été amené à faire deux états de l’art
conséquents, le premier sur l’ingénierie des besoins et l’ingénierie dirigée par des modèles, le second sur
les ontologies et leurs rôles dans la résolution des problèmes d’intégration des données et des besoins.
Notre première contribution est la proposition d’une solution d’intégration des besoins hétérogènes
unifiant les vocabulaires et les langages de modélisation des besoins utilisés. Pour unifier les vocabulaires,
nous avons travaillé sous l’hypothèse de l’existence d’une ontologie de domaine. Cette hypothèse
est tout à fait acceptable vu l’émergence des ontologies de domaine dans des univers aussi divers que
l’ingénierie, la médecine, l’environnement, etc. Chaque concepteur référence cette ontologie pour exprimer
ses besoins. Pour unifier les langages de modélisation des besoins et vu leur diversité, nous avons
étudié trois langages, précisément: Use case d’UML, le langage orienté buts, et le modèle de traitement
de la méthode Merise. Ce choix est motivé par leur popularité et leur utilisation intensive dans les projets
industriels et académiques. Cette étude nous a permis de définir un langage pivot factorisant l’ensemble
des langages étudiés. Un couplage entre l’ensemble des méta modèles utilisés et l’ontologie est établi.
Un scénario d’intégration des besoins est alors défini selon ce langage pivot. Chaque concepteur extrait
d’abord une ontologie locale qui référence l’ontologie globale satisfaisant ses exigences. Une fois extraite,
il décrit ses besoins en fonction de son ontologie locale. Ensuite, ses besoins sont transformés à
l’aide des règles sur le modèle pivot. Dans ce scénario, nous avons utilisé des transformations de type
Model-to-Model.
La deuxième contribution consiste à exploiter la puissance de l’ingénierie dirigée par les modèles
pour offrir un autre scénario d’intégration. Au lieu d’utiliser des transformations Model-to-Model, nous
135Chapitre 8. Conclusion générale
avons défini un méta-modèle représentant les besoins. Les trois modèles utilisés deviennent alors des
instances de ce méta-modèle. Dans ce cas, chaque concepteur donne seulement son langage préféré pour
concevoir une application, à la suite de quoi il extrait son langage des besoins couplé à son ontologie. La
présence de l’ontologie permet également de raisonner sur l’ensemble des besoins émis par les concepteurs.
Deux architectures d’implémentation de raisonnement sont considérées (i) ship whole et (ii) reason
as needed. Dans le premier scénario chaque concepteur envoie ses besoins sans aucun traitement local
au modèle générique qui effectue le raisonnement pour identifier les besoins conflictuels. Cette solution
peut être coûteuse si le nombre de besoins est important. Pour pallier ce problème, nous avons proposé
l’architecture reason as needed qui permet à chaque concepteur de raisonner localement autant qu’il le
peut, puis d’envoyer ensuite des besoins valides au modèle générique, qui à son tour effectue d’autres raisonnements.
L’évaluation des deux solutions a montré l’intérêt du raisonnement, ainsi que la supériorité
de la solution reason as needed sur la solution ship whole en termes de temps de traitement.
Notre troisième contribution a montré l’intérêt de l’utilisation des besoins dans la phase physique.
Rappelons que cette dernière représente une tâche coûteuse auprès des administrateurs. Pour alléger
cette tâche, ces derniers utilisent des advisors commerciaux. Notre vision est complètement différente,
et consiste à déléguer certaines tâches de la conception physique aux concepteurs. Nous avons montré
que le processus de sélection des structures d’optimisation se fait à l’aide d’un ensemble de requêtes
extraites à partir des logs. Si nous analysons les besoins, nous pouvons facilement extraire ces requêtes.
En conséquence, le processus de sélection peut se faire à l’aide des besoins. Nous avons montré l’intérêt
et la faisabilité de notre approche sur la sélection de deux structures d’optimisation, une redondante qui
représente les index de jointure binaire et l’autre non redondante représentant la fragmentation horizontale.
Nous avons implémenté notre démarche sur le système de gestion de bases de données OntoDB
développé au sein de notre laboratoire. Les besoins sont stockés au sein de cette base de données et des
programmes de génération de requêtes à partir de ces besoins sont développés. Nous avons comparé nos
algorithmes de sélection dirigés par les besoins sur les données du banc d’essai SSB avec ceux utilisés
par les requêtes. Rappelons que le banc d’essai SSB offre des requêtes sous forme de besoins et SQL.
Les résultats sont pratiquement similaires, ce qui montre que certaines tâches de conception physique
peuvent être déléguées aux concepteurs.
L’ensemble de nos contributions est prototypé afin d’assister les concepteurs dans leurs tâches d’expression,
d’intégration et d’exploitation des besoins.
2 Perspectives
De nombreuses perspectives tant à caractère théorique que pratique peuvent être envisagées. Dans
cette section nous présentons succinctement celles qui nous paraissent être les plus intéressantes.
2.1 Autres langages de modélisation des besoins
Nos propositions sont dirigées par trois langages de modélisation des besoins appartenant à la catégorie
semi-formelle. Il serait intéressant de considérer d’autres types de langages appartenant à la catégorie
formelle, telle que la méthode B, et d’évaluer leur impact sur la conception physique.
1362. Perspectives
2.2 Etude du passage à l’échelle de nos propositions
Pour évaluer la robustesse de nos propositions concernant l’intégration de besoins, notamment la
partie raisonnement, il est nécessaire de considérer un grand nombre de langage des besoins. Cette évaluation
doit se faire en développant des modèles de coût impliquant les aspects économiques, le temps
de calcul et le temps de transfert. Ces modèles de coût peuvent être utilisés pour développer d’autres
stratégies de raisonnement.
2.3 Définition des architectures d’intégration
Dans cette thèse nous n’avons pas pris en compte l’architecture de l’intégration des besoins. Rappelons
qu’il existe deux principales architectures pour supporter un système d’intégration : la solution
médiateur et la solution matérialisée. Dans l’architecture de type médiateur, l’intégration s’effectue en
deux étapes : (i) le système d’intégration génère, à partir d’une requête utilisateur, autant de sous requêtes
qu’il y a de partenaires à interroger, (ii) il construit alors la réponse finale à partir des résultats de sous
requêtes et la présente à l’utilisateur. Cette architecture repose sur deux composants essentiels : le médiateur
et l’adaptateur. Dans l’architecture matérialisée, l’intégration des données s’effectue également en
deux étapes : (i) les besoins issus des différentes sources sont dupliqués dans un entrepôt de données, (ii)
les requêtes des utilisateurs sont posées directement sur ce dernier. Dans les deux scénarii d’architecture,
il serait intéressant d’étudier à quel niveau effectuer la partie raisonnement parmi les choix suivants: au
niveau source, au niveau ETL (Extraction, Transformation, Loading) ou au niveau du schéma global.
2.4 Prise en compte de l’évolution
Dans une entreprise étendue, l’évolution est le maître mot. Elle peut concerner l’ontologie et les
besoins. L’étude de l’évolution des besoins des utilisateurs est un aspect important pour assurer la faisabilité
de l’approche dans une vraie entreprise étendue. L’évolution des besoins ne peut pas être traitée
sans prendre en compte l’architecture supportant le système d’intégration des besoins. Si l’architecture
matérialisée est adoptée, l’évolution des besoins peut être traitée au niveau ETL. Cette évolution impactera
directement la conception physique, et cet impact se ressentira immédiatement contrairement à
l’approche classique, où l’administrateur attend que les fichiers logs de requêtes soient établis. L’étude de
l’évolution des ontologies manipulées est un enjeu important qui doit être exploré. Cette évolution peut
concerner différents aspects, comme l’évolution du schéma de l’ontologie ou l’évolution des instances
ontologiques.
2.5 Elaboration d’un cycle de vie de conception d’applications avancées
L’équipe ingénierie des données et des modèles réalise depuis quelques années des travaux sur le
cycle de vie de conception d’application avancées, qui regroupent les bases de données, les entrepôts
de données, et les bases de données sémantiques. Ces travaux couvraient la modélisation conceptuelle,
la phase ETL, la modélisation logique, la modélisation physique, la personnalisation et la recommandation
des requêtes. Le travail de cette thèse est fondamentale pour l’élaboration de ce cycle. La prise
137Chapitre 8. Conclusion générale
en compte des besoins et des acteurs pourrait permettre de proposer facilement des solutions personnalisées
aux utilisateurs. Un autre intérêt est lié au fait que les besoins sont stockés dans la base de
données, nous pouvons donc facilement annoter les résultats d’exploitation qui pourraient être fournis
par des algorithmes de fouille de données exécutés sur la base de données. En conséquence, nous pourrions
associer à chaque connaissance trouvée la ou les personnes potentiellement intéressées. Un autre
élément qui pourrait être étudier est le crowdsourcing, où l’ensemble des concepteurs peuvent contribuer
à l’amélioration du produit final en interagissant sur toute la chaîne.
138Bibliographie
[1] The standish group, chaos. http://www.
standishgroup.com/chaos.html, 1995.
[2] Industrial automation systems and integration
- parts library - part 42: Description
methodology: Methodology for structuring
parts families. Technical report, 1998.
[3] Industrial automation systems and integration
- parts library - part 25: Logical resource:
Logical model of supplier library
with aggregate values and explicit content.
Technical report, 2004.
[4] The standish group, chaos summary
for 2010. http://insyght.com.au/
special/2010CHAOSSummary.pdf, 2010.
[5] User requirements notation (urn) - language
definition. Technical report, 2012.
[6] A. Abran, J.W. Moore, P. Bourque,
and R.E. Dupuis. Guide to the Software
Engineering Body of Knowledge.
http://www.swebok.org/.IEEE Computer
Society, 2004.
[7] J.R. Abrial. The B-book: assigning programs
to meanings. Cambridge University
Press, New York, USA, 1996.
[8] D. Agrawal, S. Das, and A. El Abbadi. Data
Management in the Cloud: Challenges and
Opportunities. Synthesis Lectures on Data
Management. Morgan & Claypool Publishers,
2012.
[9] S. Agrawal, S. Chaudhuri, L. Kollar, A. Marathe,
V. Narasayya, and M. Syamala. Database
tuning advisor for microsoft sql server
2005. In In Proceedings of the International
Conference on Very Large Databases,
(VLDB’04), pages 1110–1121, 2004.
[10] Y. Aït Ameur, M. Baron, and P. Girard. Formal
validation of hci user tasks. In the International
Conference on Software Engineering
Research and Practice (SERP’03),
pages 732–738. CSREA Press, 2003.
[11] G. Dahlstedt Asa and A. Persson. Requirements
interdependencies - moulding the
state of research into a research agenda. In
Ninth International Workshop on Requirements
Engineering: Foundation for Software
Quality (REFSQ 2003), held in conjunction
with (CAiSE 2003), pages 71–80, 2003.
[12] F. Baader, D. Calvanese D. McGuinness,
D. Nardi, and P. Patel-Schneider. The description
logic handbook: theory, implementation,
and applications. Cambridge University
Press, New York, USA, 2003.
[13] V. M. Werneck Bejamim, A. O. de Padua
Antonio, and J. Cesar Sampaio
do Prado. Comparing gore frameworks: istar
and kaos. In Ibero-American Workshop
of Engineering of Requirements, (WER’09),
2009.
[14] L. Bellatreche. Contributions à la Conception
et l’Exploitation des Systèmes d’Inté-
gration de Données. PhD thesis, HDR, Habilitation
à diriger les recherches, ENSMA,
2009.
139Bibliographie
[15] L. Bellatreche. Optimization and tuning in
data warehouses. In Encyclopedia of Database
Systems, pages 1995–2003. 2009.
[16] L. Bellatreche, K. Boukhalfa, P. Richard,
and K.Y. Woameno. Referential horizontal
partitioning selection problem in data warehouses:
Hardness study and selection algorithms.
International Journal of Data Warehousing
and Mining (IJDWM), 5(4):1–23,
2009.
[17] L. Bellatreche, A. Giacometti, P. Marcel,
H. Mouloudi, and D. Laurent. A personalization
framework for olap queries. In ACM
Eighth International Workshop on Data Warehousing
and OLAP (DOLAP’05), pages 9–
18, 2005.
[18] L. Bellatreche, S. Khouri, I. Boukhari, and
R. Bouchakri. Using ontologies and requirements
for constructing and optimizing data
warehouses. In Proceedings of the 35th
International Convention (MIPRO), pages
1568–1573, 2012.
[19] L. Bellatreche, G. Pierra, D. Nguyen Xuan,
H. Dehainsala, and Y. Aït Ameur. An
a priori approach for automatic integration
of heterogeneous and autonomous databases.
In 15th International Conference on
Database and Expert Systems Applications
(DEXA’04), pages 475–485, 2004.
[20] L. Bellatreche, D. Nguyen Xuan, H.,
G. Pierra, and H. Dehainsala. Contribution
of ontology-based data modeling to automatic
integration of electronic catalogues
within engineering databases. Computers
in Industry Journal, Elsevier, 57(8-9):711–
724, 2006.
[21] D. Beneventano, S. Bergamaschi, S. Castano,
G.Malvezzi A. Corni, R. Guidetti,
M. Melchiori, and M. Vincini. Information
integration: The momis project demonstration.
In the VLDB journal, pages 611–614,
2000.
[22] N. Berkani, S. Khouri, and L. Bellatreche.
Generic methodology for semantic data warehouse
design: From schema definition to
etl. In Intelligent Networking and Collaborative
Systems (INCoS), pages 404–411,
2012.
[23] Grady Booch, James Rumbaugh, and Ivar
Jacobson. Unified Modeling Language User
Guide, The (2nd Edition) (Addison-Wesley
Object Technology Series). Addison-Wesley
Professional, 2005.
[24] R. Bouchakri and L. Bellatreche. On simplifying
integrated physical database design. In
Proceedings of the 15th International on Advances
in Databases and Information Systems,(ADBIS’11),
pages 333–346. SpringerVerlag,
2011.
[25] I. Boukhari, L. Bellatreche, and S. Jean. An
ontological pivot model to interoperate heterogeneous
user requirements. In Proceedings
of the 5th International Symposium
on Leveraging Applications of Formal Methods,
Verification and Validation (ISOLA
2012), pages 344–358. LNCS, Springer,
2012.
[26] I. Boukhari, L. Bellatreche, and S. Khouri.
Efficient, unified, and intelligent user requirement
collection and analysis in global enterprises.
In (To appear) in proceedings of
the 15th International Conference on Information
Integration and Web-based Applications
& Services (iiWAS 2013), Vienna, Austria.
LNCS, Springer, 2013.
[27] K. K. Breitman and J.C. Sampaio Leite. Ontology
as a requirements engineering product.
In Proceedings of the 11th IEEE International
Conference on Requirements Engineering,
(RE’03), pages 309–319. IEEE
Computer Society, 2003.
[28] P. Bresciani, A. Perini, P. Giorgini, F. Giunchiglia,
and J. Mylopoulos. Tropos: An
agent-oriented software development me-
140thodology. Autonomous Agents and MultiAgent
Systems, 8:203–236, 2004.
[29] B. Brigitte, S. Sylvie, and Av.J.B. Clément.
Terminae: A linguistics-based tool for the
building of a domain ontology. In Knowledge
Acquisition, Modeling and Management,
volume 1621, pages 49–66. Springer
Berlin Heidelberg, 1999.
[30] E. Brottier, B. Baudry, Y.Traon, D. Touzet,
and B. Nicolas. Producing a global requirement
model from multiple requirement specifications.
In Proceedings of the 11th IEEE
International Enterprise Distributed Object
Computing Conference, (EDOC’07), page
390. IEEE Computer Society, 2007.
[31] G. Canahuate, T. Apaydin, A. Sacan, and
H. Ferhatosmanoglu. Secondary bitmap indexes
with vertical and horizontal partitioning.
In Proceedings of the 12th International
Conference on Extending Database
Technology: Advances in Database Technology,
(EDBT’09), pages 600–611, 2009.
[32] V. Castaneda, L. Ballejos, M.Laura Caliusco,
and M. Rosa Galli. The use of ontologies
in requirements engineering. Global
Journal of Researches in Engineering
(GJRE), 10 Issue 6:2–8, 2010.
[33] Chee-Yong Chan. Indexing Techniques in
Decision Support Systems. PhD thesis, The
University of Wisconsin-Madison, 1999.
[34] S. Chaudhuri and V. Narasayya. Selftuning
database systems: A decade of progress.
In Proceedings of the 33rd International
Conference on Very Large Data
Bases (VLDB’07), pages 3–14. VLDB Endowment,
2007.
[35] P. Chen. The entity relationship model - towards
a unified view of data. ACM Transactions
on Database Systems (TODS), 1(1):9–
36, 1976.
[36] B. Chevallereau, A. Bernard, and P. Mévellec.
Améliorer les performances de l’industrie
logicielle par une meilleure compréhension
des besoins. In CIGI, Conférence Internationale
de Génie Industriel, France, 2009.
[37] F. Chimene. Ontodb2: support of multiple
ontology models within ontology based database.
In Proceedings of the 2008 EDBT
Ph.D. workshop, (Ph.D.’08), pages 21–27.
ACM, 2008.
[38] M. Christel and K. Kang. Issues in requirements
elicitation. Technical report, 1992.
[39] P. Cimiano and J. Völker. Text2onto.
In Proceedings of the 10th International
Conference on Applications of Natural Language
to Information Systems, (NLDB),
pages 227–238. Springer, 2005.
[40] P. Coret, J. Richard, E. Talavet, and T. Trofi-
moya. Introduction a owl, langage xml d’ontologies.
Technical report, 2006.
[41] K. Czarnecki and S. Helsen. Feature-based
survey of model transformation approaches.
IBM Systems Journal, 45(3):621–645, 2006.
[42] B. Dageville, D. Das, K. Dias, K. Yagoub,
M. Zait, and M. Ziauddin. Automatic
sql tuning in oracle 10g. In Proceedings
of the Thirtieth International Conference
on Very Large Data Bases - Volume 30
(VLDB’04), pages 1098–1109. VLDB Endowment,
2004.
[43] A. Dardenne, A.van Lamsweerde, and S. Fickas.
Goal-directed requirements acquisition.
Science. Computer. Program., 20:3–50,
1993.
[44] S. Decker, M. Erdmann, D. Fensel, and
R. Studer. Ontobroker: Ontology based access
to distributed and semi-structured information.
In Proceedings of the IFIP
TC2/WG2.6 Eighth Working Conference on
Database Semantics- Semantic Issues in
Multimedia Systems, (DS-8), pages 351–
369, 1998.
[45] H. Dehainsala, G. Pierra, and L. Bellatreche.
Ontodb: An ontology-based data-
141Bibliographie
base for data intensive applications. In Proceedings
of the 12th International Conference
on Database Systems for Advanced
Applications (DASFAA’07), pages 497–508.
Springer-Verlag, 2007.
[46] A. Doan, A. Y. Halevy, and Z. G. Ives. Principles
of Data Integration. Morgan Kaufmann,
2012.
[47] P. du Bois. The ALBERT II Language. PhD
thesis, Facultés Universitaires Notre Dame
de la Paix, Namur, 1995.
[48] D. V. Dzung and A. Ohnishi. Ontologybased
reasoning in requirements elicitation.
In IEEE International Conference
on Software Engineering and Formal Methods(SEFM),
pages 263–272, 2009.
[49] Frederico T. Fonseca and James E. Martin.
Learning the differences between ontologies
and conceptual schemas through ontologydriven
information systems. Journal of the
Association for Information Systems, 8(2),
2007.
[50] G. Gardarin. Intégration de données
et applications via xml. http:
//georges.gardarin.free.fr/Cours_
Total/X6-BusinessIntegration.ppt.
[51] P. Giorgini, J. Mylopoulos, E. Nicchiarelli,
and R. Sebastiani. Formal reasoning techniques
for goal models. Journal of Data Semantics.,
1:1–20, 2004.
[52] Claude Girault and Rudiger Valk. Petri
Nets for System Engineering: A Guide
to Modeling, Verification, and Applications.
Springer-Verlag New York, Inc., 2001.
[53] F. Goasdoué, V. Lattés, and M. C. Rousset.
The use of carin language and algorithms
for information integration: The picsel system.
International Journal of Cooperative
Information Systems (IJCIS), 9(4):383–401,
2000.
[54] C.H. Goh, S. Bressan, E. Madnick, and M.D.
Siegel. Context interchange: New features
and formalisms for the intelligent integration
of information. ACM Transactions on Information
Systems, 17(3):270–293, 1999.
[55] A. Goknil, i. Kurtev, k. Berg, and j. Veldhuis.
Semantics of trace relations in requirements
models for consistency checking and
inferencing. Softwar System Model., 10:31–
54, 2011.
[56] A. Goknil, I. Kurtev, and K. Berg. A metamodeling
approach for reasoning about
requirements. In Proceedings of the 4th
European conference on Model Driven Architecture:
Foundations and Applications,
(ECMDA-FA’08), pages 310–325. SpringerVerlag,
2008.
[57] M. Golfarelli. From user requirements to
conceptual design in data warehouse design
- a survey. In Data Warehousing Design and
Advanced Engineering Applications : Methods
for Complex Construction, pages 1–
16. IGI Global, 2009.
[58] M. Golfarelli and S. Rizzi. Data Warehouse
Design: Modern Principles and Methodologies.
McGraw Hill, 2009.
[59] M. Golfarelli, S. Rizzi, and P. Biondi. myolap:
An approach to express and evaluate
olap preferences. IEEE Trans. Knowl. Data
Eng., 23(7):1050–1064, 2011.
[60] S.J. Greenspan. Requirements modeling: a
knowledge representation approach to software
requirements definition. PhD thesis,
1984.
[61] T. R. Gruber. A translation approach to
portable ontology specifications. In Knowledge
Acquisition, volume 5, pages 199–
220, 1993.
[62] Y. Guo, Z. Pan, and J. Heflin. Lubm: A
benchmark for owl knowledge base systems.
Journal of Web Semantics, pages 158–182,
2005.
[63] A. Halevy, A. Rajaraman, and J. Ordille.
Data integration: The teenage years. In Pro-
142ceedings of the 32Nd International Conference
on Very Large Data Bases (VLDB),
pages 9–16, 2006.
[64] C. Hardebolle. Composition de modèles
pour la modélisation multi-paradigme du
comportement des systèmes. PhD thesis,
Université Paris-Sud XI, 2008.
[65] C. L. Heitmeyer, R. D. Jeffords, and B.G.
Labaw. Automated consistency checking
of requirements specifications. ACM Trans.
Softw. Eng. Methodol., 5:231–261, 1996.
[66] W.H. Inmon. Building the Data Warehouse.
QED Information Sciences, Inc., 1992.
[67] M. Jackson. Problem frames: analyzing and
structuring software development problems.
Addison-Wesley Longman Publishing Co.,
Inc., 2001.
[68] I. Jacobson and l. Spence K. Bittner. Use
Case Modeling. Addison Wesley Professional,
2002.
[69] S. Jean. OntoQL, un langage d’exploitation
des bases de données à base ontologique.
PhD thesis, Université de Poitiers., 2007.
[70] S. Jean, Y. Aít Ameur, and G. Pierra.
Querying ontology based database using
ontoql (an ontology query language).
In Proceedings of the 2006 Confederated
international conference on On the
Move to Meaningful Internet Systems:
CoopIS, DOA, GADA, and ODBASE,
(ODBASE’06/OTM’06), pages 704–721.
Springer-Verlag, 2006.
[71] S. Jean, G. Pierra, and Y. Aït Ameur. Domain
ontologies: A database-oriented analysis.
In Proceedings of the Second International
Conference on Web Information Systems
and Technologies: Internet Technology
/ Web Interface and Applications, WEBIST
(1), pages 341–351, 2006.
[72] H. Jones. Raisonnement à base de règles
implicatives floues-Inférence et Sémantique.
PhD thesis, Université Toulouse III- Paul Sabataire,
2007.
[73] M. Jun, L. Guofu, L. Hao, and X. Yanqiu.
The knowledge sharing based on plib
ontology and xml for collaborative product
commerce. In Proceedings of the International
Conference on Web Information Systems
and Mining, (WISM’09), pages 518–
526. Springer-Verlag, 2009.
[74] k. Pohl. Process-Centered Requirements Engineering.
John Wiley & Sons, Inc., New
York, NY, USA, 1996.
[75] H. Kaiya and M. Saeki. Ontology based requirements
analysis: Lightweight semantic
processing approach. In Proceedings of the
Fifth International Conference on Quality
Software, (QSIC’05), pages 223–230. IEEE
Computer Society, 2005.
[76] C. M. Keet and P. R. Fillottrani. Toward
an ontology-driven unifying metamodel for
uml class diagrams, eer, and orm2. In the
32th International Conference, ER, pages
313–326, 2013.
[77] C. M. Keet and Pablo R. Fillottrani. Structural
entities of an ontology-driven unifying
metamodel for uml, eer, and orm2. In
3rd International Conference on Model and
Data Engineering (MEDI), LNCS, Springer,
pages 188–199, 2013.
[78] S. Khouri, L. Bellatreche, I. Boukhari, and
S. Bouarar. More investment in conceptual
designers: Think about it! In 15th
International Conference on Computational
Science and Engineering (CSE), IEEE,
pages 88–93, 2012.
[79] S. Khouri, I. Boukhari, L. Bellatreche,
E. Sardet, S. Jean, and M. Baron. Ontologybased
structured web data warehouses
for sustainable interoperability: requirement
modeling, design methodology and tool.
Comput. Ind., 63(8):799–812, 2012.
143Bibliographie
[80] R. Kimball, L. Reeves, W. Thornthwaite,
M. Ross, and W. Thornwaite. The Data Warehouse
Lifecycle Toolkit: Expert Methods
for Designing, Developing and Deploying
Data Warehouses with CD Rom. John Wiley
& Sons, Inc., 1st edition, 1998.
[81] J. Sven Körner and B. Torben. Natural language
specification improvement with ontologies.
International Journal of Semantic
Computing, 3:445–470, 2009.
[82] W. Labio, Y. Zhuge, J. L. Wiener, H. Gupta,
H. Garcia-Molina, and J. Widom. The whips
prototype for data warehouse creation and
maintenance. In (SIGMOD Conference),
pages 557–559, 1997.
[83] R. Laleau, F. Semmak, A Matoussi, D. Petit,
A. Hammad, and B.Tatibouet. A first
attempt to combine sysml requirements diagrams
and b. Innovations in Systems and
Software Engineering (ISSE), 6(1-2):47–54,
2010.
[84] A. Lamsweerde. Conceptual modeling:
Foundations and applications. chapter
Reasoning About Alternative Requirements
Options, pages 380–397. Springer-Verlag,
2009.
[85] S. Won Lee and R.A. Gandhi. Ontologybased
active requirements engineering framework.
In Proceedings of the 12th AsiaPacific
Software Engineering Conference,
(APSEC’05), pages 481–490. IEEE Computer
Society, 2005.
[86] O. López, M. A. Laguna, and F. J.
G.Peñalvo. A metamodel for requirements
reuse. In VII Jornadas de Ingeniería del
Software y Bases de Datos (JISBD), pages
427–428, 2002.
[87] M. Lubars, C. Potts, and C. Richter. A review
of the state of the practice in requirements
modeling. In Proceedings of IEEE
International Symposium on Requirements
Engineering (RE’93), pages 2–14, 1993.
[88] E. m. Clarke and J. M. Wing. Formal
methods: State of the art and future directions.
ACM computer surveys, 28(4):626–
643, 1996.
[89] C. Maier, D. Dash, I. Alagiannis, A. Ailamaki,
and T. Heinis. Parinda: an interactive
physical designer for postgresql. In Proceedings
of the 13th International Conference
on Extending Database Technology
(EDBT’10), pages 701–704, 2010.
[90] K. L. Mcgraw and K. Harbison. Usercentered
requirements: the scenario-based
engineering process. 1997.
[91] E. Mena, V. Kashyap, A. Sheth, and A. Illarramendi.
Observer: an approach for query
processing in global information systems
based on interoperation across pre-existing
ontologies. In Proceedings of the First IFCIS
International Conference Cooperative
Information Systems, 1996., pages 14–25,
1996.
[92] I. Mirbel and S. Villata. Enhancing
goal-based requirements consistency: An
argumentation-based approach. In 13th International
Workshop in Computational Logic
in Multi-Agent Systems (CLIMA) ., pages
110–127, 2012.
[93] J. Mylopoulos. Conceptual modeling in the
time of the revolution: Part ii. In Proceedings
of the 28th International Conference
on Conceptual Modeling,(ER’09), pages
25–25. Springer-Verlag, 2009.
[94] E. Navarro, J.A Mocholi, P. Letelier, and
I. Ramos. A metamodeling approach for
requirements specification.pdf. Journal
of Computer Information Systems (JCIS),
46:67–77, 2006.
[95] B. Nuseibeh and S. Easterbrook. Requirements
engineering: a roadmap. In Proceedings
of the Conference on The Future of
Software Engineering, (ICSE’00), pages 35–
46. ACM, 2000.
144[96] F. Oliveira, K. Nagaraja, R. Bachwani,
R. Bianchini, R. Martin, and T.D. Nguyen.
Understanding and validating database system
administration. In Proceedings of the
Annual Conference on USENIX ’06 Annual
Technical Conference (ATEC’06), pages 19–
19. USENIX Association, 2006.
[97] E. J. O’Neil, P. E. O’Neil, and K. Wu. Bitmap
index design choices and their performance
implications. In Proceeedings of the
11th Internationa Conference In Database
Engineering and Applications Symposium,
(IDEAS’07), pages 72–84, 2007.
[98] G. Pierra. Context representation in domain
ontologies and its use for semantic integration
of data. pages 174–211. SpringerVerlag,
Berlin, Heidelberg, 2008.
[99] G. Pierre. Merise: Modélisation de systèmes
d’information. 2005.
[100] W. N. Robinson. Integrating multiple speci-
fications using domain goals. Sigsoft Software
Engineering Notes, 14(3):219–226,
1989.
[101] A. Rochfeld and H. Tardieu. Merise: An
information system design and development
methodology. Information & Management,
6:143–159, 1983.
[102] C. Rolland. Requirements engineering
for cots based systems. Information and
Software Technology (IST), 41(14):985–990,
1999.
[103] C. Rolland. Ingènierie des besoins : L’approche
l’ecritoire. Journal Techniques de
l’Ingènieur, pages 1–45, 2003.
[104] C. Rolland, G. Grosz, and R. Kla. Experience
with goal-scenario coupling in requirements
engineering. In Proceedings.
IEEE International Symposium on Requirements
Engineering, (RE 1999)., pages 74–
81, 1999.
[105] C. Rolland, C. Souveyet, and C.B. Achour.
Guiding goal modeling using scenarios.
IEEE Transactions on Software Engineering,
24(12):1055–1071, 1998.
[106] O. Romero, A. Simitsis, and A. Abelló.
Gem: Requirement-driven generation of
etl and multidimensional conceptual designs.
In Proceedings of the 13th International
Conference on Data Warehousing
and Knowledge Discovery, (DaWaK 2011),
pages 80–95, 2011.
[107] D.T. Ross and K.E. Schoman. Structured
analysis for requirements definition.
IEEE Transactions on Software Engineering,
3(1):6–15, 1977.
[108] D. Di Ruscio, R. Eramo, and A. Pierantonio.
Model transformations. In International
School on Formal Methods for the Design
of Computer, Communication, and Software
Systems (SFM): Formal Methods for ModelDriven
Engineering, pages 91–136, 2012.
[109] M.S. Russell. Assessing the impact of requirements
volatility on the se process using
bayesian. In Proceedings of the IInternational
Symposium (INCOSE), Toulouse, 2004.
[110] M. Saeki, S. Hayashi, and H. Kaiya. A
tool for attributed goal-oriented requirements
analysis. In 24th IEEE/ACM International
Conference on Automated Software
Engineering, pages 674–676, 2009.
[111] K. Selma and L. Bellatreche. Dwobs:
Data warehouse design from ontology-based
sources. In 16th International Conference
on Database Systems for Advanced Applications
(DASFAA’ 2011), pages 438–441,
2011.
[112] K. Siegemund, E. J. Thomas, Z. Yuting,
J. Pan, and U. Assmann. Towards ontologydriven
requirements engineering. In In 7th
International Workshop on Semantic Web
Enabled Software Engineering., 2011.
[113] J. M. Spivey. Understanding Z: a specifi-
cation language and its formal semantics.
Cambridge University Press, 1988.
145Bibliographie
[114] S. Staab, M. Erdmann, A. Maedche, and
s. Decker. Knowledge media in healthcare.
chapter An extensible approach for modeling
ontologies in RDF(S), pages 234–253.
IGI Publishing, 2002.
[115] V. Sugumaran and V. C. Storey. The role
of domain ontologies in database design: An
ontology management and conceptual modeling
environment. ACM Trans. Database
Syst., pages 1064–1094, 2006.
[116] H. V. Teguiak. Construction d’ontologies
à partir de textes : une approche basée sur
les transformations de modéles. PhD thesis,
2012.
[117] T. J. Teorey, D. Yang, and J. P. Fry. A logical
design methodology for relational databases
using the extended entity-relationship
model. ACM Comput. Surv., 18(2):197–222,
1986.
[118] A. Tort and A. Olivé. An approach to testing
conceptual schemas. Data Knowledge
Engineering, 69(6):598–618, 2010.
[119] Axel V. Lamsweerde. Goal-oriented requirements
engineering: A guided tour. In
Proceedings of the Fifth IEEE International
Symposium on Requirements Engineering,
(RE’01), pages 249–263. IEEE Computer
Society, 2001.
[120] Axel van Lamsweerde. Requirements engineering
in the year 00: a research perspective.
In Proceedings of the 22nd international
conference on Software engineering
,(ICSE’00), pages 5–19. ACM, 2000.
[121] C. Vicente-Chicote, B. Moros, and A. Toval.
Remm-studio: an integrated modeldriven
environment for requirements specification,
validation and formatting. Journal of
Object Technology, 6(9):437–454, 2007.
[122] P.R.S. Visser, D.M. Jones, M. Beer,
T.J.Bench-Capon, B. Diaz, and M.J. Shave.
Resolving ontological heterogeneity in
the kraft project. In Database and Expert
Systems Applications (DEXA), 1999.
[123] V.R.Basili, G. Gianluigi, and H.D. Rombach.
The goal question metric approach.
computer science technical report series cstr-2956.
Technical report, 1992.
[124] H. Wache, T. Vögele, U. Visser, H. Stuckenschmidt,
G. Schuster, H. Neumann, and
S. Hübner. Ontology-based integration of information
- a survey of existing approaches.
In Proceedings of the International Workshop
on Ontologies and Information Sharing,
pages 108–117, 2001.
[125] G. Wiederhold. Mediators in the architecture
of future information systems. IEEE
Computer, 25(3):38–49, 1992.
[126] K.E. Wiegers. More About Software Requirements.
Microsoft Press, USA, 2006.
[127] R. Wieringa, E. Dubois, and H. S. Huyts.
Integrating semi-formal and formal requirements.
In Proceedings of the 9th International
ConferenceAdvanced Information Systems
Engineering, (CAiSE’97), pages 19–
32, 1997.
[128] D. N. Xuan, L. Bellatreche, and G. Pierra.
Ontodawa, un système d’intégration à base
ontologique de sources de données autonomes
et évolutives. Ingénierie des Systèmes
d’Information (ISI), 13(2):97–125,
2008.
[129] E. Siu-Kwong. Yu. Modelling strategic relationships
for process reengineering. PhD
thesis, University of Toronto, 1996.
[130] E. Siu-Kwong. Yu. Towards modeling and
reasoning support for early-phase requirements
engineering. In Proceedings of the
3rd IEEE International Symposium on Requirements
Engineering, (RE’97), page 226.
IEEE Computer Society, 1997.
[131] K. Yue. What does it mean to say that a specification
is complete? In Fourth Internatio-
146nal Workshop on Software Specification and
Design (IWSSD-4)., 1987.
[132] D.C. Zilio, J. Rao, S. Lightstone, G. Lohman,
A. Storm, C. Garcia-Arellano, and
S. Fadden. Db2 design advisor: Integrated
automatic physical database design.
In Proceedings of the Thirtieth International
Conference on Very Large Data Bases
(VLDB’04), pages 1087–1097. VLDB Endowment,
2004.
147Annexe A:
L’annexe suivante présente les règles de transformation des besoins locales au modèle générique des
besoins.
1. Règle 1 : OntoGoal-to-OntoReq. Cette règle décrit la transformation des besoins (instances ontologiques)
exprimés par le modèle de buts en modèle générique de besoins comme le montre la
figure suivante.
Figure 1 – Règle 1 : transformation OntoGoal-to-OntoReq
2. Règle 2 : OntoUcase-to-OntoReq. Cette règle décrit la transformation des besoins (instances ontologiques)
exprimés par le modèle des cas d’utilisation en modèle générique des besoins comme
le montre la figure 2.
3. Règle 3 : OntoMCT-to-OntoReq. Cette règle décrit la transformation des besoins (instances ontologiques)
exprimés par le modèle des traitements en modèle générique des besoins comme le
montre la figure 3.
149Bibliographie
Figure 2 – Règle 2 : transformation OntoUcase-to-OntoReq
Figure 3 – Règle 3 : transformation OntoMCT-to-OntoReq
150Annexe B
Les requêtes suivantes sont des requêtes typiques du banc d’essai Star Schema Benchmark 41. Dans
nos études expérimentales, nous avons construit plusieurs ensembles de requêtes à partir de celles-ci,
afin d’effectuer les différentes évaluations.
Les trois premières requêtes Q1.1, Q1.2 et Q1.3, ont l’objectif de mesurer l’évolution ou l’augmentation
des recettes selon les remises accordées, pour certains produits dans une période donnée.
Q1 . 1
s e l e c t sum ( l o _ e x t e n d e d p r i c e *
l o _ d i s c o u n t ) a s r e v e n u e
from l i n e o r d e r , d a t e
where l o _ o r d e r d a t e = d _ d at e k e y
and d _ y e a r = 1993
and l o _ d i s c o u n t betwee n 1 and 3
and l o _ q u a n t i t y < 2 5;
Q1 . 2
s e l e c t sum ( l o _ e x t e n d e d p r i c e *
l o _ d i s c o u n t ) a s r e v e n u e
from l i n e o r d e r , d a t e
where l o _ o r d e r d a t e = d _ d at e k e y
and d_yea rmonthnum = 199401
and l o _ d i s c o u n t betwee n 4 and 6
and l o _ q u a n t i t y betwee n 26 and 3 5;
Q1 . 3
s e l e c t sum ( l o _ e x t e n d e d p r i c e *
l o _ d i s c o u n t ) a s r e v e n u e
from l i n e o r d e r , d a t e
where l o _ o r d e r d a t e = d _ d at e k e y
and d _wee k n umi n yea r = 6
and d _ y e a r = 1994
and l o _ d i s c o u n t betwee n 5 and 7
and l o _ q u a n t i t y betwee n 26 and 3 5;
Les trois requêtes suivantes Q2.1, Q2.2 et Q2.3, décrivent le deuxième besoin décisionnel. Ce besoin
permet d’avoir le revenue classé selon plusieurs critères comme les fournisseurs dans une région donnée,
les classes de produits et par année.
Q2 . 1 :
s e l e c t sum ( l o _ r e v e n u e ) , d _ yea r , p _ b r a n d 1
from l i n e o r d e r , d at e , p a r t , s u p p l i e r
where l o _ o r d e r d a t e = d _ d at e k e y
and l o _ p a r t k e y = p _ p a r t k e y
and l o _ s u p p k e y = s _ s u p p k e y
41. http://www.cs.umb.edu/∼poneil/StarSchemaB.PDF
151Bibliographie
and p _ c a t e g o r y = ’MFGR#12 ’
and s _ r e g i o n = ’AMERICA’
group by d _ yea r , p _ b r a n d 1
order by d _ yea r , p _ b r a n d 1 ;
Q2 . 2
s e l e c t sum ( l o _ r e v e n u e ) , d _ yea r , p _ b r a n d 1
from l i n e o r d e r , d at e , p a r t , s u p p l i e r
where l o _ o r d e r d a t e = d _ d at e k e y
and l o _ p a r t k e y = p _ p a r t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and p _ b r a n d 1 betwee n ’MFGR#2221 ’ and ’MFGR#2228 ’
and s _ r e g i o n = ’ASIA ’
group by d _ yea r , p _ b r a n d 1
order by d _ yea r , p _ b r a n d 1 ;
Q2 . 3
s e l e c t sum ( l o _ r e v e n u e ) , d _ yea r , p _ b r a n d 1
from l i n e o r d e r , d at e , p a r t , s u p p l i e r
where l o _ o r d e r d a t e = d _ d at e k e y
and l o _ p a r t k e y = p _ p a r t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and p _ b r a n d 1 = ’MFGR#2221 ’
and s _ r e g i o n = ’EUROPE’
group by d _ yea r , p _ b r a n d 1
order by d _ yea r , p _ b r a n d 1 ;
Les quatre requêtes suivantes Q3.1, Q3.2, Q3.3 et Q3.4, décrivent le troisième besoin décisionnel. Ce
besoin mesure les revenues pour une région donnée dans une période de temps, selon la provenance des
clients et des fournisseurs.
Q3 . 1
s e l e c t c _ n ati o n , s _ n a t i o n , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e n u e from
c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e
where l o _ c u s t k e y = c _ c u s t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and l o _ o r d e r d a t e = d _ d at e k e y
and c _ r e g i o n = ’ASIA ’ and s _ r e g i o n = ’ASIA ’
and d _ y e a r >= 1992 and d _ y e a r <= 1997
group by c _ n ati o n , s _ n a t i o n , d _ y e a r
order by d _ y e a r a sc , r e v e n u e d e s c ;
Q3 . 2
152s e l e c t c _ c i t y , s _ c i t y , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e n u e from
c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e
where l o _ c u s t k e y = c _ c u s t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and l o _ o r d e r d a t e = d _ d at e k e y
and c _ n a t i o n = ’UNITED STATES ’
and s _ n a t i o n = ’UNITED STATES ’
and d _ y e a r >= 1992 and d _ y e a r <= 1997
group by c _ c i t y , s _ c i t y , d _ y e a r
order by d _ y e a r a sc , r e v e n u e d e s c ;
Q3 . 3
s e l e c t c _ c i t y , s _ c i t y , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e −nue from
c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e
where l o _ c u s t k e y = c _ c u s t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and l o _ o r d e r d a t e = d _ d at e k e y
and ( c _ c i t y =’UNITED KI1 ’ o r c _ c i t y =’UNITED KI5 ’ )
and ( s _ c i t y =’UNITED KI1 ’ o r s _ c i t y =’UNITED KI5 ’ )
and d _ y e a r >= 1992 and d _ y e a r <= 1997
group by c _ c i t y , s _ c i t y , d _ y e a r
order by d _ y e a r a sc , r e v e n u e d e s c ;
Q 3 . 4
s e l e c t c _ c i t y , s _ c i t y , d _ yea r , sum ( l o _ r e v e n u e ) a s r e v e −nue from
c u st om e r , l i n e o r d e r , s u p p l i e r , d a t e
where l o _ c u s t k e y = c _ c u s t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and l o _ o r d e r d a t e = d _ d at e k e y
and ( c _ c i t y =’UNITED KI1 ’ o r c _ c i t y =’UNITED KI5 ’ )
and ( s _ c i t y =’UNITED KI1 ’ o r s _ c i t y =’UNITED KI5 ’ )
and d _ y ea rm o nt h = ’ Dec1997 ’
group by c _ c i t y , s _ c i t y , d _ y e a r
order by d _ y e a r a sc , r e v e n u e d e s c ;
Les trois dernières requêtes Q4.1, Q4.2 et Q4.3, décrivent le quatrième besoin décisionnel. Ce dernier
est un besoin prévisionnel qui vise à calculer le profit moyen pour certaines classes de produits dans
certaines régions et dans une période donnée.
Q4 . 1
s e l e c t d _ yea r , c _ n ati o n , sum ( l o _ r e v e n u e − l o _ s u p p l y c o s t ) a s p r o f i t
from d at e , c u st om e r , s u p p l i e r , p a r t , l i n e o r d e r
where l o _ c u s t k e y = c _ c u s t k e y
153Bibliographie
and l o _ s u p p k e y = s _ s u p p k e y
and l o _ p a r t k e y = p _ p a r t k e y
and l o _ o r d e r d a t e = d _ d at e k e y
and c _ r e g i o n = ’AMERICA’
and s _ r e g i o n = ’AMERICA’
and ( p_m fg r = ’MFGR#1 ’ o r p_m fg r = ’MFGR# 2 ’ )
group by d _ yea r , c _ n a t i o n
order by d _ yea r , c _ n a t i o n ;
Q4 . 2
s e l e c t d _ yea r , s _ n a t i o n , p _ c at e g o r y , sum ( l o _ r e v e n u e − l o _ s u p p l y c o s t )
a s p r o f i t
from d at e , c u st om e r , s u p p l i e r , p a r t , l i n e o r d e r
where l o _ c u s t k e y = c _ c u s t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and l o _ p a r t k e y = p _ p a r t k e y
and l o _ o r d e r d a t e = d _ d at e k e y
and c _ r e g i o n = ’AMERICA’
and s _ r e g i o n = ’AMERICA’
and ( d _ y e a r = 1997 o r d _ y e a r = 1 9 9 8 )
and ( p_m fg r = ’MFGR#1 o r p_m fg r = ’MFGR# 2 ’ )
group by d _ yea r , s _ n a t i o n , p _ c a t e g o r y order by d _ yea r , s _ n a t i o n ,
p _ c a t e g o r y ;
Q4 . 3
s e l e c t d _ yea r , s _ c i t y , p _ b ra n d 1 , sum ( l o _ r e v e n u e − l o _ s u p p l y c o s t ) a s
p r o f i t
from d at e , c u st om e r , s u p p l i e r , p a r t , l i n e o r d e r
where l o _ c u s t k e y = c _ c u s t k e y
and l o _ s u p p k e y = s _ s u p p k e y
and l o _ p a r t k e y = p _ p a r t k e y
and l o _ o r d e r d a t e = d _ d at e k e y
and c _ r e g i o n = ’AMERICA’
and s _ n a t i o n = ’UNITED STATES ’
and ( d _ y e a r = 1997 o r d _ y e a r = 1 9 9 8 )
and p _ c a t e g o r y = ’MFGR#14 ’
group by d _ yea r , s _ c i t y , p _ b r a n d 1
order by d _ yea r , s _ c i t y , p _ b r a n d 1 ;
154Table des figures
1.1 Différents niveaux d’intégration [50]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Résolution manuelle de l’hétérogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Résolution semi-automatique de l’hétérogénéité . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Les quatre niveaux d’intégration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Aperçu des contributions de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1 Les phases du cycle de vie d’un ED. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Exemple de métamodèlisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Processus d’ingénierie des besoins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4 Un besoin modélisé par un langage naturel. . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 Un besoin modélisé par un langage semi-formel (Cas d’utilisation). . . . . . . . . . . . 27
2.6 Approche GQM (Goal Question Metric). . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.7 Exemple d’un modèle orienté buts KAOS [13]. . . . . . . . . . . . . . . . . . . . . . . 32
2.8 Exemple d’un modèle orienté buts iStar (i*) [13]. . . . . . . . . . . . . . . . . . . . . . 34
2.9 Diagramme des cas d’utilisation (Use case). . . . . . . . . . . . . . . . . . . . . . . . . 35
2.10 Exemple de modèle conceptuel de traitement. . . . . . . . . . . . . . . . . . . . . . . . 36
2.11 Méta-modèle des besoins modélisés en UML. [86]. . . . . . . . . . . . . . . . . . . . . 39
2.12 Etape de production d’un modèle global des besoins [30]. . . . . . . . . . . . . . . . . . 40
3.1 Exemple d’ontologie exprimée en RDF Schéma. . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Exemple d’ontologie exprimée en OWL. . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 L’éditeur d’ontologies Protégé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4 Différentes architectures d’intégration à base ontologique. . . . . . . . . . . . . . . . . 55
3.5 Architectures d’intégration sémantique a posteriori. . . . . . . . . . . . . . . . . . . . . 55
155Table des figures
3.6 Architectures d’intégration sémantique a priori. . . . . . . . . . . . . . . . . . . . . . . 57
3.7 Contributions des ontologies dans l’IB. . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.1 Hétérogénéité des vocabulaires et des langages de modélisation des besoins. . . . . . . . 67
4.2 Exemple d’extraction de l’ontologie locale. . . . . . . . . . . . . . . . . . . . . . . . . 70
4.3 Une partie de l’ontologie University proposée par le benchmark LUBM. . . . . . . . . . 71
4.4 Exemple de modèle orienté buts modélisant les besoins du concepteur Espagnol. . . . . 72
4.5 Exemple de modèle de cas d’utilisation modélisant les besoins du concepteur Anglais. . . 74
4.6 Exemple de modèle de traitements modélisant les besoins du concepteur Français. . . . 75
4.7 Couplage des modèles des besoins avec le modèle d’ontologie. . . . . . . . . . . . . . . 76
4.8 Méta-modèle d’ontologie OWL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.9 Connexion entre le modèle ontologique et le modèle orienté buts. . . . . . . . . . . . . . 78
4.10 Instanciation des modèles de l’ontologie et du modèle orientés buts. . . . . . . . . . . . 79
4.11 Connexion entre le modèle ontologique et le modèle use case. . . . . . . . . . . . . . . 80
4.12 Connexion entre le modèle ontologique et le modèle MCT. . . . . . . . . . . . . . . . . 81
4.13 Intégration centralisée avec langage Pivot. . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.14 Le méta-modèle pivot. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.15 Connexion entre le modèle ontologique et le modèle pivot. . . . . . . . . . . . . . . . . 85
4.16 Scénario d’intégration des besoins selon un langage pivot. . . . . . . . . . . . . . . . . 86
4.17 Principe de transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.1 Méta-modèle générique fusionnant les trois modèles étudiés. . . . . . . . . . . . . . . . 91
5.2 Métamodèle générique des besoins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3 Connexion entre le méta-modèle ontologique et le méta-modèle générique des besoins. . 94
5.4 Processus de raisonnement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.5 Scénario (1) : ship whole. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.6 Scénario (2) : reason as needed. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.7 Temps d’exécution de raisonnement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.1 Répartition de l’effort de l’administrateur. . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2 La conception physique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.3 Architecture d’OntoDB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.4 BDBO de type III étendu par les besoins des utilisateurs. . . . . . . . . . . . . . . . . . 113
6.5 Un besoin SSB modélisé suivant notre modèle générique des besoins. . . . . . . . . . . 115
1566.6 Ontologie du benschmark SSB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.7 Fragmentation horizontale à partir des besoins. . . . . . . . . . . . . . . . . . . . . . . 119
6.8 Nouvelle vision de conception des bases de données. . . . . . . . . . . . . . . . . . . . 120
7.1 Architecture fonctionnelle de l’outil (OntoReqTool). . . . . . . . . . . . . . . . . . . . 124
7.2 Diagramme de cas d’utilisation de notre outil. . . . . . . . . . . . . . . . . . . . . . . . 125
7.3 Projection des besoins sur l’OG (OntoReq). . . . . . . . . . . . . . . . . . . . . . . . . 126
7.4 Ontologie locale des buts (OntoGoal). . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
7.5 Transformation des besoins en modèle générique. . . . . . . . . . . . . . . . . . . . . . 128
7.6 Raisonnement sur les besoins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.7 Interface graphique de la phase d’exploitation de l’ED. . . . . . . . . . . . . . . . . . . 130
7.8 Persistance des besoins dans l’ED. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.9 Requêtes SQL générées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
1 Règle 1 : transformation OntoGoal-to-OntoReq . . . . . . . . . . . . . . . . . . . . . . 149
2 Règle 2 : transformation OntoUcase-to-OntoReq . . . . . . . . . . . . . . . . . . . . . 150
3 Règle 3 : transformation OntoMCT-to-OntoReq . . . . . . . . . . . . . . . . . . . . . . 150
157Liste des tableaux
2.1 Comparaison des travaux étudiés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1 Les concepts communs entre les modèles de besoins. . . . . . . . . . . . . . . . . . . . 83
5.1 Nombre de relations vérifiées pendant le raisonnement. . . . . . . . . . . . . . . . . . . 102
6.1 Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux
requêtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.2 Index générés et taux d’optimisation du coût d’exécution des besoins par rapport aux
requêtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
159Glossaire
ABox : Assertionnal Box
API : Application Programming Interface
ATL : ATLAS Transformation Language
BD : Base de données
BDBO : Base de données à base ontologique
CC : Classe canonique
CNC : Classe non canonique
ED : Entrepôt de données
EMF : EclipseModeling Framework
GQM : Goal Question Metric
IB : Ingénierie des Besoins
IDM : Ingénierie Dirigée par les Modèles
iStar : Intentional STratégic Actor Relationships
KAOS : Ingénierie des Besoins
LISI : Laboratoire d’Informatique Scientifique et Industrielle
LO : Ontologie Locale
MC : Modèle Conceptuel
MDA : Model-Driven Architecture
OC : Ontologie Conceptuelle
OCC : Ontologie Conceptuelle Canonique
OCNC : Ontologie Conceptuelle Non Canonique
OL : Ontologie Linguistique
OMG : Object Management Group
OWL : Web Ontology Language
PLIB : Parts Library - Norme ISO 13584
RDF : Ressource Description Framework
SWRL : Semantic Web Rule Language
TBox : Terminological Box
UML : Unified Modeling Language
URI : Uniform Resource Identifier
URL : Uniform Resource Locator
161Intégration et exploitation de besoins en entreprise
étendue fondées sur la sémantique.
Présentée par :
Ilyés BOUKHARI
Directeurs de Thèse :
Ladjel BELLATRECHE et Stéphane JEAN
Résumé. L’ingénierie des besoins (IB) joue un rôle crucial dans le processus de développement d’un système
d’information. Elle a pour but de fournir une spécification des besoins qui soit cohérente, non ambiguë,
complète, vérifiable, etc. L’importance de la spécification des besoins augmente dans l’environnement distribué
où se situent les systèmes complexes ce qui est en particulier le cas dans le contexte des entreprises étendues.
Ces systèmes nécessitent, en effet, la collaboration d’un grand nombre de concepteurs qui peuvent provenir de
différents domaines, départements, laboratoires de recherche, etc. En général, ces concepteurs sont libres
d'utiliser le vocabulaire et les langages qu’ils préfèrent pour définir les besoins liés aux parties du système qui
leur sont affectées. Dans ce contexte, fournir une interface unique, uniforme et transparente à l’ensemble des
besoins définis sur un système est devenu nécessaire. Autrement dit, d’un point de vue technique, il devient
crucial de proposer une démarche d’intégration des besoins via un schéma global. Dans ce travail, nous
proposons une approche ontologique d’intégration de besoins hétérogènes. Cette hétérogénéité concerne à la
fois les vocabulaires et les langages de modélisation identifiés lors de l’élicitation des besoins. Contrairement
aux travaux existants qui traitent le problème d’intégration des besoins d’une manière isolée sans prendre en
compte le système cible (une base/entrepôt de données, une interface homme machine, etc.), nos propositions
apportent des solutions pour les phases de cycle de vie de conception du système cible. Pour illustrer cela, nous
considérons la phase de conception physique d’un entrepôt de données. Durant cette phase, un ensemble de
structures d’optimisation (les index, la fragmentation de données, les vues matérialisées, etc.) est sélectionné.
Souvent cette sélection est effectuée à partir d’un ensemble de requêtes. Dans ce travail, nous proposons une
approche de sélection dirigée par les besoins. Pour valider notre proposition, une implémentation dans un
environnement de Base de Données à Base Ontologique nommé OntoDB est proposée.
Mots-clés : Ingénierie des Besoins, Ontologies, Systèmes d’intégration, Entrepôts de données, Ingénierie
Dirigée par les Modèles, BDBO, OntoDB.
Abstract. Requirements engineering (RE) plays a crucial role in the process of developing information
systems. It aims at providing a specification of requirements that is consistent, unambiguous, complete,
verifiable, etc. With the development of distributed applications (such is the case of global enterprises) the
importance of RE increases. Indeed, these applications require the collaboration of a large number of
heterogeneous, autonomous and distributed designers. As a consequence, designers are free to use their own
vocabularies and languages to express their requirements. In this setting, providing a unique, consistent and
transparent interface to all requirements defined upon the system is needful. From a technical point of view, it
becomes crucial to propose an approach for requirements integration through a global schema. In this work, we
suggest a semantic approach for integrating heterogeneous requirements that takes into account the
heterogeneity of both vocabularies and modeling languages identified in the requirements’ elicitation step in the
context of data warehouse design. Unlike existing works which addressed requirements as an isolated
integration issue without taking into account the phases of designing data warehouse, our proposals provide
solutions to the main important life cycle phases for the data warehouse. To do so, we have mainly focused on
the physical data of designing relational warehouse in which a set of optimized structures (indexes, data
fragmentation, materialized views, etc.) are selected based on the integrated requirements. To prove the validity
of our proposal, an implementation upon the environment of Ontological Database named OntoDB is proposed.
Keywords: Requirements Engineering, Ontologies, Integration Systems, Data Warehousing, Model Driven
Engineering, DBOB, OntoDB.
Mod´elisation et score de complexes prot´eine-ARN
Adrien Guilhot-Gaudeffroy
To cite this version:
Adrien Guilhot-Gaudeffroy. Mod´elisation et score de complexes prot´eine-ARN. Bioinformatics.
Universit´e Paris Sud - Paris XI, 2014. French. .
HAL Id: tel-01081605
https://tel.archives-ouvertes.fr/tel-01081605
Submitted on 10 Nov 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.UNIVERSITE´ PARIS-SUD
E´ COLE DOCTORALE 427 :
INFORMATIQUE PARIS-SUD
LABORATOIRE : LABORATOIRE DE RECHERCHE EN INFORMATIQUE
THESE `
INFORMATIQUE
par
Adrien GUILHOT-GAUDEFFROY
Modelisation et score de ´
complexes proteine-ARN ´
Date de soutenance : 29 / 09 / 2014
Composition du jury :
Directeurs de these : ` M. Jer´ ome Az ˆ e Professeur (LIRMM, Universit ´ e de Montpellier 2) ´
Mme Julie Bernauer Chargee de recherche (Inria, LIX, ´ Ecole Polytechnique) ´
Mme Christine Froidevaux Professeure (LRI, Universite Paris-Sud, invit ´ ee) ´
Rapporteurs : Mme Anne Poupon Directrice de Recherche CNRS (BIOS, INRA Tours)
Mme Celine Rouveirol Professeure (LIPN, Universit ´ e Paris-Nord) ´
Examinateurs : M. Philippe Dague Professeur (LRI, Universite Paris-Sud) ´
Mme Beatrice Duval Ma ´ ˆıtre de conferences HDR (LERIA, Universit ´ e d’Angers) ´iiSommaire
Sommaire iii
Table des figures ix
Liste des tableaux xi
Introduction xv
1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv
2 Structure des proteines et des ARN . . . . . . . . . . . . . . . . . . . . ´ xvi
2.1 Les acides amines . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xviii
2.2 Les acides nucleiques . . . . . . . . . . . . . . . . . . . . . . . . ´ xx
2.3 La structure primaire ou sequence . . . . . . . . . . . . . . . . . ´ xxi
2.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxi
2.3.2 Determination . . . . . . . . . . . . . . . . . . . . . . . ´ xxiii
2.4 La structure secondaire . . . . . . . . . . . . . . . . . . . . . . . xxiii
2.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxiii
2.4.2 Determination ´ a partir d’une solution . . . . . . . . . . . ` xxvi
2.4.3 Determination ´ a partir des coordonn ` ees atomiques . . ´ xxvii
2.4.4 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxvii
2.5 La structure tertiaire . . . . . . . . . . . . . . . . . . . . . . . . . xxvii
2.5.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxvii
2.5.2 Determination . . . . . . . . . . . . . . . . . . . . . . . ´ xxviii
2.5.3 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxix
Modelisation par homologie . . . . . . . . . . . . . . . . . ´ xxix
Les methodes d’enfilage . . . . . . . . . . . . . . . . . . . ´ xxix
La modelisation ´ ab initio . . . . . . . . . . . . . . . . . . . xxix
Evaluation des pr ´ edictions : l’exp ´ erience C ´ ASP . . . . . . xxix
iiiSommaire
2.6 La structure quaternaire . . . . . . . . . . . . . . . . . . . . . . . xxx
2.6.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxx
2.6.2 Determination . . . . . . . . . . . . . . . . . . . . . . . ´ xxxi
2.6.3 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxxi
3 Les complexes proteine-prot ´ eine et prot ´ eine-ARN . . . . . . . . . . . . ´ xxxii
3.1 Fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxxii
3.2 Detection exp ´ erimentale biochimique prot ´ eine-prot ´ eine . . . . . ´ xxxii
3.2.1 Le double-hybride sur la levure . . . . . . . . . . . . . . xxxii
3.2.2 Utilisation de marqueurs (TAP-tag et FLAP-tag) . . . . xxxii
3.3 Les methodes d’amarrage . . . . . . . . . . . . . . . . . . . . . . ´ xxxiv
3.3.1 Le probleme . . . . . . . . . . . . . . . . . . . . . . . . ` xxxiv
3.3.2 Les algorithmes . . . . . . . . . . . . . . . . . . . . . . xxxv
3.3.3 La transformation de Fourier . . . . . . . . . . . . . . . xxxvi
3.3.4 Algorithmes d’amarrage et partitionnement du probleme ` xxxvi
4 La tessellation de Vorono¨ı et ses deriv ´ ees pour l’amarrage . . . . . . . ´ xxxvii
4.1 Constructions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxxvii
4.2 Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxxix
5 Fonctions de score . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xl
6 Apprentissage automatise . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xli
6.1 Paradigme de l’apprentissage supervise . . . . . . . . . . . . . . ´ xli
6.2 Criteres d’ ` evaluation . . . . . . . . . . . . . . . . . . . . . . . . . ´ xliii
6.2.1 Criteres d’ ` evaluation globaux . . . . . . . . . . . . . . . ´ xliii
6.2.2 Criteres d’ ` evaluation “locaux” . . . . . . . . . . . . . . . ´ xliv
1 Donnees 1 ´
1.1 Jeux de donnees de complexes prot ´ eine-ARN . . . . . . . . . . . . . . ´ 1
1.1.1 Jeu de ref ´ erence des complexes prot ´ eine-ARN connus . . . . . ´ 1
1.1.2 Jeux d’evaluation des proc ´ edures d’amarrage : ´ Benchmarks . . 2
1.2 Nettoyage des donnees . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 2
1.3 Utilisation des donnees . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 3
1.3.1 Contexte biologique : definitions . . . . . . . . . . . . . . . . . . ´ 4
1.3.2 Ensemble des perturbations pour l’apprentissage . . . . . . . . . 4
1.3.3 Mesure de similarite : le RMSD . . . . . . . . . . . . . . . . . . . ´ 5
1.3.4 Etiquetage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 6
1.3.5 Constitution des jeux d’apprentissage et de test . . . . . . . . . 7
iv1.4 Mesures d’evaluation locales . . . . . . . . . . . . . . . . . . . . . . . . ´ 8
2 Approche Rosetta et adaptation 11
2.1 Presentation de RosettaDock . . . . . . . . . . . . . . . . . . . . . . . . ´ 11
2.1.1 Amarrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1.1 Gen´ eration des candidats . . . . . . . . . . . . . . . . . ´ 11
2.1.1.2 Tri des candidats . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1.3 Amarrages gros-grain ou atomique . . . . . . . . . . . 15
2.1.2 Autres strategies . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 16
2.1.2.1 Fonctions de score atomique : termes physico-chimiques 16
2.1.2.2 Termes physico-chimiques a l’ ` echelle gros-grain . . . . ´ 20
2.2 Evaluation de la fonction de score non optimis ´ ee . . . . . . . . . . . . . ´ 21
2.2.1 Mesures d’evaluation globales . . . . . . . . . . . . . . . . . . . ´ 21
2.2.2 Mesures d’evaluation locales . . . . . . . . . . . . . . . . . . . . ´ 23
2.3 Optimisation de la fonction de score . . . . . . . . . . . . . . . . . . . . 25
2.3.1 Estimation des poids par regression logistique . . . . . . . . . . ´ 26
2.3.2 Algorithmes evolutionnaires . . . . . . . . . . . . . . . . . . . . . ´ 27
2.3.3 Methodologie d’optimisation de la fonction de score atomique . . ´ 28
2.4 Evaluation de la fonction de score optimis ´ ee . . . . . . . . . . . . . . . . ´ 30
2.4.1 Pouvoir predictif en fonction des contraintes . . . . . . . . . . . . ´ 31
2.4.2 Fonction de score dedi ´ ee pour chaque type d’ARN . . . . . . . . ´ 32
2.4.3 Combinaison lineaire ´ a poids positifs . . . . . . . . . . . . . . . . ` 32
2.4.3.1 Pouvoir predictif de la fonction de score . . . . . . . . . ´ 33
2.4.3.2 Enrichissement du tri des candidats . . . . . . . . . . . 35
2.4.3.3 Detection d’entonnoir . . . . . . . . . . . . . . . . . . . ´ 35
2.4.3.4 Repartition des coefficients des termes de score . . . . ´ 38
2.4.4 Filtrage a priori des candidats du modele atomique . . . . . . . . ` 39
2.5 Conclusions sur la fonction de score atomique . . . . . . . . . . . . . . 41
3 Approche a posteriori 43
3.1 Modeles ` a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1.1 Combinaison lineaire . . . . . . . . . . . . . . . . . . . . . . . . . ´ 44
3.1.2 Approches dites ”explicatives” : arbres et regles de d ` ecision . . . ´ 44
3.1.3 Approches dites non explicatives . . . . . . . . . . . . . . . . . . 47
3.1.4 Boˆıte a outils utilis ` ee pour apprendre les mod ´ eles . . . . . . . . ` 49
vSommaire
3.1.5 Methodologie d’optimisation des fonctions de score ´ a posteriori . 50
3.2 Evaluation des fonctions de score ´ a posteriori . . . . . . . . . . . . . . . 50
3.2.1 Repartition des candidats par terme de score . . . . . . . . . . . ´ 51
3.2.2 Weka . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2.3 ROGER non lineaire . . . . . . . . . . . . . . . . . . . . . . . . . ´ 53
3.3 Conclusions sur la fonction de score a posteriori . . . . . . . . . . . . . 55
4 Approche multi-echelle 57 ´
4.1 Principe de l’approche multi-echelle . . . . . . . . . . . . . . . . . . . . ´ 57
4.1.1 Representation g ´ eom ´ etrique gros-grain des acides amin ´ es et ´
des acides nucleiques . . . . . . . . . . . . . . . . . . . . . . . . ´ 57
4.1.2 Mesure des termes geom ´ etriques ´ a l’ ` echelle gros-grain . . . . . ´ 60
4.1.3 Termes geom ´ etriques ´ a l’ ` echelle gros-grain . . . . . . . . . . . . ´ 64
4.1.4 Donnees et fonctions de score ´ a l’ ` echelle gros-grain . . . . . . . ´ 65
4.2 Optimisation de la fonction de score gros-grain . . . . . . . . . . . . . . 66
4.2.1 Methodologie d’optimisation de la fonction de score gros-grain . ´ 66
4.3 Evaluation de l’interaction ´ a l’ ` echelle gros-grain . . . . . . . . . . . . . . ´ 67
4.3.1 Etude des valeurs des mesures g ´ eom ´ etriques . . . . . . . . . . ´ 68
4.3.2 Evaluation de la fonction de score gros-grain . . . . . . . . . . . ´ 73
4.3.2.1 Poids . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.2.2 Evaluation de la fonction de score gros-grain . . . . . . ´ 76
4.3.2.3 Comparaison avec contrainte a poids positifs . . . . . . ` 78
4.3.2.4 Comparaison avec valeurs de centrage . . . . . . . . . 79
4.4 Conclusions sur la fonction de score gros-grain . . . . . . . . . . . . . . 80
5 Discussion biologique 83
5.1 Limites inherentes ´ a la construction de fonctions de score obtenues par `
apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.1 Une source de donnees exp ´ erimentales en constante ´ evolution . ´ 83
5.1.2 Influence du nettoyage des donnees . . . . . . . . . . . . . . . . ´ 84
5.1.2.1 Valeurs manquantes . . . . . . . . . . . . . . . . . . . . 84
5.1.2.2 Acides amines et nucl ´ eiques non standards . . . . . . ´ 84
5.1.2.3 Solvant et ions . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.3 Influence du choix de la methode d’ ´ evaluation . . . . . . . . . . ´ 88
5.2 Flexibilite´ a l’interaction . . . . . . . . . . . . . . . . . . . . . . . . . . . ` 90
vi5.3 Limites du protocole de gen´ eration des candidats . . . . . . . . . . . . . ´ 91
6 Conclusion et perspectives 95
6.1 Integration de connaissances ´ a priori de contextes proches . . . . . . . 95
6.2 Extraction des donnees et complexit ´ es des mod ´ eles . . . . . . . . . . . ` 96
6.3 Predictions multi- ´ echelle . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 97
Bibliographie 103
Annexes 121
viiSommaire
viiiTable des figures
1 Du gene ` a la prot ` eine . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xvii
2 Les differents niveaux de structure . . . . . . . . . . . . . . . . . . . . . ´ xix
3 Formes D et L d’un acide amine . . . . . . . . . . . . . . . . . . . . . . ´ xix
4 Les 20 acides amines usuels . . . . . . . . . . . . . . . . . . . . . . . . ´ xx
5 Les nucleotides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ xxi
6 Geom ´ etrie de la liaison peptidique . . . . . . . . . . . . . . . . . . . . . ´ xxii
7 Appariement des nucleotides et h ´ elice d’ADN . . . . . . . . . . . . . . . ´ xxii
8 Helice ´ α . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxiv
9 Brins β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxv
10 Motifs de structure secondaire d’ARN . . . . . . . . . . . . . . . . . . . xxvi
11 Predictions issues d’une session de C ´ ASP . . . . . . . . . . . . . . . . . xxx
12 Schema de principe de d ´ etection des interactions prot ´ eine-prot ´ eine par ´
double-hybride chez la levure . . . . . . . . . . . . . . . . . . . . . . . . xxxiii
13 Le probleme de l’amarrage . . . . . . . . . . . . . . . . . . . . . . . . . ` xxxiv
14 Tessellation de Vorono¨ı et constructions deriv ´ ees . . . . . . . . . . . . . ´ xxxviii
15 Exemples de courbe ROC et explications . . . . . . . . . . . . . . . . . xlv
1.1 Diagramme de Venn du nombre de complexes par jeu de donnees externe ´ 3
1.2 Representation sch ´ ematique du calcul de l’alignement pour le L ´ RMSD et
le IRMSD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Exemple de diagramme d’EvsRMS . . . . . . . . . . . . . . . . . . . . . 9
1.4 Illustration du score d’enrichissement sur une courbe EvsRMS . . . . . 10
2.1 Espace de recherche des candidats d’une interaction entre 2 molecules ´ 12
2.2 Coordonnees torsionnelles pour la manipulation des structures 3D . . . ´ 14
2.3 Presentation g ´ en´ erale des scores physico-chimiques . . . . . . . . . . . ´ 18
2.4 Presentation de l’ ´ energie de Van der Waals . . . . . . . . . . . . . . . . ´ 19
2.5 Exemples de diagrammes d’EvsRMS pour ROS . . . . . . . . . . . . . 24
2.6 Meilleurs exemples de diagrammes d’EvsRMS pour ROS . . . . . . . . 24
2.7 Illustration de l’algorithme gen´ eral de R ´ OGER . . . . . . . . . . . . . . . 29
2.8 Methodologie d’optimisation de la fonction de score atomique . . . . . . ´ 30
2.9 Repartition de la valeur des coefficients par poids et contrainte . . . . . ´ 33
2.10 Repartition de la valeur des coefficients par poids . . . . . . . . . . . . . ´ 34
2.11 Courbes ROC de ROS et POS sur la PRIDB et les Benchmarks . . . . . 36
2.12 Courbes ROC de POS sur la PRIDB . . . . . . . . . . . . . . . . . . . . 37
ixTable des figures
2.13 Diagrammes d’EvsRMS d’interactions differentes propos ´ ees par POS . ´ 38
2.14 Diagrammes d’EvsRMS d’interactions alternatives proposees par POS . ´ 38
3.1 Exemple d’arbre de decision . . . . . . . . . . . . . . . . . . . . . . . . ´ 45
3.2 Arbre de decision appris avec J48 sur la P ´ RIDB . . . . . . . . . . . . . . 54
4.1 Modele gros-grain : exemple de l’uracile . . . . . . . . . . . . . . . . . . ` 58
4.2 Illustration de la construction intuitive d’un diagramme de Vorono¨ı . . . . 61
4.3 Exemple de triangulation de Delaunay, dual du diagramme de Vorono¨ı . 61
4.4 Construction d’une triangulation de Delaunay . . . . . . . . . . . . . . . 62
4.5 L’interface d’une tessellation de Vorono¨ı . . . . . . . . . . . . . . . . . . 63
4.6 Le solvant a l’interface d’une tessellation de Vorono ` ¨ı . . . . . . . . . . . 63
4.7 Mesure des parametres gros-grain ` a partir du diagramme de Vorono ` ¨ı . 64
4.8 Diagrammes d’EvsRMS pour POS avec entonnoirs . . . . . . . . . . . . 67
4.9 Interaction avec le solvant explicite du modele gros-grain . . . . . . . . ` 68
4.10 Courbes de densite des termes de score P1 et P2 . . . . . . . . . . . . ´ 70
4.11 Courbes de densite des termes de score P3 d’acides amin ´ es . . . . . . ´ 71
4.12 Courbes de densite des termes de score P3 des acides nucl ´ eiques . . . ´ 73
4.13 Coefficients de P1 et P3 : la surface d’interaction et le nombre d’acides
amines et nucl ´ eiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 74
4.14 Coefficients de P3 : les proportions d’acides amines et nucl ´ eiques . . . ´ 75
4.15 Coefficients de P4 : les volumes medians . . . . . . . . . . . . . . . . . ´ 76
4.16 Exemple de fonction avec valeurs de centrage . . . . . . . . . . . . . . 80
5.1 Structure 3D de 3 complexes proteine-ARN : ´ etude de cas des partenaires ´ 86
5.2 Diagramme EvsRMS des 3 complexes de l’etude de cas des partenaires ´ 87
5.3 Structure 3D de 3 complexes proteine-ARN : ´ etude de cas du solvant et ´
des ions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.4 Diagramme EvsRMS des 3 complexes de l’etude de cas du solvant et ´
des ions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.5 Diagramme EvsRMS de 3 complexes avec faible score d’enrichissement 90
5.6 Diagramme EvsRMS de 3 complexes . . . . . . . . . . . . . . . . . . . 92
5.7 Structure 3D d’une interaction de type clef-serrure . . . . . . . . . . . . 93
S1 Diagrammes par complexe de l’energie en fonction du I ´ RMSD (EvsRMS) 123
S2 Diagrammes EvsRMS pour les Benchmarks I et II . . . . . . . . . . . . 137
S3 Diagrammes EvsRMS des complexes avec proteine non li ´ ee . . . . . . ´ 142
xListe des tableaux
1 Matrice de confusion a deux classes . . . . . . . . . . . . . . . . . . . . ` xliii
1.1 Structures 3D, provenance et utilisation pour chaque jeu de donnees . . ´ 7
2.1 Evaluation globale de ROS sur la P ´ RIDB, au seuil du meilleur Fscore . . 22
2.2 Evaluation globale de ROS sur la P ´ RIDB, au seuil du top10 . . . . . . . 23
2.3 Evaluation des contraintes sur les poids compar ´ es´ a la fonction de score `
par defaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 32
2.4 Evaluation du mod ´ ele de pr ` ediction d ´ edi ´ e par cat ´ egorie de complexes . ´ 35
2.5 Exemples types de coefficients des termes de score hbond elev ´ es . . . ´ 39
2.6 Les complexes les plus difficiles a pr ` edire pour POS, avec filtre . . . . . ´ 40
3.1 Repartition des valeurs de chaque terme de score . . . . . . . . . . . . ´ 52
3.2 Evaluation des classifieurs Weka compar ´ es´ a R` OGER lineaire . . . . . . ´ 53
3.3 Evaluation des classifieurs R ´ OGER non lineaire compar ´ es´ a R ` OGER
lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 55
4.1 Repartition de termes g ´ eom ´ etriques sur les structures natives de la P ´ RIDB 69
4.2 Resultats gros-grain VOR pour la P ´ RIDB : 12 exemples . . . . . . . . . . 77
4.3 Resultats gros-grain VOR pour la P ´ RIDB : 6 exemples . . . . . . . . . . 78
4.4 Resultats gros-grain positifs pour la P ´ RIDB : 6 exemples . . . . . . . . . 79
4.5 Resultats gros-grain avec valeurs de centrage pour la P ´ RIDB : 6 exemples 81
S1 Resultats globaux des complexes de la P ´ RIDB, seuil du Fscore . . . . . 145
S2 Resultats globaux des complexes de la P ´ RIDB, seuil du top10 . . . . . . 148
S3 Resultats globaux des ´ Benchmarks I et II . . . . . . . . . . . . . . . . . 149
S4 Resultats globaux des complexes avec prot ´ eine non li ´ ee . . . . . . . . . ´ 150
S5 Resultats pour les complexes des ´ Benchmarks I et II . . . . . . . . . . . 151
S6 Resultats pour les complexes avec prot ´ eine non li ´ ee des ´ Benchmarks . 152
S7 Resultats gros-grain pour les complexes de la P ´ RIDB . . . . . . . . . . . 155
S8 Resultats gros-grain positifs pour les complexes de la P ´ RIDB . . . . . . 158
S9 Resultats gros-grain non lin ´ eaire pour les complexes de la P ´ RIDB . . . . 161
S10 Details sur les complexes prot ´ eine-ARN issus de la P ´ RIDB . . . . . . . . 165
S11 Details sur les complexes prot ´ eine-ARN issus des ´ benchmarks I et II . . 167
S12 Resultats atomiques pour les complexes de la P ´ RIDB . . . . . . . . . . 171
xiListe des tableaux
xiiRemerciements
Ce manuscrit doit son existence a l’interaction entre une multitude de personnes `
evoluant pour une grande part au sein de l’ ´ equipe-projet Inria AMIB (Algorithmes et ´
Modeles pour la Biologie Int ` egrative), qui comprend l’ ´ equipe bioinformatique du LRI ´
(Laboratoire de Recherche en Informatique) de l’Universite Paris-Sud et l’ ´ equipe bioin- ´
formatique du LIX (Laboratoire d’Informatique de Polytechnique) de l’Ecole Polytech- ´
nique. Je souhaite ici dresser un panorama de ces personnes, panorama qui ne se
veut ni exhaustif, ni trie par score ou m ´ erite. ´
J’aimerais tout d’abord remercier mes directeurs de these dans leur ensemble pour `
nos discussions scientifiques et pour leur implication au rythme de nos nombreuses
reunions. Et plus sp ´ ecifiquement : Julie Bernauer, pour sa minutie et ses mises en ´
perspective ; Jer´ ome Az ˆ e, pour son ´ ecoute et ses propos rassurants ; Christine Froide- ´
vaux, pour sa rigueur et sa supervision tout au long des differentes ´ etapes de la th ´ ese. `
Ce sont mes encadrants qui ont contribue´ a me former sur ce qu’aucun manuel n’a su `
me transmettre.
Je tiens aussi a remercier l’ ` equipe bioinfo AMIB au complet pour cette ambiance ´
de travail a la fois studieuse et agr ` eable. Je remercie aussi plus particuli ´ erement les `
doctorants de l’equipe bioinfo AMIB pour leur soutien en cas de besoin et leurs sujets ´
de discussion passionnants sans cesse renouveles. ´
Merci aussi a Sid Chaudhury et Jeff Grey pour leurs conseils avis ` es en mati ´ ere de `
prediction structurale. ´
Je remercie Philippe Dague et Beatrice Duval pour avoir accept ´ e de faire partie de ´
mon jury de these, ainsi qu’Anne Poupon et C ` eline Rouveirol pour avoir aussi accept ´ e´
d’etre les rapporteurs de ce manuscrit. ˆ
Un grand merci aux equipes techniques du LRI et du LIX pour leur efficacit ´ e et leur ´
aide au jour le jour sur le support informatique, ainsi que les equipes administratives ´
du LRI comme du LIX et le secretariat de l’ ´ Ecole doctorale pour leur patience. ´
Je remercie l’equipe de communication d’Inria pour leur sympathie et les journ ´ ees ´
de vulgarisation tres instructives. Merci aussi au SIP (Service d’Insertion Profession- `
nelle) pour ses formations sur l’ecriture de textes scientifiques et la prise de parole. Et ´
merci a Mich ` ele Sebag pour ses cours d’apprentissage automatis ` e.´
Je souhaiterais egalement remercier Anne Fourier, pour sa compr ´ ehension, ainsi ´
que son soutien inconditionnel durant les nuits blanches – ou presque – improvisees ´
et les reveils difficiles associ ´ es. ´
Je tiens aussi a signaler qu’une grande partie des calculs n ` ecessaires aux r ´ esultats ´
evalu ´ es au cours de cette th ´ ese n’auraient pas vu le jour en moins de trois ans sans `
la participation de certaines ressources de calcul. Parmi ces ressources se trouvent le
cluster de l’equipe bioinfo AMIB, celui du LRI, ainsi que les ressources de CHP (Cal- ´
cul Haute Performance) du TGCC (Tres Grand Centre de calcul du CEA), l’allocation `
t2013077065 attribuee par Genci (Grand ´ Equipement National de Calcul Intensif). ´
Enfin, je remercie le Ministere de l’Enseignement Sup ` erieur et de la Recherche ´
ainsi que toutes les personnes qui ont contribue´ a me fournir la bourse doctorale, sans `
laquelle cette these n’aurait pas d ` ebut ´ e.´
xiiixivIntroduction
1 Contexte
Les complexes proteine-ARN jouent un r ´ ole majeur dans la cellule. Ils sont im- ˆ
pliques dans de nombreux processus cellulaires tels que la r ´ eplication et la transcrip- ´
tion des ARN messagers. Leur regulation est souvent clef dans les m ´ ecanismes qui ´
mettent en jeu de larges machineries moleculaires (comme le R ´ ISC, RNA-Induced
Silencing Complex) impliquees dans les cancers. Les interactions prot ´ eine-ARN pr ´ e-´
sentent donc un grand inter´ et pour les ˆ etudes ´ a vis ` ee th ´ erapeutique [60]. Les prot ´ eines ´
etant capables d’interagir avec l’ARN sont nombreuses et vari ´ ees : leur structure met ´
en œuvre de nombreux domaines structuraux. Entre autres, les domaines RRM et
dsRDB montrent tous une activite de liaison ´ a l’ARN et sont tr ` es` etudi ´ es [49]. Ces ´
dernieres ann ` ees, les techniques exp ´ erimentales de r ´ esolution ont mis en ´ evidence de ´
nouvelles structures d’ARN et de complexes proteines-ARN. Gr ´ ace ˆ a la cristallogra- `
phie [133] et a la r ` esonance magn ´ etique nucl ´ eaire (RMN) [227, 239], nous disposons ´
aujourd’hui de structures a haute r ` esolution qui permettent de mieux comprendre les ´
fonctions des ARN et leurs modes d’association [44, 78]. D’autres methodes exp ´ eri- ´
mentales permettent quant a elles d’ ` etudier ´ a basse r ` esolution des structures beau- ´
coup plus grandes [138, 166, 179]. Les experiences sur les mol ´ ecules uniques four- ´
nissent meme des donn ˆ ees ´ a haute r ` esolution [270] et la conception de mol ´ ecules ´
d’ARN est desormais accessible [45]. Malgr ´ e ces avanc ´ ees majeures en biologie ´
structurale pour les ARN et les complexes proteine-ARN, le nombre de structures ´
disponibles dans la Protein Data Bank, base de donnees exp ´ erimentale de r ´ ef´ erence, ´
reste faible : de l’ordre d’un ou deux milliers. La modelisation et la pr ´ ediction de ces ´
complexes sont donc necessaires, bien que difficiles [203]. ´
La modelisation des assemblages mol ´ eculaires est un probl ´ eme complexe et pour `
lequel de nombreuses methodes de pr ´ ediction et d’ ´ evaluation des r ´ esultats ont ´ et´ e´
developp ´ ees [173, 181, 249]. Le challenge international C ´ APRI (Critical Assessment
of PRediction of Interactions) 1
[121], qui evalue les pr ´ edictions faites ´ a l’aveugle, a `
montre que, malgr ´ e de grands progr ´ es, les m ` ethodes actuelles d’amarrage ont besoin ´
d’une grande quantite et d’une grande vari ´ et´ e de donn ´ ees exp ´ erimentales [67]. Bien ´
que les techniques recentes soient capables de mieux pr ´ edire et prendre en compte ´
les ions et molecules d’eau qui interviennent dans les interactions [146], la flexibilit ´ e´
des molecules reste un frein majeur. M ´ eme s’il n’est pas aujourd’hui possible de pr ˆ edire ´
1. http://capri.ebi.ac.uk
xvIntroduction
les affinites de liaison entre mol ´ ecules, l’originalit ´ e et la qualit ´ e des premiers r ´ esultats ´
obtenus sont encourageantes [146].
Les interactions entre proteines et ARN sont difficiles ´ a pr ` edire, principalement pour ´
deux raisons : la flexibilite des mol ´ ecules d’ARN d’une part et les forces ´ electrostatiques ´
qui guident l’interaction des molecules d’ARN charg ´ ees n ´ egativement d’autre part. Les ´
progres r ` ecents des techniques de pr ´ ediction de structure d’ARN et de repliement ´
[65, 66, 142, 195, 217] permettent de prendre en compte la flexibilite de l’ARN, mais ´
le plus souvent a l’ ` echelle atomique uniquement [85] et ne permettent pas ais ´ ement ´
l’integration dans une proc ´ edure d’amarrage. Cela ne pourra ´ etre fait qu’en disposant ˆ
de fonctions de score assez performantes pour selectionner les bonnes conformations. ´
Les adaptations gros-grain qui permettent de reduire notoirement les phases initiales ´
de recherche sont interessantes [153, 229] et les champs de forces statistiques d ´ edi ´ es´
[43, 113, 205, 247, 269] sont prometteurs. Toutefois, ces optimisations sont souvent
basees sur de simples mesures et font peu usage des jeux de donn ´ ees ´ a valeur ajout ` ee´
disponibles dans la communaute. La ´ Protein-RNA Interface DataBase (PRIDB) [152]
fournit des jeux de donnees nettoy ´ es de qualit ´ e. Disponibles ´ a diff ` erents niveaux de ´
redondance, ils permettent des mesures atomiques precises. Les trois jeux d’essais ´
conc¸us pour l’amarrage protein-ARN et disponibles dans la litterature [9, 112, 204] ´
permettent d’evaluer les pr ´ edictions. ´
Pour l’amarrage, la disponibilite de donn ´ ees structurales est fondamentale pour ´
les methodes d’apprentissage. Plusieurs m ´ ethodes issues de l’apprentissage ont ´ et´ e´
developp ´ ees pour les complexes prot ´ eine-prot ´ eine [6, 18, 15, 22, 27]. Ces m ´ ethodes ´
se sont aver´ ees efficaces pour la r ´ e´evaluation ´ a posteriori (rescoring) et l’optimisation
d’experiences d’amarrage ´ in silico, comme l’ont montre les derni ´ eres ` editions de C ´ APRI
[251, 272]. Les techniques d’apprentissage sont donc de plus en plus etudi ´ ees et se ´
sont developp ´ ees au sein de la communaut ´ e C´ APRI [148].
Dans ce travail, je me suis interess ´ e au d ´ eveloppement de nouvelles m ´ ethodes ´
d’apprentissage pour les complexes proteine-ARN. Dans cette introduction, apr ´ es avoir `
present ´ e la structure des diff ´ erentes mol ´ ecules mises en jeu ainsi que leurs sp ´ ecificit ´ es´
structurales, je detaillerai les diff ´ erents mod ´ eles de repr ` esentation disponibles. Ensuite, ´
je decrirai le principe des m ´ ethodes d’amarrage et de score. Et j’aborderai enfin les ´
principes et methodes d’apprentissage en lien avec le probl ´ eme de l’amarrage. `
2 Structure des proteines et des ARN ´
Une proteine est une macromol ´ ecule biologique constitu ´ ee d’un encha ´ ˆınement
lineaire d’acides amin ´ es reli ´ es par une liaison peptidique. La prot ´ eine est le r ´ esultat de ´
l’expression d’un gene, port ` e par l’acide d ´ esoxyribonucl ´ eique (ADN), qui est d’abord ´
transcrit en acide ribonucleique (ARN) messager, lui-m ´ eme traduit en prot ˆ eine par ´
le ribosome (voir fig. 1). Les ARN sont formes d’un encha ´ ˆınement lineaire d’acides ´
nucleiques. De nombreux ARN ne codent pas pour des prot ´ eines et ont une structure ´
et une fonction propre. On distingue par exemple les ARN de tranfert (ARNt). Leur
fonction est de permettre l’ajout d’un acide amine´ a la cha ` ˆıne d’acides amines d’une ´
xvi2. Structure des proteines et des ARN ´
proteine en cours de synth ´ ese. Les ARNt ont une structure tr ` es particuli ` ere, dite en `
trefle du fait de leur forme en repr ` esentation 2D. ´
E
H
A D W Y
M
V S
N
Noyau
ADN
ARN polymérase
ARN messager
ARN de transfert Acide aminé
Ribosome
Protéine
TRANSCRIPTION
TRADUCTION
E
C
FIGURE 1 – Du gene ` a la prot ` eine. ´ Le gene (en bleu clair), appartenant ` a une mol ` ecule ´
d’ADN, est transcrit en ARN messager (en beige) par un enzyme : l’ARN polymerase. ´
Puis l’ARN messager est traduit en proteine dans le ribosome. ´ A cette traduction par- `
ticipent notamment les ARN de transfert. Image de J. Bernauer.
Dans les conditions physiologiques, la proteine se replie, adoptant par ce biais une ´
conformation compacte specifique. Ce repliement peut ´ etre spontan ˆ e – par l’interaction ´
de la proteine avec le solvant – ou bien se faire gr ´ ace ˆ a des prot ` eines sp ´ ecialis ´ ees, ´
appelees les chaperonnes. Dans certains cas, une maturation peut se produire par ´
l’ajout de glucides ou bien par le clivage de certaines parties de la proteine. Ensuite, ´
la proteine, mature et repli ´ ee, est soit lib ´ er´ ee dans le cytoplasme, soit dirig ´ ee vers une ´
membrane, soit encore excret ´ ee dans le milieu ext ´ erieur. ´
Tout changement, qu’il soit dans les conditions du milieu (temperature, pH, force ´
ionique, presence d’agents chimiques) ou dans l’encha ´ ˆınement des acides amines (par ´
mutagenese ou par modification chimique), peut modifier le repliement de la prot ` eine ´
ou ses interactions et moduler son activite.´
Le repliement des proteines est impos ´ e d’une part par les interactions entre les ´
differents acides amin ´ es qui les composent et, d’autre part, entre ces acides amin ´ es´
et le solvant. Cependant, toutes les interactions ne sont pas parfaitement connues
xviiIntroduction
et la complexite de ce ph ´ enom ´ ene est telle que, ` a l’heure actuelle, son d ` eroulement ´
est impossible a d ` ecrire. La structure adopt ´ ee par une prot ´ eine de m ´ eme que ses ˆ
interactions avec differents partenaires peuvent ´ etre d ˆ etermin ´ ees exp ´ erimentalement ´
mais cette determination peut ´ etre longue et difficile, m ˆ eme avec l’essor des projets de ˆ
genomique structurale qui ont mis en place des strat ´ egies de r ´ esolution de structure ´
a haut d ` ebit. ´ Etant donn ´ e le nombre actuellement connu de s ´ equences prot ´ eiques ´
et d’interactions potentielles, la determination exp ´ erimentale de toutes les structures ´
correspondantes n’est pas envisageable. Il faut donc se tourner vers la modelisation, ´
qui tente de prevoir non seulement le repliement des prot ´ eines en partant de leurs ´
sequences, mais aussi la conformation du complexe ´ a partir de la structure de chacun `
de ses partenaires determin ´ ee s ´ epar ´ ement. ´
De la meme fac¸on, le repliement des ARN est d ˆ uˆ a l’interaction entre les nucl ` eotides ´
qui le composent, le solvant et – les molecules d’ARN ´ etant charg ´ ees – les ions. ´
Comme pour les proteines, les interactions mises en jeu lors du repliement sont mal ´
connues. La connaissance de ces interactions est rendue encore plus difficile par les
aspects electrostatiques et les liaisons hydrog ´ ene tr ` es nombreuses. Les mol ` ecules ´
d’ARN sont a la fois beaucoup plus flexibles et moins stables que les prot ` eines, ce qui ´
rend a la fois leur r ` esolution exp ´ erimentale et leur mod ´ elisation plus difficiles. ´
On definit plusieurs niveaux d’organisation de la structure des prot ´ eines et des ´
acides nucleiques (voir fig. 2) : ´
– la structure primaire, ou sequence, est l’encha ´ ˆınement des acides amines ou des ´
nucleotides ; ´
– la structure secondaire resulte d’interactions ´ a courte distance (essentiellement `
des liaisons hydrogene entre atomes). Pour les prot ` eines, elles ne d ´ ependent ´
qu’en partie de la nature des chaˆınes laterales des acides amin ´ es impliqu ´ es : ´
certains segments de la proteine adoptent ainsi une conformation p ´ eriodique ´
d’angles diedres successifs. Pour les ARN, ces interactions sont li ` ees ´ a la nature `
des nucleotides et au type d’appariement que ceux-ci peuvent former ; ´
– la structure tertiaire est la forme fonctionnelle repliee d’une cha ´ ˆıne proteique ´
ou nucleique. Elle r ´ esulte de l’assemblage selon une topologie d ´ etermin ´ ee des ´
structures secondaires ;
– la structure quaternaire, qui comprend les complexes, est l’association de plusieurs
chaˆınes d’acides amines ou d’acides nucl ´ eiques (de cha ´ ˆınes identiques ou non).
2.1 Les acides amines´
Un acide amine est une mol ´ ecule constitu ´ ee d’un carbone asym ´ etrique (appel ´ e´
carbone α ou Cα) lie´ a un groupement carboxyle COOH, un groupement amin ` e NH ´ 2
,
un hydrogene H et un radical R, aussi appel ` e la cha ´ ˆıne laterale. ´
Selon la conformation du carbone α, on parle d’acide amine D ou L (voir fig. 3). ´
Les appellations D et L ont et ´ e donn ´ ees ´ a l’origine pour d ` esigner les compos ´ es´
dextrogyres et levogyres. Cependant, la conformation D ou L ne permet pas de pr ´ evoir ´
les propriet ´ es optiques d’un acide amin ´ e. Chaque acide amin ´ e doit son nom ´ a la nature `
de son radical. Les acides amines naturels les plus courants sont au nombre de 20, ´
xviii2. Structure des proteines et des ARN ´
FIGURE 2 – Les differents niveaux de structure : (A) prot ´ eines, (B) ARN. La fonction des ´
assemblages formes est d ´ ependante des diff ´ erents niveaux. Image de J. Bernauer. ´
R
Cα
- H OOC
+H3N
R
Cα
H COONH3
+
L-acide aminé D-acide aminé
FIGURE 3 – Formes D et L d’un acide amine. Ces formes, non superposables, sont ´
l’image l’une de l’autre dans un miroir. Image de J. Bernauer.
xixIntroduction
tous de configuration L (voir fig. 4). Certaines proteines contiennent un petit nombre ´
d’acides amines modifi ´ es tels que l’hydroxyproline ou la s ´ el ´ enocyst ´ eine. ´
H2N CH C
CH3
OH
O
H2N CH C
CH
OH
O
CH3
CH3
H2N CH C
CH2
OH
O
CH CH3
CH3
H2N CH C
CH
OH
O
CH3
CH2
CH3
H2N CH C
CH2
OH
O
H2N CH C
CH2
OH
O
CH2
S
CH3
H2N CH C
CH2
OH
O
HN
HN
C OH
O
Alanine
(Ala,A)
Valine
(Val,V)
Leucine
(Leu,L)
Isoleucine
(Ile,I)
Phénylalanine
(Phe, F)
Méthionine
(Met, M)
Tryptophane
(Trp, W)
Proline
(Pro, P)
Acides aminés non polaires
Acides aminés polaires non chargés
H2N CH C
H
OH
O
H2N CH C
CH2
OH
O
C
NH2
O
H2N CH C
CH2
OH
O
CH2
C
NH2
O
H2N CH C
CH2
OH
O
SH
H2N CH C
CH2
OH
O
OH
H2N CH C
CH
OH
O
OH
CH3
H2N CH C
CH2
OH
O
OH
Glycine
(Gly, G)
Asparagine
(Asn, N)
Glutamine
(Gln,Q)
Cystéine
(Cys, C)
Sérine
(Ser, S)
Thréonine
(Thr, T)
Tyrosine
(Tyr, Y)
Acides aminés basiques Acides aminés acides
H2N CH C
CH2
OH
O
CH2
CH2
CH2
NH3
+
H2N CH C
CH2
OH
O
CH2
CH2
NH
C
NH2
NH2
+
H2N CH C
CH2
OH
O
+HN
NH
H2N CH C
CH2
OH
O
CH2
C
O-
O
H2N CH C
CH2
OH
O
C
O-
O
Lysine
(Lys, K)
Arginine
(Arg, R)
Histidine
(His, H)
Acide glutamique
(Glu, E)
Acide aspartique
(Asp, D)
FIGURE 4 – Les 20 acides amines usuels. Image de J. Bernauer. ´
La nature du radical R (aussi appele cha ´ ˆıne laterale) conf ´ ere ` a chaque acide amin ` e´
des propriet ´ es physico-chimiques particuli ´ eres (encombrement st ` erique, hydrophobie, ´
polarite, acidit ´ e, flexibilit ´ e, ´ etc.). Ces propriet ´ es permettent le repliement de la prot ´ eine, ´
garantissent ainsi sa stabilite, et permettent son activit ´ e biochimique. ´
2.2 Les acides nucleiques ´
Un acide nucleique, comme l’ARN ou l’ADN, est form ´ e de sous-unit ´ es appel ´ ees des ´
nucleotides. Les nucl ´ eotides sont form ´ es d’une base azot ´ ee appel ´ ee une base, d’un ´
cycle a cinq atomes de carbone appel ` e un sucre (ribose pour l’ARN et d ´ esoxyribose ´
pour l’ADN) et d’un groupement phosphate (voir fig. 5). Comme pour les acides amines, ´
pour les nucleotides, les parties correspondant au squelette – ´ a savoir le sucre et le `
groupement phosphate – sont identiques pour tous les nucleotides. Ceux-ci ne diff ´ erent `
donc que par leurs bases.
xx2. Structure des proteines et des ARN ´
FIGURE 5 – Les nucleotides. Image de Wikipedia. ´
On distingue principalement cinq types de bases : l’adenine (A), la guanine (G), ´
la cytosine (C), l’uracile (U) et la thymine (T). Elles appartiennent a deux familles `
differentes : les purines, qui sont form ´ ees de deux cycles aromatiques (l’un ´ a cinq `
et l’autre a six atomes), et les pyrimidines qui sont form ` ees d’un cycle aromatique ´ a`
six atomes. L’ARN contient principalement les quatre bases A,U,G et C. Il existe aussi
d’autres nucleotides parfois en interaction dans un complexe prot ´ eine-ARN : ce sont les ´
nucleotides non standards. Ces nucl ´ eotides non standards sont g ´ en´ eralement obtenus ´
par l’ajout ou le retrait d’un groupement chimique a la base azot ` ee. ´
2.3 La structure primaire ou sequence ´
2.3.1 Definition ´
La structure primaire d’une proteine, ´ egalement appel ´ ee cha ´ ˆıne polypeptidique, est
l’enchaˆınement de ses acides amines. Lors de la traduction, le groupement acide d’un ´
acide amine est li ´ e au groupement amin ´ e de l’acide amin ´ e suivant ; cette liaison est ´
appelee liaison peptidique. La nature de cette liaison impose certaines contraintes ´
spatiales : en particulier, le C et le O du groupement carboxyle du premier acide amine,´
ainsi que le N et le Cα de l’acide amine suivant sont coplanaires (voir fig. 6). ´
Les liaisons covalentes etablies lors de la traduction ne sont g ´ en´ eralement pas ´
modifiees. Les exceptions peuvent ´ etre la coupure de certaines parties de la cha ˆ ˆıne
proteique, l’ ´ etablissement de ponts disulfure entre deux cyst ´ eines ou encore la liaison ´
avec des glucides lors de la maturation. Une proteine comprend entre 30 et 30 000 ´
acides amines, la moyenne se situant autour de 330 [268]. On appelle squelette de la ´
proteine, la cha ´ ˆıne des N, Cα, C, et O de tous les acides amines qui la constituent. ´
La structure primaire d’un ARN est la succession de ses nucleotides. Les bases ´
etant form ´ ees de cycles aromatiques, elles sont planes. Les bases s’apparient de la ´
fac¸on suivante : l’adenine forme deux liaisons hydrog ´ ene avec l’uracile et la guanine `
forme trois liaisons hydrogene avec la cytosine (voir fig. 7). Cette derni ` ere paire est `
donc plus stable.
xxiIntroduction
FIGURE 6 – Geom ´ etrie de la liaison peptidique telle que d ´ ecrite par Linus Pauling [197], ´
figure 1.
FIGURE 7 – Appariement des nucleotides et h ´ elice d’ADN. Image adapt ´ ee de ´
Wikipedia.
xxii2. Structure des proteines et des ARN ´
2.3.2 Determination ´
La determination de la s ´ equence d’une prot ´ eine est une ´ etape indispensable de son ´
etude. En effet, la s ´ equence donne non seulement des informations sur le repliement ´
de la proteine (surtout s’il est possible de d ´ etecter des similitudes avec des prot ´ eines ´
dont la structure est connue), mais egalement sur sa fonction et sur sa localisation ´
cellulaire.
Cette determination se fait g ´ en´ eralement de mani ´ ere indirecte, par traduction de `
la sequence du g ´ ene. De nombreuses techniques peuvent ` etre utilis ˆ ees ´ a des fins de `
sequenc¸age ´ a grande ` echelle [111]. ´
Cette methode ne permet cependant pas de conna ´ ˆıtre d’elements tels que les ´
ev´ enements post-traductionnels, en particulier les substitutions, les glycosylations ou ´
les del ´ etions d’une partie de la cha ´ ˆıne. Pour connaˆıtre directement la structure primaire
d’une proteine de petite taille (moins de 150 acides amin ´ es), il est possible d’utiliser la ´
spectroscopie de masse [237]. Mais la sequence peut ´ egalement ´ etre d ˆ ecoup ´ ee – par ´
digestion enzymatique ou chimique – en tronc¸ons d’une longueur inferieure ´ a 30 acides `
amines. La s ´ equence de l’ensemble de ces tronc¸ons peut ensuite ´ etre d ˆ etermin ´ ee par ´
micro-sequenc¸age. ´
La determination d’une s ´ equence d’ARN se fait par s ´ equenc¸age, soit directement, ´
soit par conversion en ADN complementaire (ADNc) ´ a l’aide d’une transcriptase in- `
verse.
2.4 La structure secondaire
2.4.1 Definition ´
On appelle structure secondaire reguli ´ ere une partie de la cha ` ˆıne adoptant une
conformation periodique. Ces structures sont stabilis ´ ees par des r ´ eseaux de liaisons ´
hydrogene entre les acides amin ` es non voisins dans la cha ´ ˆıne polypeptidique.
Les premieres structures secondaires ont ` et´ e d ´ efinies par Linus Pauling en 1951 ´
[196, 197] : l’helice ´ α et le brin β. Ce sont deux structures secondaires tres largement `
majoritaires dans les proteines. Ces organisations mol ´ eculaires d’une part minimisent ´
les genes st ˆ eriques et les r ´ epulsions ´ electrostatiques entre les cha ´ ˆınes laterales et ´
maximisent le nombre de liaisons hydrogene : elles sont donc tr ` es largement favoris ` ees ´
[128].
Dans une proteine, en moyenne, la moiti ´ e des acides amin ´ es est impliqu ´ ee dans ´
des structures secondaires reguli ´ eres. L’autre moiti ` e des r ´ esidus se trouve impliqu ´ ee´
dans des boucles reliant entre elles les structures secondaires reguli ´ eres. En moyenne, `
la longueur d’un brin β est de cinq acides amines, celle d’une h ´ elice ´ α est de six acides
amines, tandis que celle d’une boucle est de douze acides amin ´ es [51]. ´
L’helice ´ α est stabilisee par des liaisons hydrog ´ ene entre des acides amin ` es de la ´
meme h ˆ elice – des acides amin ´ es distants de seulement 3, 5 r ´ esidus en moyenne dans ´
la chaˆıne polypeptidique (voir fig. 8). Meme isol ˆ ee, l’h ´ elice ´ α est stable.
Au contraire, le brin β n’est stable qu’associe´ a au moins un autre brin ` β, formant
ainsi un feuillet (voir fig. 9). Les brins d’un feuillet peuvent etre tous dans le m ˆ eme sens ˆ
xxiiiIntroduction
FIGURE 8 – Helice ´ α telle que represent ´ ee dans l’article original de Linus Pauling [197], ´
figure 2.
xxiv2. Structure des proteines et des ARN ´
– on parle alors de brins paralleles – ou bien ` etre positionn ˆ es alternativement dans un ´
sens et dans l’autre – on parle alors de brins antiparalleles. Les liaisons hydrog ` ene `
FIGURE 9 – Brins β tels que represent ´ es dans l’article original de Linus Pauling [196]. ´
assurant la cohesion des acides amin ´ es entre eux s’ ´ etablissent entre acides amin ´ es´
distants dans la sequence. ´
La quantite et l’agencement des structures secondaires r ´ eguli ´ eres conduisent ` a`
classer les proteines en cinq cat ´ egories : tout- ´ α, tout-β, α/β (alternance d’helices ´ α et
de brins β), α+β (structures contenant des helices ´ α et des brins β sans alternance),
et ”autres” [185, 191].
La structure secondaire des ARN correspond aux motifs cre´es par les diff ´ erents ´
appariements des nucleotides. Alors que l’ADN existe principalement sous forme de ´
doubles helices compl ´ etement appari ` ees, l’ARN est souvent simple brin et forme de ´
nombreux motifs varies. L’ARN est en effet plus flexible et peut former des structures ´
plus complexes, du fait des liaisons hydrogene possibles avec le groupement hydroxyle `
du sucre.
On distingue plusieurs motifs de structures secondaires pour l’ARN : les helices et ´
differents types de boucles. Les encha ´ ˆınements possibles de ces el ´ ements sont parfois ´
classes en familles de structures secondaires : les tetraloops, les pseudonœuds, les ´
tiges-boucles, etc.
Bien qu’etant un motif de structure tertiaire, pour les acides nucl ´ eiques, l’h ´ elice ´
depend de la structure secondaire : en effet, elle correspond ´ a une r ` egion de structure ´
secondaire formee de paires de bases cons ´ ecutives. ´
La tige-boucle est un motif qui correspond a une h ` elice termin ´ ee par une courte ´
boucle de nucleotides non appari ´ es (voir fig. 10). C’est un motif extr ´ emement courant ˆ
et qu’on retrouve dans des motifs plus grands tels que le trefle ` a quatre feuilles qui `
caracterise les ARN de transfert. Les boucles internes, s ´ erie de bases non appari ´ ees ´
au sein d’une helice, et les renflements, r ´ egions dans lesquelles un brin est compos ´ e´
de bases inser´ ees ”en plus” non appari ´ ees sont aussi fr ´ equentes. Ces r ´ egions sont ´
aussi parfois appelees jonctions. ´
Les pseudonœuds correspondent a une structure secondaire disposant de deux `
xxvIntroduction
FIGURE 10 – Exemple de motifs de structure secondaire d’ARN : A) la tige boucle B)
le pseudonœud. Image adaptee de Wikipedia. ´
tiges-boucles et dans laquelle la moitie d’une tige est intercal ´ ee entre les deux moiti ´ es´
de l’autre tige (voir fig. 10). Les pseudonœuds se replient en 3D en forme de nœuds
mais ne sont pas des nœuds au sens topologique. De multiples processus biologiques
reposent sur la formation de pseudonœuds (l’ARN de la telom ´ erase humaine par ex- ´
emple). Bien que l’ADN puisse former des pseudonœuds, ceux-ci ne sont trouves´
naturellement que chez les ARN.
2.4.2 Determination ´ a partir d’une solution `
A partir d’une solution de prot ` eine purifi ´ ee, il est possible d’estimer la composition ´
globale en structures secondaires reguli ´ eres (nombre d’acides amin ` es participant ´ a`
des brins β ou a des h ` elices ´ α) par des methodes spectroscopiques : ´
– dichro¨ısme circulaire vibrationnel ou ultra-violet [194] ;
– spectroscopie infrarouge [202] ;
– spectroscopie Raman [4] ;
– analyse des deplacements chimiques en RMN (r ´ esonance magn ´ etique nucl ´ eaire) ´
[258].
Cependant, pour les proteines, l’unique moyen de d ´ eterminer avec pr ´ ecision la position ´
dans la structure tertiaire de ces structures secondaires reguli ´ eres reste de d ` eterminer ´
completement la structure tertiaire. Pour l’ARN, la structure secondaire est en plus `
accessible grace ˆ a la structure tertiaire, mais celle-ci est bien plus difficile ` a r ` esoudre ´
experimentalement. Il est toutefois possible d’obtenir la structure secondaire de fac¸on ´
experimentale : soit par s ´ equenc¸age, soit ´ a l’aide de m ` ethodes de sondage. On peut ´
citer les sondages par modification chimique utilisant :
– les radicaux hydroxyles, qui attaquent les cycles des sucres exposes [129, 246] ; ´
– le DMS (dimethyl sulfate), qui modifie certaines bases en les methylant, et les ´
sites qui ne peuvent plus ensuite s’apparier sont detect ´ es par RT-PCR [241] ; ´
– le CMCT (1-Cyclohexyl-3-(2-Morpholinoethyl)Carbodiimide metho-p-Toluene sulfonate),
qui modifie les uridines et les guanines exposees (suivi aussi d’une ´
detection par RT-PCR) [88] ; ´
– le kethoxal (1,1-Dihydroxy-3-ethoxy-2-butanone), qui modifie aussi les guanines
exposees [97] ; ´
– et la methode de sondage S ´ HAPE (Selective 2’-Hydroxyl Acylation analyzed by
xxvi2. Structure des proteines et des ARN ´
Primer Extension), qui comprend des reactifs ayant une pr ´ ef´ erence pour les ´
zones flexibles du squelette de l’ARN [176].
Il existe aussi des methodes de sondage sans traitement chimique ´ (In-line probing)
qui permettent de voir les changements structuraux dus aux interactions [97] ou de
cartographie par interference utilisant des analogues de nucl ´ eotides ´ (NAIM) [219].
2.4.3 Determination ´ a partir des coordonn ` ees atomiques ´
Meme lorsqu’on dispose des coordonn ˆ ees atomiques d’une prot ´ eine, il n’est pas ´
evident d’identifier les structures secondaires r ´ eguli ´ eres. Bien ` evidemment, il ne s’agit ´
plus ici de determiner le nombre et la nature des structures secondaires r ´ eguli ´ eres, `
mais plutot de d ˆ eterminer la position exacte de leurs extr ´ emit ´ es dans la s ´ equence. ´
Il existe de nombreux programmes permettant de realiser l’attribution des structures ´
secondaires des proteines, ´ a savoir : dire ` a quel type de structure secondaire participe `
chaque acide amine. La comparaison de ces programmes montre que les r ´ esultats ´
obtenus par les differentes m ´ ethodes peuvent ´ etre assez diff ˆ erents au niveau des lim- ´
ites de chaque structure secondaire.
Pour les ARN, la determination des structures secondaires est bien plus simple. ´
L’attribution d’une structure secondaire aux acides nucleiques des extr ´ emit ´ es peut ´ etre ˆ
delicate, mais de nombreux programmes proposent cette d ´ etermination. ´
2.4.4 Prediction ´
La prediction des structures secondaires est une ´ etape int ´ eressante de l’ ´ etude ´
d’une proteine. En effet, elle permet d’ ´ emettre des hypoth ´ eses sur la nature du repliement, `
aide a localiser des r ` esidus du site actif, ou encore ´ a donner une hypoth ` ese quant ` a`
la localisation de la proteine dans la cellule (en particulier pour les prot ´ eines mem- ´
branaires).
Il existe un certain nombre de logiciels de prediction de structure secondaire, fond ´ es´
sur des methodes diff ´ erentes [87, 216]. D ´ esormais, les pr ´ edictions obtenues sont ex- ´
actes a plus de 75 %, comme le montrent les r ` esultats de l’exp ´ erience C ´ ASP.
De la meme fac¸on, la pr ˆ ediction des structures secondaires est un champ de ´
recherche tres actif. De nombreuses techniques ont ` et´ e d ´ evelopp ´ ees [110, 171, 210, ´
230, 274]. Une des difficultes majeures est ensuite de savoir dans quelle mesure les ´
structures locales des bases affectent la structure tertiaire des ARN.
2.5 La structure tertiaire
2.5.1 Definition ´
La structure tertiaire d’une proteine est la description du repliement d’une cha ´ ˆıne
polypeptidique en sa forme fonctionnelle, ainsi que des liaisons covalentes apparues
apres la traduction (essentiellement les ponts disulfure), la pr ` esence ´ eventuelle d’ions ´
ou de cofacteurs plus complexes (heme, flavine ad ` enine dinucl ´ eotide ou FAD...). Les ´
structures tertiaires sont tres vari ` ees et tr ´ es complexes. `
xxviiIntroduction
Les chaˆınes polypeptidiques de grande taille (plus de 200 acides amines) se replient ´
souvent en plusieurs regions fonctionnelles. On parle de domaine si ces unit ´ es fonc- ´
tionnelles adoptent un repliement stable lorsqu’elles sont isolees. ´
Quand deux sequences prot ´ eiques pr ´ esentent plus de 30 % d’identit ´ e de s ´ equence, ´
elles adoptent le meme repliement [47, 221]. En dessous de ce seuil, il est difficile ˆ
de prevoir, par les m ´ ethodes classiques d’alignement de s ´ equence, si deux prot ´ eines ´
vont adopter la meme structure tertiaire. De plus, certaines prot ˆ eines adoptent des ´
repliements similaires sans presenter d’identit ´ e de s ´ equence d ´ etectable ; c’est le cas ´
notamment de la superfamille des immunoglobulines [102].
Le repliement repose principalement sur des interactions a courte distance. Ces `
interactions ont lieu, d’une part, entre les acides amines enfouis dans la prot ´ eine, et, ´
d’autre part, entre les acides amines de la surface et les mol ´ ecules du solvant [215]. ´
Ces interactions sont des liaisons hydrogene, des ponts salins ou des liaisons de type `
Van der Waals.
La structure tertiaire des ARN est, de la meme fac¸on, la description du repliement ˆ
de la chaˆıne polynucleotidique en sa forme 3D fonctionnelle. Celle-ci repose princi- ´
palement sur les appariements Watson-Crick (GC et AU) qui forment les helices. Dans ´
les acides nucleiques, les h ´ elices sont des polym ´ eres en forme de spirale, en g ` en´ eral ´
droite, contenant deux brins de nucleotides appari ´ es. Un tour d’h ´ elice est constitu ´ e´
d’environ 10 nucleotides et contient un grand et un petit sillon. ´ Etant donn ´ e la diff ´ erence ´
de largeur entre le petit et le grand sillon, de nombreuses proteines se lient par le grand ´
sillon. De nombreux types d’helices sont possibles : pour l’ARN, on rencontre princi- ´
palement des helices A. ´
2.5.2 Determination ´
La premiere structure de prot ` eine r ´ esolue a ´ et´ e celle de la myoglobine [134] par ´
cristallographie aux rayons X. A l’heure actuelle, la ` Protein Data Bank (PDB) [13, 14],
banque de donnees des structures tridimensionnelles des prot ´ eines, contient plus ´
de 33 000 fichiers, dont environ 28 000 correspondent a des structures r ` esolues par ´
cristallographie et 5 000 a des structures r ` esolues par RMN (dans sa version ´ PDB 2004
archives release #1). D’autres methodes de r ´ esolution de structure peuvent aussi ´ etre ˆ
utilisees, mais elles restent pour l’instant moins efficaces. ´
Ces methodes, m ´ eme si leurs performances se sont beaucoup am ˆ elior ´ ees, en ´
particulier avec l’apparition des projets de genomique structurale, restent tributaires ´
de conditions experimentales restrictives. La cristallographie n ´ ecessite l’obtention de ´
cristaux diffractants, ce qui demande beaucoup de materiel et de travail. Quant ´ a la `
RMN, meme si la contrainte du cristal est supprim ˆ ee, elle ne peut s’appliquer que sur ´
des proteines relativement petites (moins de 300 r ´ esidus) et il faut obtenir une quan- ´
tite importante de solution de prot ´ eine pure ´ a plus de 95 %. ` Etant donn ´ e le nombre ´
de sequences connues ´ a l’heure actuelle, il n’est donc pas envisageable de r ` esoudre ´
toutes les structures correspondantes.
Par exemple pour la cristallographie X, selon la proteine et la qualit ´ e du cristal, ´
on connaˆıt la structure avec une resolution plus ou moins bonne. ´ A basse r ` esolution ´
(superieure ´ a 3 ` A), on conna ˚ ˆıt le squelette de la proteine et les structures secondaires. ´
xxviii2. Structure des proteines et des ARN ´
A moyenne r ` esolution, on peut observer les interactions entre acides amin ´ es, en par- ´
ticulier les liaisons hydrogene et les interactions de type Van der Waals. ` A haute `
resolution (moins de 1.5 ´ A), on peut d ˚ eterminer avec pr ´ ecision longueurs et angles des ´
liaisons, l’hydratation, et les mouvements atomiques autour des positions d’equilibre. ´
Ces methodes sont aussi utilis ´ ees pour les ARN, mais ceux-ci sont plus flexibles ´
et beaucoup moins stables, ce qui rend leur resolution beaucoup plus complexe. Alors ´
que la Protein Data Bank contient aujourd’hui plus de 100 000 structures, quelques
milliers d’entre elles seulement correspondent a des structures d’ARN. `
2.5.3 Prediction ´
Modelisation par homologie ´ Lorsqu’on peut etablir une similitude entre la s ´ equence ´
dont on cherche la structure et une sequence dont la structure tridimensionnelle est ´
connue (support), il est possible de construire un modele de la structure recherch ` ee. ´
Un modele obtenu de la sorte est d’autant plus pr ` ecis que l’identit ´ e de s ´ equence en- ´
tre le support et la sequence ´ a mod ` eliser est forte. Pour de faibles taux d’identit ´ e, on ne ´
connaˆıt avec precision, dans le mod ´ ele, que les acides amin ` es strictement conserv ´ es, ´
et les parties ne comportant pas de longues insertions/del ´ etions. Le mod ´ ele obtenu `
n’est donc pas l’equivalent d’une structure d ´ etermin ´ ee par des m ´ ethodes physiques. ´
Cependant, il rend souvent compte du comportement du site actif ou encore des parties
de la proteine n ´ ecessaires ´ a son repliement ou ` a son interaction avec des parte- `
naires.
Les methodes d’enfilage ´ Les methodes d’enfilage, ou ´ threading, permettent de
tester la compatibilite d’une s ´ equence avec un repliement [240]. Dans ce cas, pour ´
une sequence donn ´ ee, on cherche parmi les structures connues, celle qui est la plus ´
compatible avec la sequence dont on dispose. ´
La modelisation ´ ab initio La finalite des techniques de mod ´ elisation ´ ab initio est
de predire la structure d’une prot ´ eine ´ a partir de sa seule s ` equence. De nombreux ´
modeles de calculs sont utilis ` es, faisant appel par exemple ´ a la dynamique mol ` eculaire. ´
Mais, meme si les progr ˆ es sont cons ` equents, les r ´ esultats sont tr ´ es variables, comme `
l’atteste l’experience ´ CASP [25] ou l’etat du projet ´ folding@home 2
.
Evaluation des pr ´ edictions : l’exp ´ erience C ´ ASP 3 L’experience C ´ ASP (Critical Assessment
of Methods of Protein Structure Prediction) est une competition qui a lieu ´
tous les deux ans depuis 1994 et a pour objectif de tester les methodes de pr ´ ediction ´
de structure. Des proteines, dont la structure vient d’ ´ etre r ˆ esolue mais pas encore ´
publiee, sont propos ´ ees aux pr ´ edicteurs. Ceux-ci doivent tenter de pr ´ edire, selon la ´
categorie, la structure ´ ab initio, la structure par homologie ou la structure secondaire.
2. http://folding.stanford.edu/
3. http://predictioncenter.org/
xxixIntroduction
Les evaluations des pr ´ edictions [62, 141, 182] montrent d’importants progr ´ es dans la `
prediction de structure ´ ab initio (voir fig. 11).
FIGURE 11 – Predictions issues d’une session de C ´ ASP. Predictions de structures ´
obtenues a l’aide du logiciel Rosetta [29] pour ` CASP6. Image originale en couverture
du journal PROTEINS : Structure, Function, and Bioinformatics, volume 61 du 26
septembre 2005.
Ces techniques s’appliquent aux proteines et aux ARN, avec plus de succ ´ es pour `
les proteines. ´
2.6 La structure quaternaire
2.6.1 Definition ´
La structure quaternaire est la geom ´ etrie de l’association de plusieurs sous-unit ´ es´
proteiques ou nucl ´ eiques. Certaines prot ´ eines ne sont fonctionnelles que sous forme ´
d’oligomeres. Il existe des oligom ` eres form ` es de sous-unit ´ es identiques, comme par ´
exemple le tetram ´ ere de la thymidylate synthase X, et des oligom ` eres r ` eunissant des ´
sous-unites diff ´ erentes, comme les histones. On parlera alors de complexes. Enfin, cer- ´
taines proteines forment des polym ´ eres, constitu ` es d’un tr ´ es grand nombre de sous- `
unites, comme les polym ´ eres actine/myosine dans les muscles. `
L’association de ces sous-unites est stabilis ´ ee par des interactions ´ a courte dis- `
tance, similaires a celles qui assurent la stabilit ` e de la structure tertiaire (essentielle- ´
xxx2. Structure des proteines et des ARN ´
ment des liaisons hydrogene, des ponts salins et des interactions hydrophobes) [48, `
125].
2.6.2 Determination ´
L’existence d’oligomeres de cha ` ˆınes proteiques ou nucl ´ eiques, qu’elles soient ou ´
non identiques, peut etre d ˆ etermin ´ ee par filtration sur gel ou centrifugation analytique ´
par exemple. Mais leur existence peut aussi etre d ˆ etermin ´ ee par des m ´ ethodes de ´
biochimie et de biologie moleculaire plus pouss ´ ees et qui peuvent ´ etre utilis ˆ ees de ´
maniere syst ` ematique, telles que, pour les prot ´ eines, l’analyse double-hybride [116], ´
l’analyse par TAP-tag (ou FLAP-tag) couplee´ a la spectrom ` etrie de masse [92, 109]. ´
La geom ´ etrie de l’association peut ´ etre d ˆ etermin ´ ee´ a basse r ` esolution par diffusion ´
des rayons X ou des neutrons aux petits angles, chromatographie sur gel ou encore
par microscopie electronique ´ a la fois pour les prot ` eines ou les ARN. ´
La connaissance de l’interaction au niveau des acides amines peut se faire, soit ´
directement par la determination de la structure par cristallographie aux rayons X, soit ´
par l’etude des interactions par RMN, ou encore indirectement, par mutagen ´ ese dirig ` ee´
ou modification chimique selective des cha ´ ˆınes laterales de certains acides amin ´ es. ´
Mais, en plus des contraintes associees aux deux m ´ ethodes vues pr ´ ec´ edemment, s’a- ´
joutent les contraintes inherentes aux complexes, telles que la taille, mais aussi, et ´
surtout, leur instabilite. En effet, pour pouvoir ´ etre ˆ etudi ´ e d’un point de vue structural, ´
un complexe doit etre stable dans les conditions requises. Or, de tr ˆ es nombreux com- `
plexes sont transitoires. Ainsi, meme s’il est d ˆ esormais possible d’obtenir la structure ´
de nombreuses proteines isol ´ ees de plus en plus rapidement, la r ´ esolution des struc- ´
tures de complexes reste difficile.
2.6.3 Prediction ´
Le premier modele de complexe prot ` eine-prot ´ eine (trypsine/inhibiteur) a ´ et´ e r ´ ealis ´ e´
en 1972 [20]. C’est en 1978 qu’est apparu le premier algorithme d’amarrage [259]. Les
procedures d’amarrage utilisent les coordonn ´ ees atomiques des deux macromol ´ ecules ´
partenaires, gen´ erent un grand nombre de conformations et leur attribuent un score `
[260]. Cette modelisation est en g ´ en´ eral assimil ´ ee´ a la recherche de modes d’asso- `
ciation complementaires entre deux mol ´ ecules de forme pr ´ ed´ efinie. Un certain degr ´ e´
de flexibilite peut parfois ´ etre pris en compte, mais en g ˆ en´ eral, l’amarrage prot ´ eine- ´
proteine et prot ´ eine-ARN est principalement envisag ´ e dans une approche d’associa- ´
tion de corps rigides.
Ces methodes s’appliquent ´ a des prot ` eines et acides nucl ´ eiques diff ´ erents, mais ´
peuvent aussi etre envisag ˆ ees pour d ´ eterminer l’ ´ etat d’oligom ´ erisation d’une prot ´ eine ´
ou d’un ARN. Elles peuvent prendre en compte les symetries connues comme pour ´
les proteines virales [12, 52, 199, 224], mais aussi utiliser des ´ etudes plus fines des ´
interfaces [19, 7, 200, 271].
xxxiIntroduction
3 Les complexes proteine-prot ´ eine et prot ´ eine-ARN ´
3.1 Fonctions
Au niveau moleculaire, la fonction d’une prot ´ eine ou d’un ARN est souvent subor- ´
donnee´ a l’interaction avec un certain nombre de partenaires. Les complexes inter- `
viennent a de nombreux niveaux et la compr ` ehension de leur m ´ ecanisme de forma- ´
tion/association permet de mieux comprendre de nombreux processus. Pour se rendre
compte de leur importance, on peut citer des assemblages tels que le ribosome, les
anticorps/antigenes, les capsides virales ou encore les microtubules. Ainsi, la fonction `
d’une proteine ou d’un ARN ne peut ´ etre envisag ˆ ee sans tenir compte des interactions. ´
3.2 Detection exp ´ erimentale biochimique prot ´ eine-prot ´ eine ´
Les interactions proteine-prot ´ eine sont pr ´ esentes partout et en grand nombre. C’est ´
la raison pour laquelle de nouvelles methodes exp ´ erimentales d’analyse syst ´ ematique ´
sont developp ´ ees [123]. Deux types sont pr ´ esent ´ es dans la suite, les m ´ ethodes d’anal- ´
yse par double-hybride et celles utilisant des marqueurs.
3.2.1 Le double-hybride sur la levure
La premiere m ` ethode utilis ´ ee pour ´ etudier dans la levure les interactions prot ´ eine- ´
proteine ´ a grande ` echelle a ´ et ´ e l’analyse par double hybride. Cette technique, mise ´
au point en 1989, permet la detection indirecte de l’interaction, car celle-ci induit la ´
formation d’un complexe moleculaire activant un g ´ ene rapporteur [81] (voir fig. 12). `
Cependant, dans cette detection, le nombre de faux positifs (les interactions d ´ etect ´ ees ´
mais non presentes) et de faux n ´ egatifs (les interactions pr ´ esentes non d ´ etect ´ ees) est ´
tres important. C’est donc une m ` ethode relativement peu fiable, ´ a moins de refaire un `
grand nombre de fois ces experiences, en plus d’exp ´ eriences compl ´ ementaires, ce qui ´
est relativement couteux et long dans une approche g ˆ enomique. ´
De plus, cette methode ne peut d ´ etecter dans sa forme originelle que des com- ´
plexes binaires. Or, la detection et la caract ´ erisation de complexes multiprot ´ eiques sont ´
tres importantes. `
Deux etudes sur la levure utilisent le double-hybride pour la d ´ etection syst ´ ematique ´
[116, 248]. Il est toutefois tres difficile de comparer ces ` etudes entre elles, en raison ´
principalement des problemes de fiabilit ` e dus aux contraintes exp ´ erimentales. ´
3.2.2 Utilisation de marqueurs (TAP-tag et FLAP-tag)
Deux autres etudes ont ´ et ´ e men ´ ees sur la levure ´ S. cerevisiae [92, 109] pour identifier
et comprendre le role de complexes cellulaires dans la cellule eucaryote. Des ˆ
centaines de sequences codantes de levure ont ´ et´ e fusionn ´ ees ´ a des cassettes d’ADN `
codant pour des marqueurs de purification. Puis, les souches de levure ont et´ e cul- ´
tivees, chacune exprimant une prot ´ eine cible marqu ´ ee, et soumises ´ a une proc ` edure ´
xxxii3. Les complexes proteine-prot ´ eine et prot ´ eine-ARN ´
Gal4
BD
X Gal4
AD
Y
Gal4
BD
X
Gal4
AD
Y
Gal4
BD
X
Gal4
AD
Y
ARN
Polymerase
LacZ
Interaction protéine-protéine
Identification des colonies bleues
X
GalBD
Y
GalAD
Vecteur appât Vecteur cible
FIGURE 12 – Schema de principe de d ´ etection des interactions prot ´ eine-prot ´ eine par ´
double-hybride chez la levure. La proteine Gal4 est l’activateur naturel des diff ´ erents ´
genes intervenant dans le m ` etabolisme du galactose. Elle agit en se fixant sur des ´
sequences appel ´ ees UASG ´ (Upstream Activating Sequence GAL) qui regulent la tran- ´
scription. Les proteines ´ etudi ´ ees (X et Y), partenaires potentiels d’interaction, sont ´
fusionnees, l’une au domaine de fixation de Gal4 sur l’ADN (domaine DBD ou ´ DNA
Binding Domain), et l’autre au domaine de Gal4 activant la transcription (domaine AC
ou Activation Domain). C’est ce qui donne a ce syst ` eme le nom de double-hybride. `
Quand il y a interaction entre X et Y, les domaines DBD (DNA-Binding Domain) et
AD (Activation Domain) sont associes et forment un activateur de transcription DBD- ´
X/Y-AD. C’est cet activateur hybride qui va se lier a l’ADN au niveau des s ` equences ´
qui controlent le g ˆ ene rapporteur (les s ` equences UASG), permettant la transcription du ´
gene par l’ARN polym ` erase II. Il suffit ensuite d’observer le produit du g ´ ene rapporteur, `
pour voir si un complexe s’est forme entre les prot ´ eines X et Y. Souvent, le g ´ ene LacZ `
est inser´ e dans l’ADN de la levure juste apr ´ es le promoteur Gal4, de fac¸on ` a ce que, `
si l’interaction a lieu, le gene LacZ, qui code pour la ` β-galactosidase, soit produit. Sur
un substrat approprie, la ´ β-galactosidase devient bleue, ce qui permet de determiner ´
simplement si l’interaction a lieu. Image de J. Bernauer.
xxxiiiIntroduction
dans laquelle les complexes entiers, contenant la proteine marqu ´ ee, ont ´ et´ e purifi ´ es. ´
Ensuite, les complexes ont et ´ e fractionn ´ es par ´ electrophor ´ ese sur gel et leurs com- `
posants identifies par spectrom ´ etrie de masse. ´
Il est tres difficile de comparer les r ` esultats obtenus par ces ´ etudes car les jeux ´
utilises ne sont pas identiques et le prot ´ eome complet de la levure n’a pas pu ´ etre ˆ
analyse. Globalement, ces ´ etudes donnent des r ´ esultats en accord avec celles r ´ ealis ´ ees ´
prec´ edemment, mais dans le d ´ etail, les r ´ esultats et la compl ´ etude des donn ´ ees ne per- ´
mettent pas de conclure.
De plus, il est aussi difficile, pour les memes raisons, de comparer les ˆ etudes util- ´
isant des marqueurs et les etudes de double-hybride pr ´ esent ´ ees pr ´ ec´ edemment. ´
L’ensemble de ces etudes exp ´ erimentales permet de pr ´ edire environ 15 000 com- ´
plexes proteine-prot ´ eine potentiels pour le g ´ enome de la levure. Parmi ces 15 000 ´
complexes, beaucoup s’avereront ` etre des faux positifs et il est certain qu’il existe ˆ
egalement un grand nombre de faux n ´ egatifs. ´
3.3 Les methodes d’amarrage ´
3.3.1 Le probleme `
Le but des methodes d’amarrage est de pr ´ edire la structure d’un complexe ´ a partir `
des structures ou modeles des partenaires isol ` es (voir fig. 13). Le probl ´ eme se divise `
+ ?
A
B
AB
FIGURE 13 – Le probleme de l’amarrage. Comment associer la prot ` eine A et la prot ´ eine ´
B ? Des configurations AB obtenues, laquelle est susceptible d’exister in vivo ? Image
de J. Bernauer.
xxxiv3. Les complexes proteine-prot ´ eine et prot ´ eine-ARN ´
en deux etapes : d’abord, on explore l’espace pour obtenir toutes les conformations ´
possibles et ensuite, on trie ces conformations en esperant classer en premier la con- ´
formation native observee exp ´ erimentalement. ´
Avec une approximation de corps rigides, si on considere chaque partenaire comme `
une sphere de 15 ` A de rayon ˚ a la surface de laquelle les propri ` et´ es atomiques sont ´
decrites sur une grille de 1 ´ A, une recherche syst ˚ ematique pr ´ esente 10 ´
9 modes distincts
d’association [57]. La question est ensuite de determiner, parmi ces modes d’as- ´
sociation, lequel est le mode natif.
Pour pouvoir acceder aux changements de conformation et aux mouvements des ´
chaˆınes laterales et des bases, le mod ´ ele doit ` etre de type ”soft”, c’est- ˆ a-dire que `
les molecules doivent pouvoir l ´ eg´ erement s’interp ` en´ etrer et on doit consid ´ erer les ´
molecules comme des ensembles de sph ´ eres articul ` ees. Ainsi, il est possible de traiter ´
aussi bien les molecules issues de r ´ esolution de structures de prot ´ eines seules, c’est- ´
a-dire non-li ` ees ´ (unbound), ou complexees, c’est- ´ a-dire li ` ees ´ (bound).
3.3.2 Les algorithmes
Le premier algorithme, invente par Shoshana Wodak et Jo ´ el Janin [124, 259] ¨ a`
partir des travaux de Cyrus Levinthal [149] realise une recherche de l’espace sur six ´
degres de libert ´ e (cinq rotations et une translation) pour amener les deux mol ´ ecules ´
en contact une fois leur orientation fixee, et attribue un score simple en fonction de la ´
surface de contact. Pour gagner du temps sur le calcul de la surface, une approximation
a partir du mod ` ele de Levitt [150] est r ` ealis ´ ee. Cet algorithme a ´ et´ e am ´ elior ´ e en 1991 ´
a l’aide d’une minimisation d’ ` energie [46]. ´
D’autres types d’algorithmes, utilisant la complementarit ´ e de surface, ont ´ et´ e mis ´
en œuvre a partir d’une description en points critiques d ` efinis comme des ”trous et ´
bosses” (knobs and holes) [57, 145, 264]. Les solutions donnees correspondent ´ a une `
concordance de groupes de quatre points critiques, laquelle est identifiee gr ´ ace ˆ a une `
triangulation de surface comme definie par M. Connolly en 1985 [56]. Cette m ´ ethode ´
a et ´ e beaucoup am ´ elior ´ ee en 1991 par H. Wang, avec la mod ´ elisation de la surface ´ a`
l’aide d’une grille [255].
En 1992, un programme utilisant ces grilles pour les petites molecules a ´ et´ e modifi ´ e´
par I. Kuntz et ses collaborateurs, pour s’appliquer aux complexes proteine-prot ´ eine et ´
a permis d’obtenir de bons resultats [175, 232] tout en g ´ en´ erant de nombreux faux- ´
positifs.
Des algorithmes de vision par ordinateur (computer vision) a partir de hachage `
geom ´ etrique ont ensuite ´ etendu la m ´ ethode des ”trous et bosses”. En 1993 a ´ et´ e´
developp ´ e un algorithme qui fait correspondre des propri ´ et´ es de surface ´ a partir de `
triplets de points critiques qui sont stockes dans des tables de hachage [84, 163]. Cette ´
methode, tr ´ es efficace pour les mol ` ecules de type li ´ e, est tr ´ es sensible aux faibles vari- `
ations de surface, ce qui la rend rapidement inefficace pour les molecules de type ´
non-lie. ´
xxxvIntroduction
3.3.3 La transformation de Fourier
Parmi toutes les methodes de compl ´ ementarit ´ e de surface, celle utilisant la trans- ´
formation de Fourier rapide (Fast Fourier Transform ou FFT), apparue des 1991 [126], `
est l’une des plus simples et des plus utilisees [10, 35, 40, 41, 132, 143, 180, 235, 257]. ´
Une grille cubique est tracee, et, ´ a chaque point, on attribue un poids qui est n ` egatif et ´
important si le point est situe´ a l’int ` erieur de la prot ´ eine A, nul s’il est ´ a l’ext ` erieur et 1 ´
s’il est proche de la surface ; on fait de meme pour la prot ˆ eine B. ´
Le produit est donc important et positif (donc defavorable) si les deux volumes ´
moleculaires s’interp ´ en´ etrent, et n ` egatif (donc favorable) pour les points qui apparti- ´
ennent a la surface d’une mol ` ecule et au volume de l’autre. Lorsque la mol ´ ecule A ´
est translatee par rapport ´ a la mol ` ecule B, le score peut ´ etre rapidement calcul ˆ e par ´
transformation de Fourier rapide (FFT), si la grille de A est identique a la grille de B. La `
grille doit donc etre red ˆ efinie ´ a chaque nouvelle orientation pour que la recherche soit `
complete. `
Cette approche presente de nombreux avantages : les poids peuvent contenir des ´
informations sur les propriet ´ es physico-chimiques de la surface, et la r ´ esolution peut ´
etre ajust ˆ ee en limitant le nombre de termes de Fourier calcul ´ es dans la somme. ´
Les resultats obtenus par cette m ´ ethode sont relativement bons dans une approche ´
corps rigide [11, 39, 170], mais le temps de calcul associe est trop important pour une ´
approche a grande ` echelle. ´
3.3.4 Algorithmes d’amarrage et partitionnement du probleme `
Ces quinze dernieres ann ` ees, en particulier gr ´ ace ˆ a l’exp ` erience d’amarrage C ´ APRI
(Critical Assessment of PRediction of Interactions) [118, 119, 120, 122, 261], plusieurs
nouvelles methodes ont vu le jour [234]. Cette exp ´ erience est un test ´ a l’aveugle des `
algorithmes de docking de macromolecules qui doivent pr ´ edire le mode d’association ´
de deux proteines ´ a partir de leur structure tridimensionnelle. La structure du complexe, `
resolue exp ´ erimentalement, n’est d ´ evoil ´ ee aux participants et publi ´ ee qu’ ´ a l’issue des `
soumissions.
Les nouvelles methodes d’amarrage utilisent des techniques tr ´ es vari ` ees telles que ´
le hachage geom ´ etrique [83, 115, 188, 189, 190, 220, 225, 262], les algorithmes ´
gen´ etiques [91], les harmoniques sph ´ eriques [213], la dynamique mol ´ eculaire [32, ´
137, 238], la minimisation Monte-Carlo [100, 226], ou encore des methodes de min- ´
imisation d’energie ou de d ´ etection d’interfaces dirig ´ ees par des donn ´ ees biologiques ´
[69, 178, 250] (voir section 2.1.1 page 11).
Le domaine de recherche a beaucoup progresse et l’une des conclusions de cette ´
experience est que l’on dispose d’algorithmes de recherche de compl ´ ementarit ´ e de ´
surfaces performants [174]. Cependant, la deuxieme ` etape du processus d’amarrage, ´
a savoir le tri des configurations putatives obtenues par une fonction de score, reste `
a am ` eliorer, car la seule m ´ ethode r ´ eellement performante ´ a l’heure actuelle est l’- `
expertise humaine. Les fonctions energ ´ etiques classiquement utilis ´ ees ayant montr ´ e´
leurs limites [42, 53, 77, 79, 104, 108, 154], de nouvelles fonctions de score statistiques
sont apparues. Essentiellement basees sur les propri ´ et´ es physico-chimiques ´
xxxvi4. La tessellation de Vorono¨ı et ses deriv ´ ees pour l’amarrage ´
des atomes, elles ont tout d’abord et´ e utilis ´ ees pour le repliement et l’amarrage de ´
petites molecules, puis adapt ´ ees ´ a l’amarrage prot ` eine-prot ´ eine [64, 265, 266, 267]. ´
4 La tessellation de Vorono¨ı et ses deriv ´ ees pour l’a- ´
marrage
La premiere utilisation connue de la tessellation de Vorono ` ¨ı est la modelisation de la ´
repartition de l’ ´ epid ´ emie de chol ´ era de Londres par John Snow en 1854, dans laque- ´
lle est demontr ´ ee que la fontaine au centre de l’ ´ epid ´ emie est celle de Broad Street, ´
en plein coeur du quartier de Soho. Depuis lors, les applications utilisant cette construction
sont nombreuses : en met´ eorologie d’abord, par A.H. Thiessen, en cristallo- ´
graphie par F. Seitz et E. Wigner, qui ont aussi donne leur nom ´ a cette construction ; `
mais aussi en physiologie (analyse de la repartition des capillaires dans les muscles), ´
metallurgie (mod ´ elisation de la croissance des grains dans les films m ´ etalliques), robo- ´
tique (recherche de chemin en presence d’obstacles) et bien d’autres. ´
La tessellation de Vorono¨ı, ainsi que les autres tessellations qui en ont et´ e d´ eriv ´ ees ´
(voir fig. 14), sont aussi beaucoup utilisees en biologie, o ´ u elles permettent de nom- `
breuses representations des structures des prot ´ eines [201]. ´
Etant donn ´ e un ensemble de points appel ´ es centro ´ ¨ıdes, la tessellation de Vorono¨ı divise
l’espace au maximum en autant de regions qu’il y a de points (voir paragraphe ´
4.1.2 page 60). Chaque region, appel ´ ee cellule de Vorono ´ ¨ı, est un polyedre qui peut `
etre consid ˆ er´ e comme la zone d’influence du point autour duquel est trac ´ ee la cellule. ´
4.1 Constructions
Dans le cadre de l’analyse structurale des proteines, la tessellation de Vorono ´ ¨ı a
et ´ e utilis ´ ee pour la premi ´ ere fois par Richards en 1974 [211] pour ` evaluer, dans une ´
proteine globulaire, les volumes des atomes, d ´ efinis par les volumes de leurs poly ´ edres `
de Vorono¨ı. Dans cette etude, Richards est le premier ´ a proposer une solution ` a deux `
problemes que l’on retrouve dans toutes les ` etudes qui utilisent cette construction. ´
Tout d’abord, les atomes exposes au solvant ayant peu de voisins, leurs cellules de ´
Vorono¨ı sont grandes et ont un volume tres grand, peu repr ` esentatif de leurs propri ´ et ´ es. ´
Ensuite, cette construction considere tous les atomes comme ` equivalents, sans tenir ´
compte de leur nature chimique.
Pour resoudre le premier probl ´ eme, Richards a plac ` e des mol ´ ecules d’eau sur un ´
reseau cubique entourant la prot ´ eine et a relax ´ e leurs positions. Cette m ´ ethode a ´ et´ e´
ensuite affinee par Gerstein et ses collaborateurs [94, 95, 243, 244, 245]. D’autres ´
methodes ont ´ et ´ e propos ´ ees telles que : ´
– prendre en consideration uniquement les atomes ayant une cellule de Vorono ´ ¨ı de
volume raisonnable [206] ;
– placer les molecules d’eau en utilisant la dynamique mol ´ eculaire [31, 37] ; ´
– utiliser une representation d’union de sph ´ eres [172] ; `
xxxviiIntroduction(a) (b) (c)
(d) (e) (f)
(g) (h)
Diagramme de Voronoï Triangulation de Delaunay
Méthode B de Richards
zone non attribuée
Décomposition en polyèdres de Laguerre Union de sphères
α-Complexe Diagramme de Voronoï pondéré
FIGURE 14 – Tessellation de Vorono¨ı et constructions deriv ´ ees ´ (a) Construction d’une
cellule de Vorono¨ı : on trace la mediatrice entre un point donn ´ e et chacun des autres ´
points et ensuite, on considere le plus petit poly ` edre d ` efini par ces m ´ ediatrices ; c’est ´
la cellule de Vorono¨ı de ce meme point. (b) On obtient le diagramme de Vorono ˆ ¨ı (en
violet) en rep´ etant l’op ´ eration pour tous les points de l’ensemble. (c) La triangulation ´
de Delaunay contient les aretes roses et les triangles ainsi d ˆ efinis. C’est le dual du ´
diagramme de Vorono¨ı. (d) Dans la methode de Richards, on ne consid ´ ere pas la `
mediatrice, mais on d ´ efinit une droite perpendiculaire au segment qui coupe celui-ci en ´
fonction des poids attribues´ a chacun des atomes. Cela laisse une zone non attribu ` ee. ´
(e) Si on remplace les droites prec´ edentes par les plans radicaux des sph ´ eres, on `
obtient a nouveau un pavage de l’espace : le diagramme de puissance ou tessellation `
de Laguerre. (f) L’intersection du diagramme de Laguerre et des spheres donne ce `
qu’on appelle l’union des spheres. (g) On d ` efinit une r ´ egion restreinte comme une ´
boule restreinte a sa r ` egion de Vorono ´ ¨ı. L’α-complexe correspond alors aux aretes ˆ
et aux triangles definis par l’intersection de deux ou trois r ´ egions restreintes. L’ ´ α-
shape est le domaine de l’α-complexe. (h) La surface de division d’un diagramme de
Vorono¨ı ponder´ e est d ´ efinie par l’ensemble des points dont la distance aux deux points ´
de ref´ erence est ´ egale au rayon de la sph ´ ere correspondante plus une constante. Cette `
surface n’est pas plane, mais le diagramme correspondant est un pavage de l’espace.
Image de A. Poupon.
xxxviii4. La tessellation de Vorono¨ı et ses deriv ´ ees pour l’amarrage ´
– utiliser un melange entre la repr ´ esentation en diagramme de puissance et la ´
representation en union de sph ´ eres (voir fig. 14). `
Pour resoudre le probl ´ eme des poids des atomes, Richards a propos ` e d’introduire des ´
poids lors du placement des plans dans la construction de Vorono¨ı. Cette methode, ap- ´
pelee´ methode B de Richards ´ , a et ´ e tr ´ es utilis ` ee. Elle manque de rigueur math ´ ematique ´
car on trouve des volumes non attribues entre les cellules, l’intersection des plans ´
n’etant plus r ´ eduite ´ a un point. Cependant, Richards a montr ` e que ce volume mort, ´
bien que non nul, est petit en comparaison des volumes des atomes. Cette methode a ´
et ´ e de nombreuses fois am ´ elior ´ ee [82, 212], jusqu’ ´ a utiliser le diagramme de Laguerre `
[93] ou le diagramme de Vorono¨ı dit ponder´ e [58, 96], dans lequel les faces des cellules ´
ne sont plus planes (voir fig. 14).
Une analyse formelle de toutes ces applications a et´ e r ´ ealis ´ ee par Edelsbrunner ´
et ses collaborateurs [72, 73, 74, 158, 159]. En plus des utilisations des tessellations
de Vorono¨ı/Delaunay/Laguerre, ils mettent en place la notion d’α-shape pour les
proteines : c’est un sous-ensemble des segments issus de la tessellation de Delaunay ´
qui sont contenus dans le volume de la proteine (voir fig. 14). Cela permet de mod ´ eliser ´
l’interieur de la prot ´ eine et de d ´ etecter les vides et les cavit ´ es [160]. ´
4.2 Mesures
Toutes ces constructions ont permis de montrer que la tessellation de Vorono¨ı est
un bon modele math ` ematique de la structure des prot ´ eines. Elle permet en particulier ´
de montrer que les proteines sont des objets compacts, c’est- ´ a-dire que la densit ` e´
d’atomes a l’int ` erieur d’une prot ´ eine est comparable ´ a celle observ ` ee dans les cristaux ´
de petites molecules [95, 107]. De m ´ eme, une analyse o ˆ u les centro ` ¨ıdes sont les centres
geom ´ etriques des acides amin ´ es a permis de montrer que les prot ´ eines sont aussi ´
des objets compacts au sens des modeles classiques des mati ` eres condens ` ees en ´
physique [3, 236].
Elle a egalement servi ´ a l’analyse des cavit ` es dans les structures [8, 72, 157, 198], ´
a l’ ` etude de propri ´ et ´ es m ´ ecaniques des prot ´ eines [136, 192, 222], ´ a la mise en place `
de potentiels empiriques pour l’affinement de modeles structuraux [23, 34, 90, 140, `
156, 161, 183, 256, 273], ou encore a la d ` etection des h ´ elices transmembranaires [1]. ´
De telles methodes ont aussi ´ et´ e utilis ´ ees pour d ´ etecter les cavit ´ es des prot ´ eines ´
susceptibles d’interagir, mais aussi pour ajuster les ligands dans les poches ou encore
etudier les interactions prot ´ eine-ADN [24, 28, 63, 186, 187]. Des ´ etudes util- ´
isant le modele B de Richards ou la construction de Laguerre ont montr ` e qu’ ´ a l’inter- `
face proteine-ADN et prot ´ eine-prot ´ eine, la densit ´ e de l’empilement est la m ´ eme qu’ ˆ a`
l’interieur de la prot ´ eine pour la grande majorit ´ e des complexes [59]. ´
Plus recemment, la tessellation de Vorono ´ ¨ı a et´ e employ ´ ee pour la pr ´ ediction des ´
complexes proteine-prot ´ eine, en particulier afin d’obtenir des descripteurs gros-grains ´
pour la discrimination entre complexes cristallographiques et biologiques et pour les
fonctions de score d’amarrage [27, 18, 17, 16, 15]. Ce type de methode est d ´ etaill ´ e au ´
chapitre 4.
xxxixIntroduction
5 Fonctions de score
Traditionnellement, les fonctions de score pour la prediction de la structure de ´
macromolecules biologiques ont pour objectif de repr ´ esenter l’ ´ energie libre de la struc- ´
ture. Pour quantifier l’energie libre d’une structure, les fonctions de score adoptent ´
differentes m ´ ethodes. Parmi celles-ci, on compte des m ´ ethodes empiriques, inspir ´ ees ´
des lois de la physique ou provenant de l’expertise des simulations de dynamique
moleculaire. On compte aussi des m ´ ethodes bas ´ ees sur la connaissance, ´ i.e. issues
de mesures sur des structures biologiques resolues exp ´ erimentalement. ´
De recents protocoles de pr ´ ediction des interactions prot ´ eine-prot ´ eine font ´ etat ´
de l’usage de ces methodes [18, 15, 22, 6, 27, 98]. RosettaDock [98] emploie un ´
melange de m ´ ethodes empiriques et de mod ´ elisation de lois physiques. Par exem- ´
ple, deux partenaires en interaction ont au moins un certain nombre d’atomes en interaction
: cette simple observation est modelis ´ ee par une simple fonction continue ´
decroissante du nombre d’atomes en interaction. D’autres types de repr ´ esentation des ´
interactions locales, comme par exemple l’hydrophobicite,´ i.e. l’absence d’affinite entre ´
les molecules de solvant et les groupements hydrophobes n ´ ecessitent des fonctions ´
plus elabor ´ ees. Les fonctions de score d ´ evelopp ´ ees pour et utilis ´ ees par RosettaDock ´
[98] sont plus amplement detaill ´ ees dans la partie consacr ´ ee´ a l’ ` evaluation des confor- ´
mations par RosettaDock (voir section 2.1.1.2).
Des fonctions de score s’appuyant sur une modelisation simplifi ´ ee de la structure, ´
dite gros-grain, ont dej ´ a permis d’orienter les pr ` edictions [18]. Ces fonctions de score ´
sont gen´ eralement plus simples, moins co ´ uteuses ˆ a calculer, ` a utiliser en amont d’une `
prediction plus sp ´ ecifique. ´
Pour predire l’interaction, il est possible d’utiliser certaines donn ´ ees externes, ´ i.e.
ne provenant pas de la structure putative des molecules en interaction. On peut ainsi ´
voir des fonctions de score utiliser la conservation de sequences entre deux prot ´ eines ´
a travers l’ ` evolution pour inf ´ erer le comportement ´ a l’interaction d’une prot ` eine par ´
rapport a l’autre [22]. En effet, si une s ` equence est fortement conserv ´ ee entre deux ´
proteines, il y a de grandes chances pour que cette s ´ equence joue un r ´ ole dans au ˆ
moins l’une des fonctions de chacune des deux proteines. Cependant, ces donn ´ ees ´
externes ne sont pas forcement toujours accessibles, ce qui limite leur utilisation dans ´
le cadre d’une prediction d’interactions ´ a grande ` echelle. Leur mauvaise interpr ´ etation ´
peut aussi parfois etre source d’erreur. La cible num ˆ ero 6 de C ´ APRI par exemple, bien
que mettant en jeu des anticorps, traite d’une interaction n’impliquant pas le CDR
(Complementarity determining regions) ou a lieu l’interaction avec l’antig ` ene. Il peut `
en outre s’averer compliqu ´ e de comparer la qualit ´ e de pr ´ edictions effectu ´ ees par une ´
methode de pr ´ ediction incluant des donn ´ ees externes de fac¸on optionnelle. ´
Mais aussi, des mesures plus complexes, comme un calcul de la complementarit ´ e´
de forme entre les deux partenaires, ont permis de mieux resoudre des interactions de ´
type clef-serrure. Il s’agit ici de l’utilisation de mesures faisant intervenir de fac¸on plus
importante la geom ´ etrie de la structure, sans forc ´ ement tenir compte de param ´ etres `
davantage d’ordre biophysique. La construction du diagramme de Vorono¨ı a permis
d’obtenir d’autres types de mesures geom ´ etriques sur la structure [15, 27]. De telles ´
xl6. Apprentissage automatise´
mesures geom ´ etriques ont montr ´ e qu’il ´ etait possible de mieux ´ evaluer l’empilement ´
sterique des prot ´ eines ´ a l’interaction, avec pour contrepartie de devoir construire le `
diagramme de Vorono¨ı.
De maniere plus g ` en´ erale, les fonctions de score jouent un r ´ ole important en ap- ˆ
prentissage automatise dans la traduction d’un ensemble d’attributs caract ´ erisant un ´
exemple donne en une sortie num ´ erique. Si cette sortie num ´ erique peut parfaitement ´
constituer l’estimation d’une observable, d’autres methodes pr ´ ef´ erent l’utiliser pour `
trier, voire pour classer les exemples.
6 Apprentissage automatise´
Un panorama relativement exhaustif de l’etat de l’art en apprentissage est disponible ´
en ref ´ erence [61]. Il propose une r ´ epartition des applications relevant du domaine de ´
l’apprentissage artificiel selon deux grands axes : (i) reconnaissance des formes et
(ii) extraction de connaissances a partir des donn ` ees. Mais il est ´ egalement possible ´
de partitionner l’apprentissage automatique en fonction de la nature des donnees qui ´
sont etudi ´ ees : ´ apprentissage supervise´, ou les donn ` ees sont partiellement labellis ´ ees ´
(etiquet ´ ees), ´ vs apprentissage non supervise´ (donnees sans labels). ´
Dans le cadre de l’analyse des proteines (pr ´ ediction d’interactions prot ´ eine-prot ´ eine ´
et amarrage proteine-prot ´ eine), nous nous sommes focalis ´ es sur des m ´ ethodologies ´
relevant du domaine de l’apprentissage supervise : apprentissage d’un ´ modele pr ` edictif ´
a partir des donn ` ees connues. ´
6.1 Paradigme de l’apprentissage supervise´
Le paradigme de l’apprentissage supervise peut se r ´ esumer de la fac¸on suivante : ´
etant donn ´ e un ensemble d’exemples ´ etiquet ´ es, apprendre un mod ´ ele capable de `
predire au mieux les ´ etiquettes de nouveaux exemples ´ .
Soient X l’ensemble des exemples (ou donnees) et ´ Y l’ensemble des etiquettes ´
(notees aussi ´ classes) pouvant etre associ ˆ ees aux exemples. Dans le cadre des ´
travaux present ´ es dans ce manuscrit, seules des ´ etiquettes binaires ont ´ et´ e con- ´
sider´ ees : ´ Y = {+1, −1} (notees ´ egalement ´ {+, −} ou encore presque-natifs (+) et
leurres (-) dans la suite du document).
Les donnees peuvent se r ´ epartir en deux cat ´ egories : ´
– les donnees d ´ ej ´ a` etiquet ´ ees, en g ´ en´ eral pr ´ esentes en faible quantit ´ e car il est ´
souvent tres co ` uteux d’obtenir l’ ˆ etiquette associ ´ ee´ a une donn ` ee (par exemple, ´
obtenir la structure d’un complexe proteine-ARN par une exp ´ erience de cristallo- ´
graphie). Ces donnees seront utilis ´ ees pour apprendre un mod ´ ele permettant de `
predire les ´ etiquettes de nouveaux exemples. ´
– les donnees non ´ etiquet ´ ees, qu’il est en g ´ en´ eral ais ´ e d’obtenir. Dans notre cas, ´
nous pouvons utiliser un algorithme de gen´ eration de conformations pour obtenir ´
un large ensemble de conformations proteine-ARN non ´ etiquet ´ ees. ´
xliIntroduction
L’ensemble des donnees d ´ ej ´ a` etiquet ´ ees est partitionn ´ e en un ´ ensemble d’apprentissage
et ensemble de validation. Nous designerons l’ensemble d’apprentissage par ´
A = {(x1, y1), (x2, y2), . . . , (xn, yn)} avec xi ∈ R
d et yi ∈ Y, ∀i ∈ {1, . . . , n}. xi est un
vecteur de dimension d ou chaque dimension repr ` esente l’une des caract ´ eristiques de ´
l’exemple xi
.
L’apprentissage se deroule classiquement en trois phases, pour lesquelles on forme ´
a partir de l’ensemble d’apprentissage un ` jeu d’apprentissage :
1. l’apprentissage sur le jeu d’apprentissage d’un modele permettant de pr ` edire au ´
mieux les donnees d’apprentissage ; ´
2. l’evaluation ´ de ce modele sur des jeux de donn ` ees extraits de l’ensemble d’ap- ´
prentissage (par exemple grace ˆ a une proc ` edure de validation-crois ´ ee ou de ´
leave-one-out) ;
3. le test du modele obtenu sur un jeu de donn ` ees ´ etiquet ´ e, qui est disjoint de ´
l’ensemble d’apprentissage, l’ensemble de validation.
Le processus d’evaluation des performances d’un mod ´ ele appris n ` ecessite d’utiliser ´
des donnees non utilis ´ ees pour l’apprentissage afin de ne pas biaiser les ´ evaluations ´
de performances. Pour ce faire, l’evaluation s’effectue sur un mod ´ ele d’ ` evaluation, ´
specifiquement appris pour la phase d’ ´ evaluation. Ce mod ´ ele d’ ` evaluation est appris ´
de la meme mani ˆ ere que lors de la phase d’apprentissage, mais avec une partition de `
l’ensemble d’apprentissage : une partie des exemples est utilisee pour apprendre le ´
modele d’ ` evaluation tandis que l’autre est utilis ´ ee pour l’ ´ evaluation proprement dite du ´
modele. Deux processus sont classiquement utilis ` es pour l’ ´ evaluation : la ´ validationcroisee´
et le leave-one-out.
L’evaluation du mod ´ ele appris par ` validation-croisee´ consiste a partitionner les `
donnees de l’ensemble d’apprentissage en ´ k parties disjointes, d’apprendre sur l’union
de k − 1 parties et d’evaluer ses performances sur la partie non utilis ´ ee. Ce processus ´
est iter´ e´ k fois, ainsi tous les exemples de A auront et´ e utilis ´ es une fois en test et ´ k −1
fois en apprentissage. Le choix de la valeur de k depend de la taille des donn ´ ees. Les ´
valeurs classiquement utilisees sont ´ k = 3 ou k = 10.
L’evaluation par ´ leave-one-out est une gen´ eralisation de la validation-crois ´ ee avec ´
k = n. Ainsi, pour chaque exemple, un modele est appris ` a partir de l’int ` egralit ´ e´
des donnees sauf l’exemple de test. Ce protocole d’ ´ evaluation est utilis ´ e lorsque les ´
donnees sont peu nombreuses et que le recours ´ a la validation-crois ` ee conduirait ´ a se `
priver d’une trop grande partie des donnees pour l’apprentissage. D ´ es que les donn ` ees ´
sont trop volumineuses, le recours a cette m ` ethode n’est plus viable car le co ´ ut de cal- ˆ
cul devient rapidement prohibitif (apprentissage de n modeles). `
Ces deux processus d’evaluation supposent une ind ´ ependance des exemples en- ´
tre eux. Or, dans le cadre de l’amarrage proteine-ARN (ou prot ´ eine-prot ´ eine), les ex- ´
emples ne sont pas independants. En effet, comme nous l’avons vu pr ´ ec´ edemment, ´
nous disposons des structures de la proteine et de l’ARN, et ´ a partir de ces deux `
structures, nous gen´ erons, via un algorithme d’amarrage, des candidats. Ces can- ´
didats vont representer notre ensemble d’apprentissage. Un sous- ´ echantillon de ces ´
donnees sera ´ etiquet ´ e positif : la conformation dite native et les presques-natifs, si ´
l’algorithme d’amarrage a reussi ´ a en g ` en´ erer. Il existe donc un lien entre toutes les ´
xlii6. Apprentissage automatise´
conformations issues d’un couple proteine-ARN. Nous avons propos ´ e une adaptation ´
du processus leave-one-out pour prendre en consideration ce lien. Il s’agit du procesus ´
leave-”one-pdb”-out qui consiste a retirer non pas uniquement une conformation lors `
du processus d’apprentissage et d’evaluation, mais ´ a retirer toutes les conformations `
associees ´ a un couple prot ` eine-ARN. ´
Les criteres d’ ` evaluation permettant de mesurer les performances des mod ´ eles `
appris sont essentiels dans tout processus d’apprentissage. De nombreux criteres `
d’evaluation ont ´ et ´ e propos ´ es dans la litt ´ erature et nous pr ´ esentons ci-apr ´ es les crit ` eres `
les plus frequemment utilis ´ es et notamment ceux que nous manipulerons dans la suite ´
de ce document.
6.2 Criteres d’ ` evaluation ´
Tout d’abord, lorsqu’un modele pr ` edictif est appliqu ´ e sur un jeu de donn ´ ees, nous ´
pouvons mesurer, pour chaque etiquette, le nombre d’exemples correctement associ ´ es´
a cette ` etiquette, ainsi que le nombre d’exemples qui lui sont incorrectement associ ´ es. ´
Ces informations sont rassemblees dans une matrice nomm ´ ee la ´ matrice de confusion.
Dans le cadre d’un modele` a deux classes, la matrice de confusion se repr ` esente ´
classiquement sous la forme d’un tableau (voir tableau 1).
Reel ´
+ -
Pr´edit
+ VP FP
- FN VN
TABLE 1 – Matrice de confusion, ou VP repr ` esente le nombre de Vrais Positifs, FP le ´
nombre de Faux Positifs, FN le nombre de Faux Negatifs et VN le nombre de Vrais ´
Negatifs. Cette matrice de confusion restreinte ´ a un probl ` eme ` a deux classes peut ` etre ˆ
etendue ´ a un probl ` eme ` a` n classes. La notion de Faux Positifs ou Faux Negatifs doit ´
alors egalement ´ etre ˆ etendue. ´
6.2.1 Criteres d’ ` evaluation globaux ´
A partir de cette matrice de confusion, de nombreux crit ` eres d’ ` evaluation peuvent ´
etre calcul ˆ es. Parmi les plus utilis ´ es, nous pouvons citer : ´
– la precision ´ P =
VP
VP+FP , qui represente le pourcentage de pr ´ edictions correctes ´
associees ´ a la classe positive (la m ` eme mesure peut ˆ etre d ˆ efinie pour la classe ´
negative) ; ´
– le rappel R =
VP
VP+F N qui represente le pourcentage d’exemples positifs ´ etant ´
correctement predits positifs (de la m ´ eme mani ˆ ere que pour la pr ` ecision, il est ´
possible de definir cette m ´ etrique pour la classe n ´ egative) ; ´
– le Fscor e(β) = (β
2+1)×P×R
β2×P+R
qui permet d’agreger en une seule m ´ etrique la pr ´ ecision ´
et le rappel ; Le parametre ` β permet de ponderer la pr ´ ecision ´ vs le rappel. Si
β < 1, le poids de la precision devient plus important, inversement, lorque ´ β > 1,
xliiiIntroduction
le poids de la precision diminue. Lorsque ´ β = 1 la precision et le rappel ont la ´
meme importance. La valeur de ˆ β est tres fr ` equemment fix ´ ee´ a 1 ; `
– l’accuracy Acc =
VP+V N
VP+V N+FP+F N qui permet d’evaluer la performance “globale” ´
d’un modele. Cette mesure repr ` esente le pourcentage de pr ´ edictions correctes ´
toutes classes confondues ;
– la sensibilite´ Se =
VP
VP+F N qui est egale au rappel de la classe positive. Cette ´
mesure est issue du domaine du traitement du signal et est largement utilisee´
dans le domaine medical ; ´
– la specificit ´ e´ Sp =
V N
FP+V N qui correspond au rappel des negatifs. Cette mesure ´
est egalement issue du domaine du traitement du signal. Son utilisation dans le ´
domaine medical est toujours associ ´ ee´ a la sensibilit ` e. Ces deux mesures per- ´
mettent d’evaluer l’efficacit ´ e d’un nouveau test m ´ edical en indiquant sa capacit ´ e´
a effectuer ` a la fois des pr ` edictions correctes pour les positifs (sensibilit ´ e), tout ´
en couvrant peu de negatifs (capacit ´ e´ evalu ´ ee par 1 ´ − Sp).
Toutes ces metriques fournissent une vision d’ensemble des performances d’un ´
modele en r ` esumant en une unique valeur le comportement du mod ´ ele pr ` edictif sur ´
l’ensemble des donnees. D’autres m ´ etriques ou crit ´ eres d’ ` evaluation ont ´ et´ e propos ´ es´
pour permettre d’obtenir une vision plus fine des performances d’un modele. Des `
modeles donnant plus d’information qu’une variable binaire peuvent profiter de crit ` eres `
d’evaluation adapt ´ es aux objectifs fix ´ es. Nous parlerons par la suite de classifieurs ´
pouvant soit donner une etiquette binaire aux exemples pr ´ edits soit leur attribuer un ´
score permettant ainsi d’ordonner les exemples. Nous les appellerons par extension
des classifieurs.
6.2.2 Criteres d’ ` evaluation “locaux” ´
Il est notamment devenu evident, depuis les ann ´ ees 2000, qu’il ´ etait insuffisant ´
d’evaluer les performances d’un classifieur uniquement avec la pr ´ ecision et le rappel. ´
De nouvelles metriques se sont rapidement impos ´ ees dans la communaut ´ e [165, 89], ´
notamment des metriques permettent d’ ´ evaluer les classifieurs associant un score ´ a`
chacune de leurs predictions. Ce score, qui peut ´ etre assimil ˆ e´ a un degr ` e de confiance ´
dans la prediction effectu ´ ee, permet alors d’ordonner les pr ´ edictions et ainsi d’obtenir ´
plus d’informations qu’une etiquette. ´
La courbe ROC (Receiver Operating Characteristic) [252, 177] permet de visualiser
le compromis entre la sensibilite et la sp ´ ecificit ´ e. La courbe ROC associ ´ ee´ a`
un classifieur ideal est constitu ´ ee de deux segments : un premier segment reliant le ´
point (0,0) au point (0,1) correspondant aux exemples positifs parfaitement ordonnes´
puis un second segment reliant le point (0,1) au point (1,1) correspondant aux exemples
negatifs ayant tous des scores inf ´ erieurs aux scores des exemples positifs. Cette ´
courbe represente un classifieur ayant la capacit ´ e de s ´ eparer parfaitement les positifs ´
des negatifs (voir fig. 15). ´
Les courbes ROC permettent de visualiser rapidement les performances d’un ou
plusieurs classifieurs. Afin de pouvoir comparer des classifieurs, notamment dans un
cadre de recherche du meilleur classifieur (selon un ou plusieurs criteres d’ ` evaluation), ´
xliv6. Apprentissage automatise´
A B
AUC = 0.5
% faux positifs
% vrais positifs
(0,0)
(0,1) (1,1)
(1,0)
FIGURE 15 – Les courbes ROC associees aux classifieurs A et B permettent de visu- ´
aliser la superiorit ´ e du classifieur A par rapport au classifieur B. ´
il est tres utile de pouvoir comparer num ` eriquement les performances de ces classi- ´
fieurs.
L’aire sous la courbe ROC – que nous appellerons par la suite ROC-AUC – est
tres largement utilis ` ee pour comparer les performances de plusieurs classifieurs. [165, ´
164] ont montre que l’aire sous la courbe ROC (AUC, ´ Area Under the Curve) est une
metrique plus fiable que l’ ´ accuracy pour comparer deux classifieurs.
De nombreux classifieurs “classiques” ont et´ e adapt ´ es pour pouvoir int ´ egrer l’opti- ´
misation de la ROC-AUC dans leur critere d’apprentissage comme les SVM [208] ou `
les arbres de decision [80]. ´
Sachant que, pour la problematique de l’amarrage prot ´ eine-ARN, seul un sous- ´
ensemble tres restreint de conformations candidates peuvent ` etre propos ˆ ees aux ex- ´
perts pour une validation experimentale, il est n ´ ecessaire de se focaliser sur des ´
metriques permettant d’identifier un sous-ensemble de conformations int ´ eressantes. ´
L’ensemble des criteres d’ ` evaluation locaux utilis ´ es sera pr ´ esent ´ e en d ´ etails dans ´
la section 1.4.
xlvIntroduction
xlviChapitre 1
Donnees ´
1.1 Jeux de donnees de complexes prot ´ eine-ARN ´
Dans cette etude, quatre jeux de donn ´ ees provenant de la litt ´ erature sont utilis ´ es : la ´
Protein-RNA Interface DataBase (PRIDB) comprenant deux versions RB1179 et RB199
[152, 254], le Benchmark I proteine-ARN [9] et le ´ Benchmark II proteine-ARN [204] ´
(voir tableau 1.1).
1.1.1 Jeu de ref´ erence des complexes prot ´ eine-ARN connus ´
La Protein-RNA Interface DataBase (PRIDB)
4 se decline en deux versions : la ´
PRIDB redondante denomm ´ ee RB1179 [152] et la P ´ RIDB non redondante RB199 [254].
Elle est disponible en tel ´ echargement sur le site de la ´ Iowa State University 4
. Ce jeu de
donnees regroupe l’ensemble des fichiers des complexes prot ´ eine-ARN de la ´ Protein
Data Bank (PDB) extraits de fac¸on semi-automatique contenant au moins une surface
d’interaction entre une proteine et un ARN. Sa version redondante (RB1179) contient ´
1 170 complexes proteine-ARN. Sa version non redondante (RB199) tire son nom des ´
199 chaˆınes d’acides amines qu’elle contient extraites de la PDB en mai 2010. ´
L’extraction des donnees de la P ´ RIDB non redondante est faite en respectant les
criteres suivants : `
– s’assurer de la qualite des donn ´ ees, en extrayant uniquement les structures ´
resolues par cristallographie et ayant une r ´ esolution d’au plus 3.5 ´ A ; ˚
– les structures extraites doivent contenir une chaˆıne d’au moins 40 acides amines, ´
dont au moins 5 en interaction avec un ARN d’au moins 5 acides nucleiques ; ´
– un acide amine est consid ´ er´ e en interaction avec un ARN si l’un de ses atomes ´
est a au plus 5 ` A d’un atome de l’un des acides nucl ˚ eiques ; ´
– pour s’assurer de la non redondance entre les donnees, l’identit ´ e de s ´ equence ´
maximale entre chacune de ses chaˆınes d’acides amines est d’au plus 30 %. ´
La PRIDB non redondante RB199 contient 133 complexes. Or, plusieurs de ses
complexes mettent en jeu plus de 2 partenaires. Nous n’utilisons donc que 120 des
complexes de la PRIDB (voir section 1.2).
4. http ://pridb.gdcb.iastate.edu/download.php
1Chapitre 1. Donnees ´
1.1.2 Jeux d’evaluation des proc ´ edures d’amarrage : ´ Benchmarks
Le Benchmark I [9] proteine-ARN contient 45 complexes prot ´ eine-ARN tandis que ´
le Benchmark II proteine-ARN contient 106 complexes. ´
Tous les complexes du Benchmark I ont une version liee et non li ´ ee de la prot ´ eine ´
(voir section 2.1.1). 11 complexes ont une version liee et non-li ´ ee (ou mod ´ elis ´ ee) de ´
l’ARN. Par la suite, on utilise l’ensemble des 45 complexes de ce jeu. Parmi ces 45
complexes, seuls 11 complexes ne sont pas dans les 120 complexes de la PRIDB non
redondante.
Sur les 106 complexes du Benchmark II, 76 complexes ont une version non liee´
de la proteine. Par la suite, on utilise aussi ces 76 complexes pour l’ ´ evaluation. Parmi ´
ces 76 complexes, 36 complexes proteine-ARN ne sont pas dans la P ´ RIDB non redondante.
Toutefois, il y a un complexe du Benchmark II (1eiy) qui met en jeu les deux
memes partenaires qu’un complexe pr ˆ esent dans la P ´ RIDB (2iy5). Seuls 35 complexes
du Benchmark sont donc utilises, 1eiy ´ etant ´ ecart ´ e et 2iy5 ´ etant utilis ´ e dans la P ´ RIDB.
Il y a 5 complexes identiques entre les 45 complexes du Benchmark I et les 36 complexes
du Benchmark II absents de la PRIDB non redondante (voir fig. 1.1). Il y a aussi
1 complexe du Benchmark I (2drb) mettant en jeu les deux memes partenaires qu’un ˆ
complexe du Benchmark II (2dra), meme si le code pdb du complexe est diff ˆ erent. ´
C’est 2dra qui est utilise. ´
Dans l’ensemble des Benchmarks, nous avons donc un total de 40 complexes (5
du Benchmark I et 29 du Benchmark II et 6 de leur union) differents des complexes ´
dej ´ a pr ` esents dans la P ´ RIDB non redondante. Pour eviter la redondance, ce sont ces ´
40 complexes que nous utilisons concernant les Benchmarks.
1.2 Nettoyage des donnees ´
Comme le protocole d’amarrage utilise prend en entr ´ ee deux partenaires et que ´
nous cherchons tout d’abord a mettre en place une proc ` edure de pr ´ ediction pour les ´
complexes binaires (le comportement des assemblages multiples etant bien plus diffi- ´
cile a d ` ecrire), nous n’utilisons que des complexes avec deux partenaires en interac- ´
tion. Les complexes de RB199 avec plus de deux partenaires en interaction (1a34 et
2q66) sont donc retires. Pour des raisons de complexit ´ e de calcul et des interactions ´
en presence, les complexes de RB199 mettant en jeu le ribosome complet ´
5 sont aussi
retires. Apr ´ es ces filtres, le jeu de donn ` ees issu de RB199 contient 120 complexes (voir ´
tableau S10).
Les atomes d’hydrogene ne sont souvent pas pr ` esents dans les structures 3D con- ´
tenues dans la PDB. Aussi, les parametres des fonctions de score ne sont d ` efinis ´
que pour les atomes lourds des acides amines (resp. acides nucl ´ eiques) standards. ´
C’est pourquoi, pour l’ensemble des complexes utilises, les hydrog ´ enes sont retir ` es´
et les acides amines (resp. acides nucl ´ eiques) non standards transform ´ es en acides ´
amines (resp. acides nucl ´ eiques) standards. Ce remplacement des acides amin ´ es´
5. Liste des complexes de RB199 mettant en jeu le ribosome complet : 1hr0, 1vqo, 2j01, 2qbe, 2vqe,
2zjr, 3f1e, 3huw, 3i1m, 3i1n, 3kiq
21.3. Utilisation des donnees ´
5
6
29
7
27
14
72
Benchmark I (45 complexes) Benchmark II (76 complexes)
RB199 (120 complexes)
FIGURE 1.1 – Diagramme de Venn du nombre de complexes proteine-ARN utilis ´ es´
par jeu de donnees externe, extrait de la PDB : la P ´ RIDB non redondante munie de
120 complexes, le Benchmark I avec 45 complexes et le Benchmark II comportant
76 complexes avec une version non liee de la prot ´ eine. ´
(resp. acides nucleiques) non standards se fait en utilisant la correspondance de la ´
PDBeChem 6
, qui recense les denominations chimiques de la PDB. Ainsi pour chaque ´
acide amine (resp. acide nucl ´ eique) non standard, on peut obtenir l’acide amin ´ e (resp. ´
acide nucleique) standard le plus proche pouvant le substituer. Cependant, une telle ´
substitution peut avoir un impact sur le resultat biologique et ainsi rendre la structure ´
consider´ ee comme native peu fiable. ´
1.3 Utilisation des donnees ´
Les donnees doivent ´ etre utilis ˆ ees pour d ´ efinir et ´ etiqueter les exemples. Il faut de ´
plus regrouper les exemples en jeux d’apprentissage et de test pour la modelisation de ´
la fonction de score comme pour l’evaluation du mod ´ ele. Mais le choix des ` etiquettes ´
depend du contexte biologique et n ´ ecessite donc de s’y attarder. C’est ce que nous ´
verrons en section 1.3.1. Nous verrons ensuite comment obtenir les exemples en section
1.3.2, leur etiquetage en section 1.3.4 et leur regroupement en diff ´ erents jeux en ´
section 1.3.5.
6. http ://www.ebi.ac.uk/pdbe-srv/pdbechem/
3Chapitre 1. Donnees ´
1.3.1 Contexte biologique : definitions ´
Dans une experience de pr ´ ediction de structure de complexe par ´ docking in silico,
nous obtenons un grand nombre de structures potentiellement proches de la structure
biologique qui n’est pas connue (voir section 2.1.1). Dans la suite, nous souhaitons
extraire des structures de complexes biologiques vraisemblables dans un ensemble
de structures issues d’une experience d’amarrage ´ (docking). Dans cet objectif, nous
mettons en œuvre une approche d’apprentissage supervise : il nous faut donc ´ etiqueter ´
les donnees en fonction de leur int ´ er´ et biologique sur des exemples pour lesquels on ˆ
connait dej ´ a la solution. `
Ainsi :
– les complexes de la PDB sont les structures obtenues experimentalement ap- ´
pelees ´ natifs ou dites natives ;
– les complexes candidats sont ceux pour lesquels on cherche a d ` eterminer s’ils ´
sont biologiquement natifs ;
– les complexes leurres sont les complexes non-natifs, i.e. ceux qui ne sont vraisemblablement
jamais formes dans la cellule ; ´
– les complexes proches de la solution native (selon un seuil a d ` eterminer en fonc- ´
tion du but recherche) sont les ´ presque-natifs.
Les jeux de donnees de r ´ ef ´ erence sont constitu ´ es de structures 3D repr ´ esentant la ´
solution biologique de l’interaction. Ce sont donc des natives. La PRIDB en contient
120, les Benchmarks 40 (11 issus du Benchmark I et 29 issus du Benchmark II).
Les 120 structures natives sont utilisees pour g ´ en´ erer un ´ ensemble de perturbations.
Cet ensemble de perturbations contient l’ensemble des exemples utilises pour ´
l’apprentissage et l’evaluation. Il correspond donc ´ a l’ensemble d’apprentissage (voir `
section 0.6.1).
Comme vu dans le chapitre prec´ edent, pour correctement valider le mod ´ ele de `
prediction, il est n ´ ecessaire d’utiliser des donn ´ ees diff ´ erentes des donn ´ ees utilis ´ ees ´
pour l’apprentissage. Une validation du modele est donc effectu ` ee gr ´ ace ˆ a un ` jeu de
validation gen´ er´ e de la m ´ eme mani ˆ ere mais ` a partir des 40 structures des ` Benchmarks.
Ce jeu de validation est utilise pour ´ evaluer la fonction de score g ´ en´ er´ ee´ a`
partir de l’ensemble de perturbations.
1.3.2 Ensemble des perturbations pour l’apprentissage
Comme cela a et ´ e fait dans la litt ´ erature pour l’amarrage prot ´ eine-prot ´ eine [98], ´
des exemples positifs et negatifs sont g ´ en´ er´ es par perturbation des structures na- ´
tives. La perturbation des structures natives est un proced´ e g ´ en´ erant un ´ echantillon ´
gaussien des candidats autour de la structure native. Pour chaque complexe, 10 000
candidats sont gen´ er´ es par perturbation des coordonn ´ ees des atomes de l’ARN par ´
rapport aux coordonnees des atomes de la prot ´ eine. L’op ´ eration de perturbation con- ´
siste en 1 translation et 3 rotations pour modifier les coordonnees des atomes de ´
l’ARN. Les amplitudes de la translation et des rotations sont chacune choisies selon
une loi gaussienne de variance 1 et de moyenne variable. La moyenne des amplitudes
de la translation et des rotations est adaptee en fonction du complexe. La moyenne ´
41.3. Utilisation des donnees ´
est determin ´ ee de telle sorte que, pour un complexe donn ´ e, il existe au moins 30 ´
candidats suffisamment proches de la structure native et 30 candidats suffisamment
eloign ´ es de la structure native (voir section 1.3.3). Pour satisfaire ces deux conditions ´
sur les candidats obtenus, 3 jeux distincts sont utilises : ´
– la perturbation standard a un jeu de moyennes de valeurs 3 A pour la translation ˚
et 8 ° pour les rotations ;
– la perturbation restreinte a un jeu de moyennes de valeurs 1 A et 4 ° ; ˚
– la perturbation etendue a un jeu de moyennes de valeurs 9 ´ A et 27 °. ˚
1.3.3 Mesure de similarite : le RMSD ´
Le RMSD (Root-Mean-Square Deviation) est une mesure utilisee pour ´ evaluer ´
la dissimilarite entre deux structures repr ´ esentant des conformations diff ´ erentes d’un ´
meme complexe. Dans une telle comparaison, les deux jeux d’atomes sont identiques ˆ
ou comparables, mais avec des coordonnees spatiales diff ´ erentes. Le RMSD utilise ´
la distance entre chaque atome dans les deux structures, une fois que les structures
sont alignees. Le RMSD est calcul ´ e comme la distance moyenne entre les atomes de ´
ces deux structures. Considerons deux structures ´ s1 et s2 d’un meme complexe de ˆ N
atomes, soit di
la distance entre l’atome i de s1 et l’atome i de s2 (voir eq. 1.1) : ´
RMSD(s1, s2) =
vuut
1
N
X
N
i=1
d
2
i
(1.1)
Le RMSD est couramment utilise sous diverses versions pour ´ evaluer la dissim- ´
ilarite entre une structure native et un candidat. Parmi ces versions du RMSD, il y ´
a le LRMSD et le IRMSD utilises par C ´ APRI, calcules sur une restriction des atomes : ´
uniquement sur le ligand pour le LRMSD, uniquement sur l’interface pour le IRMSD [147]
(voir fig. 1.2). L’alignement differe selon le RMSD calcul ` e. Pour le L ´ RMSD, l’alignement
s’effectue uniquement sur les atomes du squelette des acides amines de la prot ´ eine. ´
Pour le IRMSD, ce sont les atomes a l’interface qui sont align ` es. Le RMSD peut aussi ´
etre calcul ˆ e soit sur l’ensemble des atomes de chacun des acides amin ´ es et acides ´
nucleiques consid ´ er´ es, soit uniquement ´ a partir d’un atome de r ` ef´ erence par acide ´
amine ou acide nucl ´ eique. C’est ici le carbone ´ α qui est utilise comme atome de ´
ref ´ erence de l’acide amin ´ e. Pour l’acide nucl ´ eique, c’est l’atome de phosphore qui est ´
utilise comme atome de r ´ ef ´ erence. ´
Cette mesure de similarite est utilis ´ ee dans la g ´ en´ eration des candidats. Les deux ´
conditions fixees sur le nombre minimum de candidats ´ a g ` en´ erer sont : ´
– un IRMSD ≤ 5A pour les 30 candidats devant ˚ etre suffisamment proches de la ˆ
structure native ;
– un IRMSD > 8A pour les 30 candidats devant ˚ etre suffisamment ˆ eloign ´ es de la ´
structure native.
Ces deux conditions ont pour objectif de conserver une distribution relativement
homogene de chaque nuage de candidats. Il reste ensuite ` a comparer les candidats `
gen´ er´ es entre eux pour les ´ etiqueter. ´
5Chapitre 1. Donnees ´
L
R
L
,
FIGURE 1.2 – Representation sch ´ ematique en gris des acides amin ´ es et acides ´
nucleiques s ´ electionn ´ es pour le calcul du L ´ RMSD et du IRMSD. La proteine (ou ´
recepteur) est d ´ enomm ´ ee R. L’ARN (ou ligand) est appel ´ e L et L’ correspond ´ a la `
position de L dans une seconde structure de l’interaction entre R et L. Le LRMSD est
calcule sur les atomes du ligand L, les atomes du r ´ ecepteur R ´ etant align ´ es, ´ a partir `
des distances en vert et en bleu (seules quelques distances sont affichees). Le I ´ RMSD
est calcule sur les atomes des acides amin ´ es et acides nucl ´ eiques ´ a l’interface, en noir, `
a partir des distances en vert, les atomes ` a l’interface ` etant align ´ es. ´
1.3.4 Etiquetage ´
Une fois les jeux de donnees g ´ en´ er´ es, il faut choisir la version de RMSD utilis ´ ee et ´
le seuil en RMSD en-dessous duquel un candidat est consider´ e comme un presque- ´
natif. La version de RMSD impacte les possibilites de comparaison des structures ´
candidates de differents complexes. Une version de RMSD tr ´ es sensible ` a la taille `
des partenaires (en nombre d’acides amines et d’acides nucl ´ eiques) donne une sig- ´
nification tres diff ` erente au seuil fixe pour des complexes de tailles diff ´ erentes. Un ´
complexe de petite taille doit etre bien plus ˆ eloign ´ e de la structure native qu’un com- ´
plexe de grande taille pour arriver au seuil fixe. Comme nous choisissons un seuil ´
fixe, independant de la taille des complexes, il est pr ´ ef´ erable d’avoir une version de ´
RMSD peu sensible a la taille des complexes. Nous choisissons le I ` RMSD qui, malgre´
sa dependance ´ a la taille de l’interface, reste la version CAPRI de RMSD le moins `
sensible a la taille de chacun des deux partenaires. `
Le seuil de IRMSD a un impact sur la tolerance que le mod ´ ele de pr ` ediction a ´
sur la divergence entre un candidat consider´ e presque-natif et la structure native. Un ´
seuil elev ´ e accepte comme presque-natif des structures candidates tr ´ es` eloign ´ ees de ´
la structure native, donnant une prediction avec peu de signification. Certes, un tel ´
modele peut plus facilement pr ` edire si un candidat est presque-natif, mais un candi- ´
61.3. Utilisation des donnees ´
dat predit presque-natif par ce biais peut ´ etre tr ˆ es proche comme tr ` es` eloign ´ e de la ´
structure native. Un seuil bas gen´ ere trop peu de presque-natifs, ce qui limite d’au- `
tant le nombre de candidats disponibles pour l’apprentissage. Pire, un seuil trop bas
ne permettrait pas d’obtenir un modele de fonction de score utilisable pour affiner une `
structure 3D. Nous choisissons un seuil en IRMSD de 5A : ˚
– les candidats de IRMSD ≤ 5A sont consid ˚ er´ es comme des ´ presque-natifs ;
– les candidats de IRMSD > 5A sont consid ˚ er´ es comme des ´ leurres.
Le seuil en IRMSD de 5 A n’est pas choisi au hasard. Pour un complexe prot ˚ eine- ´
proteine, le crit ´ ere C ` APRI pour une solution acceptable est d’avoir un IRMSD < 4A. ˚
Comme nous evaluons des complexes prot ´ eine-ARN, o ´ u l’ARN est une mol ` ecule plus ´
flexible, nous admettons une marge d’erreur leg´ erement sup ` erieure, pour un seuil en ´
IRMSD de 5A. ˚
Jeu de donnees ´ Nb. de structures Provenance Utilisation
PRIDB redondante RB1179 1 170 PDB Mesures
PRIDB non redondante RB199 120 PDB Gen´ eration ´
Ensemble de perturbations 1 200 000 Gen´ er´ e´ Apprentissage
Benchmark proteine-ARN I ´ 45 (11) PDB Gen´ eration ´
Benchmark proteine-ARN II ´ 76 (29) PDB Gen´ eration ´
Jeu de validation 400 000 Gen´ er´ e´ Validation
TABLE 1.1 – Nombre de structures 3D presentes, provenance et utilisation pour chaque ´
jeu de donnees. Pour les ´ Benchmarks I et II, le nombre de structures 3D entre parentheses
correspond au nombre de structures 3D n’ ` etant pas d ´ ej ´ a pr ` esentes dans la ´
PRIDB non redondante RB199. Il s’agit aussi du nombre de structures 3D effectivement
utilisees dans la g ´ en´ eration de candidats. Chaque jeu de donn ´ ees g ´ en´ er´ e est ´
issu des jeux de donnees extraits de la PDB dans la m ´ eme section, qui sont indiqu ˆ es´
comme utilises pour la g ´ en´ eration de candidats. Les mesures effectu ´ ees sur la P ´ RIDB
redondante sont des mesures statistiques.
1.3.5 Constitution des jeux d’apprentissage et de test
Les jeux d’apprentissage sont constitues par ´ echantillonnage sans remise des can- ´
didats des deux classes pour chaque structure native :
– 30 presque-natifs ;
– 30 leurres de IRMSD > 8A. ˚
Pour que cet echantillonnage soit possible, pour chaque structure native, l’ ´ etape de ´
gen´ eration des candidats a assur ´ e qu’au moins 30 presque-natifs et 30 leurres de ´
IRMSD > 8A soient g ˚ en´ er´ es. Le seuil en I ´ RMSD de 8 A permet de s’assurer qu’il existe ˚
au moins 30 leurres suffisamment eloign ´ es des presque-natifs. ´
Les jeux de test contiennent l’ensemble des candidats gen´ er´ es. Le jeu de test de la ´
fonction de score finale est le jeu de validation, constitue des candidats g ´ en´ er´ es gr ´ ace ˆ
7Chapitre 1. Donnees ´
aux 40 complexes issus des Benchmarks I et II. Le faible nombre d’interactions non
redondantes disponibles incite a utiliser au maximum les donn ` ees disponibles. ´
Pour effectuer une premiere ` evaluation avant de g ´ en´ erer la fonction de score ´ a partir `
des candidats issus des 120 structures natives, une strategie adapt ´ ee du ´ leave-one-out
est employee : le ´ leave-”one-pdb”-out (present ´ e au chapitre pr ´ ec´ edent, section 0.6.1). ´
Avec le leave-”one-pdb”-out, pour chaque structure native, une fonction de score est
apprise, avec :
– en jeu de test, les 10 000 candidats de la structure native ;
– en jeu d’apprentissage, les 30 presque-natifs et 30 leurres des 119 autres structures
natives.
Cet ensemble de differents jeux de donn ´ ees nous permet, tout en utilisant au max- ´
imum la quantite relativement faible de donn ´ ees disponibles, de valider le protocole ´
d’apprentissage a chaque ` etape. ´
1.4 Mesures d’evaluation locales ´
Les donnees issues de l’ ´ evaluation des diff ´ erents jeux de donn ´ ees n ´ ecessitent l’util- ´
isation de mesures d’evaluation adapt ´ ees pour comparer les m ´ ethodes et leurs mises ´
en œuvre sur chaque jeu de donnees. Les mesures d’ ´ evaluation globales ont d ´ ej ´ a` et´ e´
detaill ´ ees pr ´ ec´ edemment (voir section 0.6.2). ´
Les mesures d’evaluation locales sont plus sp ´ ecifiques ´ a l’objectif qui nous int ` eresse ´
de discriminer les presque-natifs des leurres dans une prediction d’interactions prot ´ eine- ´
ARN.
Parmi celles-ci, le nombre de presque-natifs dans le top10 est sans doute le plus
important, puisqu’il s’agit de compter le nombre de presque-natifs contenus dans les
10 premiers candidats lorsque les candidats sont tries selon le score. Or, le nombre ´
de candidats que CAPRI accepte de recevoir comme solutions envisagees par une ´
fonction de score est justement de 10. Evidemment, ce nombre va de 0 ´ a 10 et, plus `
ce nombre est elev ´ e, meilleure est la pr ´ ediction. Pour qu’une fonction de score soit ´
consider´ ee comme ayant r ´ eussi ´ a mod ` eliser l’interaction, elle doit avoir au moins 1 ´
presque-natif dans le top10.
Les diagrammes d’energie en fonction du RMSD ´ permettent d’identifier les entonnoirs
(funnels) de la prediction. Sur le diagramme d’ ´ energie en fonction du RMSD, il ´
s’agit d’identifier une forme en entonnoir des points. Cet entonnoir se situe idealement ´
la pointe en bas a gauche du graphique, sa partie ` evas ´ ee partant en diagonale ´ a droite `
(voir fig. 1.3). Un entonnoir implique que la fonction de score indique, pour des candidats
de RMSD donnee, une plage de valeurs de score inf ´ erieure pour des candidats ´
de RMSD superieure. La d ´ ecouverte d’un entonnoir est le signe que la fonction de ´
score evalu ´ ee est utilisable pour affiner la structure 3D de l’interaction recherch ´ ee. ´
Les candidats se trouvant dans le coin superieur gauche sont des presque-natifs mal ´
predits. De la m ´ eme mani ˆ ere, les candidats se trouvant dans le coin inf ` erieur droit sont ´
des leurres mal predits. Les candidats se trouvant dans le coin inf ´ erieur gauche sont ´
les presque-natifs correctement predits et ceux dans le coin sup ´ erieur droit des leurres ´
correctement predits. Les candidats du top10 sont les 10 premiers en partant du bas ´
81.4. Mesures d’evaluation locales ´
du diagramme. C’est le diagramme de l’energie en fonction du I ´ RMSD qui est utilise´
comme critere d’ ` evaluation (not ´ e´ EvsRMS).
EvsRMS
−193 −177 −162
0 5 10 15 20 25
Irmsd
Score
FIGURE 1.3 – Exemples de diagramme d’EvsRMS : le diagramme d’energie en fonction ´
du IRMSD permet la detection d’entonnoir. Voici un exemple d’entonnoir, avec la ma- ´
jorite des candidats suivant un entonnoir partant du coin inf ´ erieur gauche pour s’ ´ evaser ´
dans le coin superieur droit. Une telle courbe permet de montrer que la fonction de ´
score proposee est utilisable pour de l’affinement de structure, une fois l’ ´ epitope de ´
l’interaction identifie. ´
Soit C un ensemble de candidats gen´ er´ e´ a partir d’un m ` eme complexe ˆ c, trie en ´
energie selon une fonction de score. Le ´ score d’enrichissement ES (C) mesure la
performance d’une fonction de score pour maximiser la proportion des 10 % premiers
candidats tries en I ´ RMSD parmi les 10 % premiers candidats tries en ´ energie. Ainsi, ´
le score d’enrichissement est le nombre de candidats de C dans les 10 % premiers
candidats a la fois en ` energie et en I ´ RMSD, divise par le nombre total de candidats de ´
C multiplie par 100 (voir ´ eq. 1.2). En reprenant l’exemple du diagramme d’EvsRMS, ´
les candidats a la fois dans les 10 % premiers candidats en score et les 10 % premiers `
candidats en IRMSD correspondent aux candidats dans le coin inferieur gauche du ´
graphique, si l’on separe le graphique verticalement et horizontalement ´ a 10% des `
candidats en IRMSD et 10% des candidats en energie (voir fig. 1.4). ´
Plus le score d’enrichissement est elev ´ e, plus le tri est enrichi, c’est- ´ a-dire plus la `
proportion de presque-natifs est importante dans les 10 % premiers candidats du tri.
Le score d’enrichissement va de 0 a 10. Dans le cas d’un tri parfait, le score d’en- `
richissement vaut 10. Quand il y a independance entre tri en ´ energie et tri en I ´ RMSD, le
score s’enrichissement vaut 1. Un score d’enrichissement inferieur ´ a 1 indique qu’au- `
cun enrichissement n’est observe, correspondant ´ a une mauvaise fonction de tri. `
ES (C) = 100# (top10%IRMSD (C) ∩ top10%ENERGY (C))
# (C)
(1.2)
9Chapitre 1. Donnees ´
EvsRMS
−193 −177 −162
0 5 10 15 20 25
Irmsd
Score
FIGURE 1.4 – Illustration du score d’enrichissement sur une courbe EvsRMS : un trait
horizontal (resp. vertical) divise le graphique en deux parties de telle sorte que 10 %
des candidats soient toujours en-dessous (resp. a gauche) de la s ` eparation. Les can- ´
didats dans le cadran inferieur gauche sont les presque-natifs bien pr ´ edits, contraire- ´
ment aux candidats dans le cadran superieur gauche et le cadran inf ´ erieur droit. Les ´
leurres correctement predits se trouvent dans le cadran sup ´ erieur droit. Le score d’en- ´
richissement equivaut ´ a la proportion de candidats dans le cadran inf ` erieur gauche ´
parmi l’union des candidats en-dessous de la ligne de separation horizontale et des ´
candidats a gauche de la ligne de s ` eparation verticale. ´
10Chapitre 2
Approche Rosetta et adaptation
2.1 Presentation de RosettaDock ´
RosettaDock est un outil de prediction d’interactions entre macromol ´ ecules bi- ´
ologiques. La prediction d’interactions de RosettaDock est conc¸ue et optimis ´ ee pour ´
modeliser les interactions entre prot ´ eines. RosettaDock s’appuie sur un protocole ´
appele´ amarrage (docking). D’autres protocoles en lien avec l’amarrage sont aussi
disponibles via RosettaDock. Nous traiterons d’abord de l’amarrage avant de continuer
sur les autres protocoles.
2.1.1 Amarrage
L’amarrage consiste a pr ` edire la structure 3D repr ´ esentant l’interaction de deux ´
partenaires donnes pour chacun desquels la structure native est connue. Classique- ´
ment, la prediction de la structure 3D de l’interaction est r ´ ealis ´ ee en deux grandes ´
etapes : ´
1. la gen´ eration d’un large ensemble de candidats (de conformation plausible pour ´
l’interaction des deux partenaires) ;
2. puis le tri de l’ensemble des candidats selon differents crit ´ eres permettant de `
rendre compte de la qualite des candidats pour repr ´ esenter l’interaction (taille de ´
l’interface, nombre de residus en contact ´ etc.).
Dans les deux prochaines sections, nous allons sequentiellement d ´ etailler chacune ´
de ces deux etapes. ´
2.1.1.1 Gen´ eration des candidats ´
L’etape de g ´ en´ eration des candidats consiste ´ a construire plusieurs amarrages 3D `
possibles des deux partenaires etudi ´ es. Un candidat g ´ en´ er´ e est d ´ efini par les coor- ´
donnees spatiales des atomes de ses partenaires. Afin de r ´ eduire le temps de calcul ´
de la gen´ eration, seules les coordonn ´ ees d’un des deux partenaires sont modifi ´ ees, ´
pour deplacer ce partenaire autour de l’autre partenaire, qui reste immobile. En r ´ egle `
11Chapitre 2. Approche Rosetta et adaptation
gen´ erale, le partenaire de plus petite taille est consid ´ er´ e comme mobile, alors que le ´
plus volumineux (en nombre d’acides amines ou d’acides nucl ´ eiques) est fixe. Dans ´
notre cadre d’etude, le partenaire mobile est l’ARN et le partenaire fixe est la prot ´ eine, ´
independamment de leurs tailles respectives. ´
L’espace des candidats possibles d’une interaction a 6 degres de libert ´ e (voir fig. ´
2.1) :
– la translation ρ suivant l’axe X ;
– la rotation χ suivant l’axe X ;
– la rotation φ1 suivant l’axe Y1 ;
– la rotation θ1 suivant l’axe Z1 ;
– la rotation φ2 suivant l’axe Y2 ;
– la rotation θ2 suivant l’axe Z2.
θ2
θ1
φ2
φ1
ρ
χ
O1
Y1
X1
Z1
Y2
X2
O2
Z2
FIGURE 2.1 – L’espace de recherche des candidats d’une interaction entre deux macromolecules
biologiques a 6 degr ´ es de libert ´ e : ´ ρ, χ, φ1, θ1, φ2 et θ2. Image J.Bernauer,
adaptee de [46]. ´
L’exploration quasi-exhaustive de l’espace de recherche n’est pas envisageable
dans des temps de calcul raisonnables. Comme le montre Connolly [54, 55, 56], la
quantite de candidats ´ a envisager pour tester toutes les combinaisons entre la surface `
de la proteine et celle de l’ARN est bien trop importante. Sur les 6 degr ´ es de libert ´ e,´
le nombre de candidats a envisager d ` epend essentiellement du pas en rotation et en ´
translation, mais aussi de la surface de Connolly de chacun des deux partenaires. La
surface de Connolly depend de la taille d’un partenaire et de sa forme, puisqu’elle ´
reflete la surface accessible au solvant et donc la surface ` a explorer pour envisager les `
differentes interactions possibles avec un partenaire. Les diff ´ erentes interactions possi- ´
122.1. Presentation de RosettaDock ´
bles avec un partenaire correspondent au nombre de candidats dont la construction est
a envisager pour une exploration quasi-exhaustive de l’espace de recherche. Ce nom- `
bre de candidats peut depasser le million pour des partenaires de taille raisonnable ´
(environ 400 acides amines ou 40 acides nucl ´ eiques selon les moyennes constat ´ ees ´
sur la PRIDB). La gen´ eration des candidats ne s’int ´ eresse donc qu’ ´ a un sous-ensemble `
de candidats. Pour un nombre fixe de candidats ´ a g ` en´ erer, l’objectif est de maximiser ´
les chances d’obtenir des candidats presque-natifs parmi les candidats gen´ er´ es. ´
En utilisant une methode de Monte-Carlo, il est possible d’orienter la g ´ en´ eration des ´
candidats : plus un candidat a une energie faible et plus il aura de chances d’ ´ etre con- ˆ
serve. L’exploration de l’espace des candidats donne alors plus probablement des can- ´
didats dans des sous-espaces contenant des candidats de faible energie. En r ´ eit ´ erant ´
un grand nombre de fois la methode de Monte-Carlo, la g ´ en´ eration des candidats per- ´
met de maximiser les chances d’obtenir des candidats de faible energie parmi les ´
candidats gen´ er´ es. En pratique, la r ´ eit ´ eration de la m ´ ethode de Monte-Carlo permet ´
de gen´ erer des candidats correspondant ´ a diff ` erents minima locaux, potentiellement ´
separ ´ es par des barri ´ eres d’ ` energie importantes. Ces barri ´ eres d’ ` energie, o ´ u les candi- `
dats ont une energie tr ´ es forte, emp ` echeraient d’appliquer une minimisation d’ ˆ energie ´
pour arriver a un candidat presque-natif ` a partir d’un puits d’ ` energie diff ´ erent. ´
Dans un modele o ` u les partenaires sont flexibles, il faut, apr ` es d ` eplacement d’un ´
partenaire par rapport a l’autre, prendre en compte la d ` eformation des partenaires. ´
Cette deformation s’effectue lorsque l’environnement proche des atomes des parte- ´
naires est modifie. La modification de l’environnement proche correspond ´ a la prox- `
imite avec des atomes de l’autre partenaire. La proximit ´ e entre atomes des deux parte- ´
naires definit une interface. Une fois une position d ´ etermin ´ ee pour le partenaire mobile, ´
la structure 3D des chaˆınes laterales est donc optimis ´ ee en fonction de son environ- ´
nement proche pour minimiser l’energie. ´
Pour minimiser les temps de calcul dans la modification des coordonnees de chaque ´
atome, on utilise les coordonnees internes (voir fig. 2.2) pour chaque acide amin ´ e et ´
chaque acide nucleique. Un arbre des coordonn ´ ees des atomes est construit pour ´
chaque acide amine et chaque acide nucl ´ eique : ´
– chaque atome a 3 atomes parents dans l’arbre ;
– la distance r est la distance au premier parent ;
– l’angle θ donne l’angle forme entre les deux premiers parents et le premier parent ´
avec l’atome, dans le plan forme par les droites des deux premiers et des deux ´
derniers parents ;
– l’angle φ est l’angle entre les deux derniers parents et le premier parent avec
l’atome, dans le plan perpendiculaire a la droite form ` ee par les deux premiers ´
parents.
Ainsi, modifier les coordonnees de tout un acide amin ´ e ou acide nucl ´ eique ne ´
necessite pas de modifier les coordonn ´ ees de l’ensemble de ses atomes. Par ailleurs, ´
les angles θ et φ definis chacun pour 2 des rotations d’un partenaire par rapport ´ a`
l’autre correspondent aux rotations θ et φ dans des coordonnees torsionnelles. ´
13Chapitre 2. Approche Rosetta et adaptation
CG1
C
CG1
C
Cβ Cα
r
y
x φ
θ
Cα
FIGURE 2.2 – La manipulation des coordonnees des structures 3D se fait ´ a l’aide `
des coordonnees internes : chaque acide amin ´ e et chaque acide nucl ´ eique sont ´
represent ´ es sous la forme d’un arbre passant par les liaisons covalentes entre les ´
atomes (les cycles sont coupes). Chaque atome a 3 atomes parents, ´ a l’exception des `
3 premiers atomes qui sont definis les uns par rapport aux autres. La position d’un ´
atome est definie par la distance ´ r a son premier atome parent et par les angles ` θ et φ.
Le ref ´ erentiel de coordonn ´ ees cart ´ esien est donn ´ e´ a titre indicatif. Les atomes donn ` es´
en exemple sont C, Cα, Cβ et l’atome gros-grain CG1.
2.1.1.2 Tri des candidats
L’etape de g ´ en´ eration des candidats n’explore pas de mani ´ ere exhaustive l’espace `
des conformations possibles entre les deux partenaires etudi ´ es. Toutefois, il est impor- ´
tant de noter que, en regle g ` en´ erale, le nombre de candidats devant ´ etre g ˆ en´ er´ es pour ´
esperer obtenir des candidats presque-natifs est ´ elev ´ e, de l’ordre de 10 000. Certaines ´
fonctions d’evaluation ne sont pas diff ´ erentiables, ce qui ne permet pas de mettre en ´
place des approches efficaces de minimisation. C’est notamment le cas de la fonction
de score gros-grain de RosettaDock, qui somme un terme de score defini par une ´
fonction discrete avec d’autres termes de score (voir section 2.1.2.2). `
Sur ce grand nombre de candidats, seul un petit nombre d’entre eux ont une chance
d’etre des presque-natifs. La proportion est g ˆ en´ eralement consid ´ er´ ee de l’ordre de ´
1 pour 1 000 pour la grande majorite des complexes, mais il est attendu d’un bon ´
algorithme d’amarrage de depasser cet ordre de grandeur [114]. ´
Il existe deux types d’erreurs pouvant apparaˆıtre suite au tri des candidats. Ils ont
des couts tr ˆ es diff ` erents : ´
– ne pas reussir ´ a mettre un presque-natif en avant face aux leurres oblige ` a`
gen´ erer plus de candidats pour obtenir un presque-natif dans les premiers can- ´
didats du tri ;
142.1. Presentation de RosettaDock ´
– mettre un leurre en avant par rapport aux presque-natifs donne l’illusion d’avoir
trouve un presque-natif, sur lequel peuvent ensuite se baser des exp ´ eriences qui ´
coutent cher (par exemple, de cristallographie). ˆ
Il est donc imperatif de mettre en place d’autres crit ´ eres d’ ` evaluation les plus efficaces ´
possibles pour eviter ces deux types d’erreurs et identifier les presque-natifs parmi ´
l’ensemble des candidats.
Nous appelons fonctions de score les differents crit ´ eres d’ ` evaluation que nous al- ´
lons etudier. Selon les besoins, plusieurs fonctions de score peuvent ´ etre d ˆ efinies et ´
appliquees. Une premi ´ ere fonction de score agit comme un filtre permettant de sup- `
primer les leurres les plus evidents. Ce filtre est ´ evalu ´ e sur l’ensemble des configura- ´
tions testees pour la g ´ en´ eration d’un candidat. Le filtre doit donc ´ etre rapide ˆ a calculer. `
Le filtre prend en consideration les crit ´ eres suivants : `
– chevauchements des structures ;
– nombre d’atomes impliques dans l’interaction. ´
Pour chaque candidat, si les chevauchements sont trop importants ou si le nombre
d’atomes impliques dans l’interaction est trop faible, alors la probabilit ´ e qu’il s’agisse ´
d’un leurre est elev ´ ee. Le filtre associe alors un score ´ elev ´ e au candidat consid ´ er´ e. Si ´
le candidat consider´ e a un score trop ´ elev ´ e, il ne fera pas partie des candidats g ´ en´ er´ es. ´
Une seconde fonction de score est definie pour ´ evaluer et optimiser la structure 3D des ´
chaˆınes laterales ´ a l’interaction. Une telle fonction de score a pour but de donner une `
structure 3D plus fidele` a la r ` ealit ´ e biologique. Gr ´ ace ˆ a la minimisation des cha ` ˆınes
laterales, les atomes des cha ´ ˆınes laterales voient leurs coordonn ´ ees adapt ´ ees ´ a l’in- `
teraction avec les atomes du partenaire. Un score final est enfin attribue´ a chaque `
candidat, pour evaluer sa structure 3D dans son ensemble et trier les candidats en ´
fonction de leur probabilite de repr ´ esenter correctement l’interaction. Pour calculer ce ´
score, l’ensemble des termes de score est agreg´ e pour chaque candidat. La fonction ´
d’agregation est une somme pond ´ er´ ee. ´
Selon l’objectif du score, ce dernier utilise pref´ erentiellement des param ´ etres issus `
de differents mod ´ eles g ` eom ´ etriques. Un score permettant d’affiner une structure 3D ´
doit pouvoir correctement evaluer l’ ´ energie issue d’interactions avec le solvant, d’o ´ u le `
calcul de l’influence de la solvatation a l’ ` echelle atomique. ´ A l’inverse, un score utilis ` e´
comme filtre a besoin d’etre calcul ˆ e rapidement et se focalise pr ´ ef´ erentiellement sur ´
des parametres calcul ` es´ a l’ ` echelle gros-grain. ´
2.1.1.3 Amarrages gros-grain ou atomique
L’echelle ´ a laquelle s’effectue l’amarrage convient ` a des probl ` ematiques sp ´ ecifiques. ´
Pour chaque problematique standard d’amarrage, il existe un protocole d’amarrage. ´
L’amarrage gros-grain a pour but de decouvrir l’ ´ epitope ´ (ou zone d’interaction), c’esta-dire
identifier les acides nucl ` eiques et acides amin ´ es impliqu ´ es dans l’interaction. ´
L’amarrage atomique a pour but de determiner la structure 3D de l’interaction ´ a l’ ` echelle ´
de l’Angstrom voire en-dessous. Il peut arriver qu’un amarrage atomique soit utilis ¨ e´
lorsque l’on connaˆıt dej ´ a l’ ` epitope, pour affiner la structure 3D identifi ´ ee. ´
Pour reduire les temps de calcul, un amarrage atomique dont on ne conna ´ ˆıt pas
l’epitope est g ´ en´ eralement pr ´ ec´ ed´ e d’un amarrage gros-grain. Dans un contexte de ´
15Chapitre 2. Approche Rosetta et adaptation
prediction ´ a l’aveugle comme CAPRI, o ` u on ne connait pas la solution, on proc ` ede `
en gen´ eral ´ a un amarrage atomique ` a partir des structures candidates g ` en´ er´ ees par ´
l’amarrage gros-grain.
2.1.2 Autres strategies ´
Selon le contexte, d’autres strategies pour affiner l’amarrage local peuvent ´ etre ˆ
envisagees : ´
– minimisation d’une structure ;
– gen´ eration par perturbation d’un nuage de candidats autour d’une structure 3D ; ´
– evaluation du score d’une structure sans modification de la structure 3D. ´
La minimisation correspond le plus souvent a une descente de gradient pour obtenir `
un minimum local proche de la structure 3D donnee en entr ´ ee. Une strat ´ egie de min- ´
imisation du score permet de comparer les candidats gen´ er´ es par diff ´ erents outils de ´
gen´ eration de candidats, chaque outil ayant une fonction de score diff ´ erente avec des ´
minima qui ne correspondent pas necessairement d’un outil ´ a l’autre. Tous les outils de `
gen´ eration de candidats n’ont pas non plus le m ´ eme seuil ˆ a partir duquel deux atomes `
sont consider´ es en interaction. La minimisation permet, pour une I ´ RMSD tres petite `
(normalement de moins de 1A), de potentiellement diminuer drastiquement l’ ˚ energie. ´
Ceci est du au fait que des contraintes ˆ a faible distance peuvent donner de tr ` es fortes `
penalit ´ es aux structures 3D. ´
La gen´ eration par perturbation de candidats autour d’une structure 3D est utilis ´ ee, ´
lorsque l’on connaˆıt dej ´ a l’interaction, pour g ` en´ erer des candidats presque-natifs et ´
leurres. Cette strategie correspond ´ a un amarrage atomique, mais en g ` en´ erant les can- ´
didats selon une operation de rotation-translation al ´ eatoire du partenaire mobile, sans ´
utilisation de l’algorithme de Monte-Carlo. De plus, cette strategie part de la structure ´
native directement, i.e. de la solution, plutot que de partir de la structure 3D de chacun ˆ
des deux partenaires. Cette strategie est davantage d ´ etaill ´ ee dans la section traitant ´
de la gen´ eration de candidats par perturbation (voir section 1.3.2). La g ´ en´ eration par ´
perturbation de candidats a dej ´ a` et ´ e utilis ´ ee pour mettre en place et ´ evaluer la fonction ´
de score proteine-prot ´ eine de RosettaDock [98]. ´
Evaluer le score d’une structure 3D sans g ´ en´ eration de candidats est g ´ en´ eralement ´
d’inter´ et lorsque l’on compare diff ˆ erentes fonctions de score ou pour ´ evaluer l’ ´ energie ´
d’une structure native. La comparaison des fonctions de score peut avoir lieu a des `
fins d’evaluation de la structure ou des fonctions de score, comme dans ce manuscrit. ´
L’evaluation de l’ ´ energie d’une structure native permet de v ´ erifier la coh ´ erence d’une ´
fonction de score avec les structures natives disponibles. En effet, une fonction de
score correctement modelis ´ ee doit id ´ ealement attribuer une ´ energie plus faible ´ a la `
structure native qu’aux structures des candidats.
2.1.2.1 Fonctions de score atomique : termes physico-chimiques
Les termes physico-chimiques sont calcules en utilisant des connaissances issues ´
des propriet ´ es physico-chimiques des interactions entre atomes. ´ A l’ ` echelle atomique, ´
162.1. Presentation de RosettaDock ´
RosettaDock utilise 10 types de termes de score repartis en 6 groupes (voir fig. 2.3). ´
Sur l’ensemble des equations, les m ´ emes notations sont utilis ˆ ees pour d ´ esigner les ´
memes entit ˆ es, o ´ u : `
– E est le terme de score, modelisant une ´ energie physico-chimique ; ´
– w est le poids donne au terme de score ; ´
– N est le nombre d’atomes ;
– Naa est le nombre d’atomes gros-grain des acides amines ; ´
– Nna est le nombre d’atomes gros-grain des acides nucleiques ; ´
– M est le nombre d’acides amines ; ´
– L est le nombre d’acides nucleiques ; ´
– d est la distance entre deux atomes ;
– P est une probabilite estim ´ ee ; ´
– σ est la distance minimale d’approche entre deux atomes, somme de leurs rayons
de Van der Waals [21] ;
– q est une charge positive ou negative ; ´
– ∆Gf r ee est l’energie de Gibbs [162] ; ´
– V est le volume atomique [21] ;
– λ est la longueur de correlation d’un atome [144] ; ´
– φ est l’angle diedre d’un rotam ` ere form ` e par le quadruplet d’atomes successifs ´
CO0 − NH1 − Cα1 − CO1 [209] ;
– ψ est l’angle diedre d’un rotam ` ere form ` e par le quadruplet d’atomes successifs ´
NH1 − Cα1 − CO1 − NH2 [209] ;
– ξ est l’environnement d’un atome.
Les deux termes de score attractif (fa atr) et repulsif ´ (fa rep) de Van der Waals
representent respectivement l’attraction et la r ´ epulsion universelle entre atomes. In- ´
dependamment du type d’atome, deux atomes se repoussent s’ils sont trop proches ´
l’un de l’autre. Alternativement, deux atomes s’attirent lorsqu’ils sont suffisamment loin
l’un de l’autre, jusqu’a une attraction asymptotiquement nulle au fur et ` a mesure que `
la distance croˆıt. Les equations de Lennard-Jones 12-6 pr ´ esent ´ ees ici (voir ´ eq. 2.1 et ´
2.2) sont une simplification de l’energie de Van der Waals, o ´ u` εij est la profondeur du
puits d’energie pour ´ i et j. L’energie de Van der Waals est uniquement calcul ´ ee pour ´
les atomes a moins de 8 ` A de distance. Au-del ˚ a de 8 ` A, l’ ˚ energie de Van der Waals est ´
donc consider´ ee par le mod ´ ele comme nulle. Cette approximation permet de minimiser `
les temps de calcul alloues au calcul de ces deux termes de score. La partie attractive ´
est utilisee pour 0.89 ´ σij A˚ < dij < 8A alors que la partie r ˚ epulsive est utilis ´ ee pour ´
0.6σij A˚ < dij ≤ 0.89σij A. ˚
Efa at r = wfa at r X
N
i=1
X
N
j>i
εij
σij
dij 12
− 2
σij
dij 6
!
(2.1)
Efa r ep = wfa r epX
N
i=1
X
N
j>i
εij
σij
0.6σij 12
− 2
σij
0.6σij 6
−
0.6σij − dij
−12σ
12
ij
(0.6σij)
13 +
12σ
6
ij
(0.6σij)
7
(2.2)
17Chapitre 2. Approche Rosetta et adaptation
FIGURE 2.3 – L’energie potentielle d’une structure 3D de macromol ´ ecules biologiques, ´
souvent assimilee´ a un score, est g ` en´ eralement calcul ´ ee selon une somme de ter- ´
mes modelisant des ph ´ enom ´ enes physico-chimiques sp ` ecifiques. Les termes peuvent ´
porter sur les interactions covalentes (liens, angles, torsions) ou non covalentes (attraction
et repulsion universelles, forces ´ electrostatiques, liaisons hydrog ´ ene, ` etc.). Image
adaptee de Scientific American / Adv Drug Del Rev. ´
Dans la cellule, le complexe proteine-ARN est plong ´ e dans un solvant. Il est donc ´
necessaire que le mod ´ ele` in silico prenne cette caracteristique en compte. Le terme de ´
solvatation (fa sol) est modelis ´ e dans cet objectif. Le terme de solvatation favorise l’ac- ´
cessibilite des parties hydrophiles solvant et l’inaccessibilit ´ e des parties hydrophobes ´
au solvant (voir eq. 2.3). Ce terme de score demande le calcul de l’accessibilit ´ e au ´
solvant, qui coute cher en temps de calcul [144]. ˆ
Efa sol = wfa sol X
N
i=1
X
N
j>i
2∆Gf r ee
i
exp
−d
2
ij
4π
√
πλiσ
2
ij
Vj +
2∆Gf r ee
j
exp
−d
2
ij
4π
p
πλjσ
2
ij
Vi
(2.3)
182.1. Presentation de RosettaDock ´
FIGURE 2.4 – Presentation de l’ ´ energie de Van der Waals, o ´ u` ε correspond a la pro- `
fondeur du puits d’energie. L’ ´ energie de Van der Waals poss ´ ede une part r ` epulsive de ´
0 A jusqu’ ˚ a 0.89 ` σij A et une part attractive au-del ˚ a.`
Meme sans aller jusqu’ ˆ a` etre charg ˆ e positivement ou n ´ egativement, un atome peut ´
avoir une charge partielle. Cette charge partielle attire pref´ erentiellement l’atome en ´
question vers les atomes ayant une charge partielle opposee. De plus, certains atomes ´
sont plus frequemment observ ´ es´ a proximit ` e l’un de l’autre qu’avec d’autres atomes. ´
Le terme d’affinite entre paires d’atomes ´ (fa pair) donne un score plus favorable aux
atomes ayant une forte affinite entre eux (voir ´ eq. 2.4). Seuls les atomes interagissant ´
entre eux ont une valeur calculee pour fa ´ pair (int dans l’equation). Le terme d’affinit ´ e´
entre paires d’atomes classe chaque atome en quatre environnements, selon sa proximite
avec un atome de l’autre partenaire et son accessibilit ´ e au solvant. Pour chaque ´
environnement, chaque paire de type d’atomes obtient un score different. Les quatre ´
environnements possibles sont :
– l’atome est dans l’interaction et accessible au solvant ;
– l’atome est dans l’interaction et inaccessible au solvant ;
– l’atome est hors de l’interaction et accessible au solvant ;
– l’atome est hors de l’interaction et inaccessible au solvant.
Efa pai r = wfa pai r Y
M
m=1
Y
L
l=1
P (m, l|int, ξm, ξl)
P (m|int, ξm)P (l|int, ξl)
(2.4)
Outre les affinites qu’il peut y avoir entre des atomes partiellement charg ´ es, les ´
charges, lorsqu’elles sont presentes, ont aussi un impact sur les interactions entre ´
atomes. Le modele de Coulomb d ` ecrit pour cela l’interaction entre atomes charg ´ es´
en fonction de la valence de leur charge et de la distance qui les separe. Le terme ´
electrostatique ´ (hack elec) utilise le modele de Coulomb (voir ` eq. 2.5). ´
Ehack elec = whack elec X
N
i=1
X
N
j>1
332qiqj
min
dij, 32
(2.5)
19Chapitre 2. Approche Rosetta et adaptation
Un phenom ´ ene plus sp ` ecifique de charge partielle intervient dans la cr ´ eation et le ´
maintien d’interactions entre molecules et ´ a l’int ` erieur d’une m ´ eme mol ˆ ecule. Il s’agit ´
de la formation de liaisons hydrogene. Les liaisons hydrog ` ene se forment entre un `
hydrogene de charge partielle positive et un autre atome de charge partielle n ` egative ´
(gen´ eralement un oxyg ´ ene ou un azote). Ces liaisons sont des liaisons non covalentes, `
mais qui participent aux interactions de par leur multiplicite. Les quatre termes de li- ´
aisons hydrogene ` (hbond sc, hbond bb sc, hbond lr bb, hbond sr bb) favorisent l’existence
de liaisons hydrogene (voir ` eq. 2.6). Le score donn ´ e aux liaisons hydrog ´ ene `
depend de la distance d’interaction, ´ a courte port ` ee ou ´ a longue port ` ee, et de la local- ´
isation des atomes d’hydrogene, dans le squelette ou dans la cha ` ˆıne laterale. ´
Ehbond ∗ = whbond ∗
X
N
i=1
X
N
j>i
5
σij
dij 12
− 6
σij
dij 10!
F (q) (2.6)
Les chaˆınes laterales des acides amin ´ es sont flexibles et peuvent adopter plusieurs ´
conformations. Ces conformations sont categoris ´ ees par probabilit ´ e d’apparition dans ´
le diagramme de Ramachandran. La base de donnees de rotam ´ eres de Dunbrack `
[70] a et ´ e conc¸ue sur le m ´ eme principe pour d ˆ eterminer, selon la conformation de ´
la chaˆıne laterale, la probabilit ´ e d’apparition correspondante. Le terme de rotam ´ eres `
de Dunbrack (fa dun) donne un score plus favorable aux rotameres les plus pr ` esents ´
dans les complexes proteine-prot ´ eine connus (voir ´ eq. 2.7). Le terme de rotam ´ eres de `
Dunbrack n’est, pour le moment, utilise que pour les acides amin ´ es. ´
Efa dun = wfa dunX
M
m=1
− ln
Ptype(m) (φmψm)
(2.7)
2.1.2.2 Termes physico-chimiques a l’ ` echelle gros-grain ´
A l’ ` echelle gros-grain, RosettaDock calcule quatre types de termes de score. Les ´
atomes consider´ es sont alors des atomes gros-grain. Dans cette section, on note ´ N le
nombre d’atomes gros-grain.
Le terme de contact (interchain contact) est une version simplifiee du terme d’at- ´
traction de Van der Waals. Le score donne au terme de contact est une fonction ´
discrete d ` ependant du nombre ´ nInt d’atomes gros-grain a l’interface. Cette fonction `
discrete est d ` efinie par une droite avec une valeur extr ´ eme et deux points particuliers. ˆ
S’il n’y a aucun atome gros-grain en interaction, le terme de contact vaut 12. S’il y a
2 atomes gros-grain en interaction, il vaut 9.5. Entre 3 et 19 atomes gros-grain, il vaut
10 − 0.5 ∗ nInt . Au-dela de 19 atomes gros-grain, il est ` egal ´ a sa valeur extr ` eme : ˆ −10.
Le terme de repulsion de Van der Waals gros-grain ´ (interchain vdw) est aussi une
version simplifiee du terme de r ´ epulsion de Van der Waals atomique. Le terme de ´
repulsion de Van der Waals gros-grain vaut entre 0 et 1. Il utilise un param ´ etre ` dα,β
determin ´ e au moyen d’une mesure statistique sur un jeu de donn ´ ees de complexes, o ´ u`
α est le type de l’atome i et β le type de l’atome j (voir eq. 2.8). Nous avons notamment ´
202.2. Evaluation de la fonction de score non optimis ´ ee´
determin ´ e les valeurs de ce param ´ etre pour chaque paire ( ` α, β) de type d’atomes grosgrain.
Einter chain vdw = winter chain vdw X
Naa
i=1
X
Nna
j=1
d
2
α,β − d
2
ij
d
2
α,β
(2.8)
Le terme d’affinite par paire d’atomes gros-grain ´ (interchain pair) fonctionne de la
meme mani ˆ ere que le terme d’affinit ` e par paire d’atomes. ´
Le terme d’environnement (interchain env) reprend le principe d’environnement des
termes d’affinite par paire d’atomes. Le terme d’environnement donne un score favor- ´
able aux atomes gros-grain se trouvant dans les environnements ou ils ont le plus de `
chances d’etre trouv ˆ es. Le terme d’environnement prend aussi en compte une version ´
simplifiee du terme de solvatation. ´
2.2 Evaluation de la fonction de score non optimis ´ ee´
La fonction de score non optimisee pour les complexes prot ´ eine-ARN est la fonc- ´
tion de score par defaut dans RosettaDock. Cette fonction de score est directement ´
issue de l’amarrage proteine-prot ´ eine : elle est optimis ´ ee pour l’amarrage prot ´ eine- ´
proteine. Nous appellerons cette fonction de score ´ ROS. Nous allons d’abord observer
les mesures d’evaluation globales avant de traiter les mesures d’ ´ evaluation locales. ´
2.2.1 Mesures d’evaluation globales ´
Les mesures d’evaluation globales peuvent s’appliquer lorsque l’on dispose de la ´
matrice de confusion. Calculer la matrice de confusion necessite de d ´ eterminer un ´
seuil a partir duquel la fonction de score s ` epare en presque-natifs et en leurres les ´
candidats predits. Nous utilisons deux seuils diff ´ erents. Le premier seuil est le seuil ´
permettant d’obtenir, pour chaque complexe, le meilleur Fscore (voir section 0.6.2). Ce
seuil permet de savoir a quel point la fonction de score peut trouver un compromis `
entre deux types d’erreurs : predire presque-natif un leurre (Faux Positif) et ne pas ´
predire presque-natif un presque-natif (Faux N ´ egatif). ´
Avec ce seuil, le nombre de candidats predits presque-natifs est tr ´ es` elev ´ e (voir ´
tableau 2.1). Le rappel est tres` elev ´ e, mais on peut remarquer avec la pr ´ ecision que ´
la moitie des candidats pr ´ edits sont des presque-natifs. En moyenne, chaque candidat ´
predit presque-natif a donc une chance sur deux d’ ´ etre un presque-natif. Et le rappel ˆ
montre que la quasi-totalite des presque-natifs sont pr ´ edits presque-natifs. De plus, ´
la specificit ´ e continue de montrer que la fonction de score ROS n’est pas adapt ´ ee´ a`
la prediction d’interactions prot ´ eine-ARN. Pour plus de la moiti ´ e des complexes, les ´
leurres predits par la fonction de score ROS repr ´ esentent moins de 1 % des v ´ eritables ´
leurres. Dit autrement, plus de 99 % des leurres sont predits comme ´ etant des presque- ´
natifs.
21Chapitre 2. Approche Rosetta et adaptation
Aggregat ´ Precision ´ Rappel Fscore Accuracy Specificit ´ e´ Seuil
Moyenne 49.52% 98.68% 65.94% 50.75% 2.27% 9 874
Mediane pr ´ ecision ´ 47.44% 99.99% 64.35% 47.45% 0.06% 9 998
Mediane Fscore ´ 46.51% 99.99% 63.49% 46.53% 0.06% 9 997
TABLE 2.1 – Evaluation globale de la fonction de score ROS sur la P ´ RIDB, sous le seuil
du meilleur Fscore pour chaque complexe, avec la moyenne et la mediane sur les ´
120 complexes de la PRIDB. La derniere colonne correspond au nombre de candidats `
predits presque-natifs au seuil du meilleur Fscore et permet de comparer ces r ´ esultats ´
a ceux du top10. Pour le calcul des mesures des lignes concernant la m ` ediane, ce sont ´
les exemples correspondant a la m ` ediane de la pr ´ ecision, d’une part, et du Fscore, ´
d’autre part, qui sont utilises. ´
L’evaluation de la fonction de score par des mesures globales avec un seuil d ´ efini ´
par le Fscore donne des resultats apparemment satisfaisants. Mais le seuil est alors ´
different pour chaque complexe et n ´ ecessite de conna ´ ˆıtre a l’avance le r ` esultat. On ´
ne peut donc pas choisir ce seuil, qui est gen´ eralement tr ´ es` elev ´ e, avec la plupart ´
des valeurs au-dela de 9 990 candidats pr ` edits presque-natifs. Le seuil d ´ efini par le ´
meilleur Fscore est uniquement etudi ´ e pour mesurer un compromis de performance ´
de la fonction de score. De plus, meme si l’on pouvait trouver ce seuil de compro- ˆ
mis entre precision et rappel, la pr ´ ecision n’est que de moiti ´ e. Cela signifie que, en ´
prenant au hasard un candidat parmi les candidats predits, il y a en moyenne 50 % de ´
chances que le candidat predit ne soit pas un presque-natif. Or, l’objectif est justement ´
de nous assurer de pouvoir trouver au moins un presque-natif, avec comme marge de
manœuvre le fait de pouvoir en selectionner 10. ´
Le second seuil est fixe´ a 10 candidats, ce qu’on appelle le top10. Ainsi, seuls les `
10 meilleurs candidats au sens du tri oper´ e par la fonction de score sont consid ´ er´ es´
comme des presque-natifs. Tous les autres candidats sont predits comme ´ etant des ´
leurres.
Avec un seuil au top10, on ne s’attend pas a avoir un fort rappel (ou sensibilit ` e)´
lorsque le nombre de presque-natifs est grand dans l’ensemble des exemples testes. ´
Rappelons que le nombre de presque-natifs est d’au moins 30 pour chaque complexe
de la PRIDB. Et le rappel est effectivement tres bas (voir tableau 2.2). Mais surtout, `
la precision est aussi tr ´ es basse, avec 59 des 120 complexes - soit pr ` es de la moiti ` e´
d’entre eux - n’ayant aucun presque-natif dans le top10 (voir tableau S2).
On voit donc que les mesures d’evaluation globales affichent parfois des r ´ esultats ´
tres satisfaisants, avec un rappel ou une sp ` ecificit ´ e tr ´ es forte. Mais les r ` esultats ne ´
correspondent en realit ´ e pas aux objectifs fix ´ es, ce que peut montrer notamment la ´
precision. C’est pourquoi il est utile de passer ´ a des mesures d’ ` evaluation locales. ´
222.2. Evaluation de la fonction de score non optimis ´ ee´
Aggregat ´ Precision ´ Rappel Fscore Accuracy Specificit ´ e´
Moyenne 29.25% 0.05% 0.09% 68.17% 99.83%
Mediane pr ´ ecision ´ 10.00% 0.06% 0.12% 81.13% 99.89%
Mediane Fscore ´ 15.00% 0.02% 0.04% 26.26% 99.28%
TABLE 2.2 – Evaluation globale de la fonction de score ROS sur la P ´ RIDB, sous le
seuil de 10 candidats (top10), avec la moyenne et la mediane sur les 120 complexes ´
de la PRIDB. Pour la mediane, ce sont les complexes correspondant ´ a la m ` ediane de ´
la precision, d’une part, et du Fscore, d’autre part, qui sont utilis ´ es pour calculer les ´
differentes mesures, dont les lignes sont intitul ´ ees pr ´ ecision et Fscore. ´
2.2.2 Mesures d’evaluation locales ´
Les mesures d’evaluation locales sont au moins pour certaines plus sp ´ ecifiques au ´
probleme ` etudi ´ e et plus adapt ´ ees aux objectifs fix ´ es pour la pr ´ ediction d’interactions ´
proteine-ARN. Les mesures d’ ´ evaluation locales se d ´ eclinent en deux axes : ´
– d’une part, des mesures sur les performances de la fonction de score, comme
l’aire sous la courbe ROC ;
– d’autre part, des mesures davantage focalisees sur les objectifs biologiques de ´
la prediction, comme le nombre de presque-natifs dans le top10 des candidats, ´
le score d’enrichissement et le diagramme d’energie en fonction du I ´ RMSD.
Les aires sous la courbe ROC sont en moyenne de 0.37, avec une variance de
0.02. On pourrait penser qu’inverser la prediction donn ´ ee par la fonction de score ROS ´
donnerait de meilleurs resultats. Inverser la pr ´ ediction correspond par exemple ´ a at- `
tribuer a chaque candidat le n ` egatif de son score, ce qui inverse l’ordre dans lequel ´
les candidats se situent dans un tri selon le score. Pour l’aire sous la courbe ROC,
cela aurait pour consequence d’obtenir le miroir par rapport ´ a 0.5 de la valeur de l’aire `
sous la courbe de ROC (ici, 0.63, puisque 0.5 − 0.37 = 0.13 et 0.5 + 0.13 = 0.63).
Cependant, c’est sans compter sur le fait que la proportion de presque-natifs dans un
ensemble de candidats est bien plus faible pour une prediction ´ a l’aveugle (de l’ordre `
de 1 a 10 pour 10 000 avec un bon protocole de g ` en´ eration de candidats). Inverser la ´
prediction reviendrait certainement ´ a donner une ` energie ´ elev ´ ee´ a une grande partie `
des presque-natifs de faible energie. ´
De la meme mani ˆ ere, avec 59 complexes sur 120, pr ` es de la moiti ` e des complexes ´
n’ont aucun presque-natif dans le top10 des meilleurs candidats en energie. Formul ´ e´
autrement, en prenant un complexe au hasard de la PRIDB, il y a une chance sur deux
que la prediction ne propose aucun candidat satisfaisant. La fonction de score ROS ne ´
permet pas la prediction des interactions prot ´ eine-ARN. ´
Les diagrammes d’energie en fonction du I ´ RMSD permettent de constater que la
fonction de score ROS n’est pas adaptee´ a un raffinement d’une structure de haute `
resolution prot ´ eine-ARN. En effet, aucun des complexes ne montre un entonnoir sur la ´
totalite de ses candidats : il existe toujours de nombreux candidats de faible ´ energie et ´
ayant un IRMSD elev ´ e (voir 2.5). On peut aussi constater plus clairement qu’inverser la ´
fonction de score ROS amenerait ` a n’avoir qu’une tr ` es faible quantit ` e de candidats de ´
23Chapitre 2. Approche Rosetta et adaptation
faible energie, souvent avec un I ´ RMSD superieur ´ a 5 ` A. ˚
Irmsd (Å)
Score
0 20
−200 3350
Irmsd (Å)
Score
0 20
−530 3400
Irmsd (Å)
Score
0 20
−90 4940
FIGURE 2.5 – Exemples de diagrammes d’energie en fonction du I ´ RMSD pour la fonction
de score ROS sur 3 complexes. On remarque l’absence d’entonnoir. De nombreux
complexes montrent des diagrammes semblables pour la fonction de score ROS, qui
n’est pas adaptee. ´
On note toutefois que certains complexes peuvent etre consid ˆ er´ es comme ayant ´
un entonnoir, jusqu’a une faible valeur de I ` RMSD (voir 2.6). Au-dela de cette valeur en `
IRMSD, de l’ordre de 2 ou 3A et propre ˚ a chacun de ces complexes, la fonction de `
score ROS donne une energie comparable entre des candidats ayant un I ´ RMSD faible
comme elev ´ e. ´
Irmsd (Å)
Score
0 20
−210 2980
Irmsd (Å)
Score
0 20
−1190 4730
Irmsd (Å)
Score
0 20
−930 5030
FIGURE 2.6 – Meilleurs exemples de diagrammes d’energie en fonction du I ´ RMSD pour
la fonction de score ROS sur 3 complexes. On remarque un entonnoir s’arretant rapide- ˆ
ment. Rares sont les complexes montrant des diagrammes semblables pour la fonction
de score ROS.
Si la fonction de score non optimisee ROS n’est pas adapt ´ ee´ a la pr ` ediction d’in- ´
teractions proteine-ARN, il est possible d’optimiser une fonction de score similaire. ´
Nous verrons lors de l’optimisation de la fonction de score, avec le filtrage a priori,
que ROS est initialement apprise pour predire des candidats dont certains leurres sont ´
242.3. Optimisation de la fonction de score
dej ´ a filtr ` es. Il s’agit notamment des candidats avec trop d’interp ´ en´ etrations, aussi ap- ´
pelees ´ clashes, notion modelis ´ ee par le terme de score fa ´ rep. Ce constat, couple au ´
fait que ROS n’a pas et ´ e construite pour pr ´ edire d’interactions prot ´ eine-ARN, explique ´
son echec sur la pr ´ ediction d’interactions prot ´ eine-ARN. Mais nous verrons aussi et ´
surtout d’autres approches d’optimisation.
2.3 Optimisation de la fonction de score
La combinaison lineaire de termes physico-chimiques est la seule forme de fonc- ´
tion de score que RosettaDock peut nativement utiliser. Nous mettons donc en œuvre
l’apprentissage d’une fonction de score etant la combinaison lin ´ eaire des 10 attributs ´
physico-chimiques atomiques disponibles pour chaque candidat. L’equation 2.9 montre ´
pour un candidat c la combinaison lineaire ´ E(c) des |A| attributs physico-chimiques ai
.
wai
representent les poids de la fonction de score et ´ Eai
(c) la valeur de l’attribut ai pour
le candidat c.
E(c) = X
|A|
i=1
waiEai
(c) (2.9)
Une autre formulation envisageable est celle present ´ ee dans l’ ´ equation 2.10 avec ´
des notations plus classiquement utilisees en apprentissage. On retrouve ´ X qui designe ´
le candidat c, xi qui represente la valeur de l’attribut ´ Eai
pour le candidat c (Eai
(c)) et
wi
le poids du i
eme attribut.
E(X) = X
|A|
i=1
wixi (2.10)
Par souci de simplicite et pour ´ eviter d’introduire un formalisme trop distant des ´
conventions usuelles en apprentissage automatique, nous utiliserons les notations
present ´ ees dans l’ ´ equation 2.10. ´
Les poids wi doivent etre d ˆ efinis soit ´ a partir de connaissances physico-chimiques, `
soit a partir de donn ` ees d ´ ej ´ a connues, c’est- ` a-dire des complexes prot ` eine-ARN pour ´
lesquels un ensemble de presque-natifs et un ensemble de leurres sont connus. Pour
conserver la semantique biologique de la fonction de score qui repr ´ esente une ´ energie, ´
les presque-natifs doivent avoir des scores de valeurs inferieures ´ a ceux des leurres. `
Si nous arrivons a construire une telle fonction de score, nous pourrons l’utiliser `
a des fins pr ` edictives. C’est- ´ a-dire que seules les candidats (ou exemples) ayant les `
valeurs les plus faibles pour ce score seront retenus.
Du point de vue de l’apprentissage, cela implique qu’il existe une correlation entre ´
la probabilite d’ ´ etre un candidat presque-natif et la valeur du score. Nous pouvons ˆ
donc estimer la probabilite conditionnelle ´ P(Pr esque −natif|E(X)) et de maniere plus `
gen´ erale ´ P(Pr esque − natif|X).
Dans notre cadre de travail, nous disposons de deux classes : presque-natif et
leurre. Nous noterons 1 la classe presque-natif et 0 la classe leurre.
25Chapitre 2. Approche Rosetta et adaptation
Notre objectif se reformule donc comme l’estimation de la probabilite condition- ´
nelle : P(y = 1|X).
Compte tenu du cadre impose par RosettaDock, nous cherchons ´ a estimer ` P(y =
1|X) ∼ E(X) = P|A|
i=1 wixi
. Nous devons donc determiner les poids ´ wi
tels que E(X)
represente bien la probabilit ´ e pour ´ X d’etre un presque-natif. Pour ˆ etre tout ˆ a fait `
rigoureux, sachant que E(X) represente (d’un point de vue biologique) l’ ´ energie du ´
candidat X, plus cette energie est faible alors plus la probabilit ´ e que le candidat ´ X soit
un presque-natif est elev ´ ee. ´
Nous cherchons donc a d ` eterminer les poids ´ wi
tels que P(y = 1|X) = 1 − E(X) =
1 −
P|A|
i=1 wixi aient une valeur maximale pour X presque-natif.
Plusieurs approches peuvent etre mises en œuvre pour estimer les poids ˆ wi
.
Nous presentons dans les sous-sections 2.3.1 et 2.3.2 deux approches permettant ´
de determiner ces poids. ´
2.3.1 Estimation des poids par regression logistique ´
Nous allons montrer dans cette section le bien fonde de la mod ´ elisation de ´ P(y =
1|X) par une combinaison lineaire des attributs de ´ X
Sachant que notre objectif est de pouvoir identifier les presques-natifs, nous pouvons
redefinir notre objectif principal : ´ estimer au mieux le ratio P(y = 1|X)/P(y = 0|X).
Si le ratio est superieur ou ´ egal ´ a 1 alors le candidat sera pr ` edit comme ´ etant un ´
presque-natif, sinon, il sera predit comme ´ etant un leurre. ´
Par un simple jeu de re´ecriture des probabilit ´ es conditionnelles, nous pouvons re- ´
formuler le rapport P(y = 1|X)/P(y = 0|X) comme indique dans l’ ´ equation 2.11. ´
P(y = 1|X)
P(y = 0|X)
=
P(y = 1)
P(y = 0) ∗
P(X|y = 1)
P(X|y = 0) (2.11)
Classiquement la fraction P(y=1)
P(y=0) est estimee´ a partir du rapport des contingences ob- `
servees sur le jeu d’apprentissage : ´
P(y=1)
P(y=0) =
nb(y=1)
nb(y=0) ou` nb(y = 1) (resp. = 0) represente ´
le nombre de candidats presque-natifs (resp. leurres) dans le jeu d’apprentissage.
L’estimation du rapport des probabilites conditionnelles exprim ´ e dans l’ ´ equation ´
2.11 repose donc sur l’estimation du rapport defini dans l’ ´ equation 2.12. ´
P(X|y = 1)
P(X|y = 0) (2.12)
Pour estimer le rapport 2.12, la regression logistique pose l’hypoth ´ ese fondamen- `
tale que le logarithme nep´ erien du rapport des probabilit ´ es conditionnelles peut s’ex- ´
primer comme une combinaison lineaire des attributs d ´ ecrivant ´ X (voir equation 2.13). ´
ln
P(X|y = 1)
P(X|y = 0)
= a0 +
X
|A|
i=1
aixi (2.13)
Sachant que nous cherchons a estimer la probabilit ` e d’un candidat d’ ´ etre un presque- ˆ
natif, nous devons estimer P(y = 1|X).
262.3. Optimisation de la fonction de score
Nous pouvons obtenir une estimation de P(y = 1|X) grace ˆ a l’ ` equation 2.14 avec ´
w0 = ln P(y=1)
P(y=0) + a0 et wi = ai
.
LOGIT(P(y = 1|E)) = ln P(y = 1|X)
1 − P(y = 1|X)
= w0 +
X
|A|
i=1
wiEi (2.14)
L’estimation de P(y = 1|X) est fournie par l’equation 2.15. ´
P(y = 1|X) = e
w0+
P|A|
i=1 wi xi
1 − e
w0+
P|A|
i=1 wi xi
(2.15)
Rappelons que notre objectif est de determiner les poids ´ wi permettant d’estimer
au mieux P(y = 1|X). Plusieurs methodes peuvent ´ etre utilis ˆ ees pour d ´ eterminer ces ´
poids. Classiquement en regression logistique, ces poids sont estim ´ es par maximum ´
de vraisemblance a partir d’un ` echantillon de donn ´ ees consid ´ er´ e comme repr ´ esentatif. ´
Nous ne detaillerons pas les calculs n ´ ecessaires pour l’estimation par maximum ´
de vraisemblance. Le lecteur interess ´ e par le maximum de vraisemblance appliqu ´ e au ´
raffinement de structures 3D pourra se ref´ erer ´ a [184]. `
D’autres approches peuvent etre utilis ˆ ees pour estimer les valeurs des poids, par ´
exemple des approches d’optimisation stochastiques telles que les algorithmes de type
evolutionnaire. ´
2.3.2 Algorithmes evolutionnaires ´
Les algorithmes evolutionnaires appartiennent ´ a la famille des m ` ethodes d’optimi- ´
sation stochastiques. Ces algorithmes permettent d’obtenir une solution approchee´ a`
un probleme. `
Dans notre cadre de travail, notre objectif est de pouvoir determiner, ´ a partir d’un `
ensemble d’attributs associes´ a un candidat, si celui-ci est un presque-natif ou non. Si `
nous nous replac¸ons dans le cadre de RosettaDock, nous cherchons a d ` eterminer les ´
poids wi
tels que E(X) = P|A|
i=1 wixi soit minimal si X est un presque-natif.
Pour determiner les poids ´ wi
, nous avons vu que nous pouvons estimer ces poids
par maximum de vraisemblance, mais nous pouvons aussi determiner ces poids par ´
rapport a une fonction objectif et un jeu de donn ` ees ´ etiquet ´ ees. Et comme indiqu ´ e´
prec´ edemment, notre objectif est de d ´ eterminer les poids ´ wi
tels que les presque-natifs
obtiennent des valeurs faibles pour E et les leurres des valeurs elev ´ ees. ´
Nous avons choisi de mettre en œuvre l’approche ROGER (ROC-based Evolutionary
learneR) [228]. Il s’agit d’une implementation en C d’un algorithme g ´ en´ etique cher- ´
chant a optimiser un vecteur de valeurs selon une fonction objectif. R ` OGER a pour
fonction objectif l’aire sous la courbe Receiver Operating Characteristic (ROC-AUC), a`
maximiser. En pratique, ROGER minimise la somme des rangs des exemples positifs,
qui est un equivalent de la maximisation de l’aire sous la courbe ROC. ´
Le principe de ROGER (principe gen´ eral des algorithmes ´ evolutionnaires) est illustr ´ e´
dans la figure 2.7.
27Chapitre 2. Approche Rosetta et adaptation
Le principe consiste a manipuler des individus g ` en´ etiques qui vont ´ evoluer dans ´
l’espace de recherche au moyen de mutations et de croisements de leur patrimoine
gen´ etique. ´
Plusieurs espaces de recherche peuvent etre d ˆ efinis. Dans notre cadre de travail, ´
l’espace de recherche est R
|A| car les |A| attributs caracterisant un candidat sont ´ a`
valeur reelle. ´
Un individu gen´ etique est d ´ efini comme l’ensemble des ´ |A| poids wi que nous cherchons
a d ` efinir. ´ Etant donn ´ e un individu g ´ en´ etique, tous les candidats du jeu d’appren- ´
tissage sont evalu ´ es et le score obtenu pour chaque individu permet d’ordonner tous ´
les candidats par valeur croissante de ce score (E tel que defini dans l’ ´ equation 2.10). ´
La qualite d’un individu g ´ en´ etique ´ f est evalu ´ ee´ a partir de ce tri. Cette qualit ` e se ´
definit simplement par la somme des rangs des exemples presque-natifs. ´
Le principe gen´ eral de R ´ OGER comporte globalement les cinq etapes suivantes ´
(voir fig. 2.7) :
1. gen´ eration al ´ eatoire de la population initiale des individus g ´ en´ etiques ( ´ µ parents),
puis evaluation de cette population ; ´
2. verification de la qualit ´ e de la population. Fin de l’algorithme si au moins l’un des ´
criteres d’arr ` et est atteint ; ˆ
3. evolution de cette population pour obtenir un ensemble d’enfants de cardinalit ´ e´
λ ; La gen´ eration de ces ´ λ enfants est realis ´ ee par mutation et croisement ´ a partir `
des µ parents de la population courante ;
4. evaluation de l’ensemble des ´ λ nouveaux enfants ;
5. selection de la nouvelle population, ne conservant que les ´ µ meilleurs individus
gen´ etiques ´ a partir de l’ensemble des individus de la population courante, ` i.e. les
µ parents + λ enfants.
Nous avons teste diff ´ erents couples de valeurs pour ´ µ et λ. Compte tenu des
performances obtenues et des temps de calculs, le meilleur couple de valeurs est
(µ, λ) = (10, 80).
Nous avons defini trois crit ´ eres d’arr ` et pour l’algorithme : ˆ
– le nombre maximum d’iterations est atteint (100 000 it ´ erations) ; ´
– le nombre maximum d’iterations sans am ´ elioration de la fonction objectif est at- ´
teint (20 000 iterations) ; ´
– l’optimum de la fonction objectif est atteint, c’est-a-dire que l’aire sous la courbe `
ROC est egale ´ a 1. `
ROGER peut apprendre differents types de fonctions parmis lesquels nous retrou- ´
vons des fonctions lineaires, polynomiales, logistiques, ´ etc.
2.3.3 Methodologie d’optimisation de la fonction de score atom- ´
ique
La methodologie g ´ en´ erale d’optimisation de la fonction de score atomique de Roset- ´
taDock peut se decomposer en 3 parties : ´
282.3. Optimisation de la fonction de score
Initialisation
Enfants (λ vecteurs)
Mutations et brassages Fonction objectif
Évaluation
Critère d'arrêt
(AUC, itérations... )
Parents (μ vecteurs)
Remplacement
Meilleurs parmi μ + λ
Évaluation
FIGURE 2.7 – Illustration de l’algorithme gen´ eral de R ´ OGER. Les parents et enfants
que ROGER manipule sont des vecteurs de valeurs. En encadres verts se trouvent ´
les vecteurs. Les etapes du processus sont encadr ´ ees en bleu et l’entr ´ ee et la sortie ´
sont en encadres noirs. R ´ OGER commence par choisir au hasard µ parents et les
evaluer. Puis, il g ´ en´ ere ` λ enfants par mutation et recombinaison a partir des ` µ parents.
ROGER evalue et s ´ electionne ensuite selon la fonction objectif les ´ µ meilleurs vecteurs
parmi les µ parents et λ enfants. Ces µ meilleurs vecteurs deviennent les µ parents de
l’iteration suivante, jusqu’ ´ a atteindre un crit ` ere d’arr ` et. ˆ
– la constitution des jeux de donnees, d ´ ej ´ a pr ` esent ´ ee au chapitre 1 ; ´
– l’apprentissage de la fonction de score sur l’ensemble des 120 complexes et
l’apprentissage des 120 fonctions de score en leave-”one-pdb”-out, present ´ es´
prec´ edemment dans cette m ´ eme section ; ˆ
– l’evaluation des 120 fonctions de score en ´ leave-”one-pdb”-out sur les candidats
de leur jeu d’evaluation et celle de la fonction de score sur les 40 000 candidats ´
de l’ensemble de validation.
Sur le diagramme 2.8, la premiere partie est d ` elimit ´ ee par les points ´ a, b et c.
Ces points a, b et c correspondent respectivement a la g ` en´ eration des candidats ´
par perturbation, a leur ` etiquetage en presque-natifs, leurres et leurres du test et ´ a`
l’echantillonnage sans remise des candidats des classes presque-natifs et leurres pour ´
constituer le jeu d’apprentissage. La seconde partie intervient aux points d et e dans la
construction des fonctions de score, qu’il s’agisse des 120 fonctions de score apprises
en leave-”one-pdb”-out – point d – ou de la fonction de score apprise sur l’ensemble
des 120 complexes – point e. La derniere partie est repr ` esent ´ ee par le point ´ f,
avec le calcul et l’observation des differentes mesures d’ ´ evaluation sur les exemples ´
de validation.
29Chapitre 2. Approche Rosetta et adaptation
PRIDBnr
133 pdb
Génération de candidats
par perturbation
10 000 structures par pdb
Filtre : pdb avec seulement
2 partenaires en interaction
133 pdb
oui
120 * 10 000 candidats
3 600 presque-natifs
3 600 leurres
120 pdb
354 344
leurres
a
b
c
Sépare les candidats
Irmsd(presque-natifs) ≤ 5 Å
Irmsd(leurres) > 8 Å
leurres de test sinon
Jeu
d'apprent.
7 200
candidats
Pour tout pdb :
#cand.(Irmsd ≤ 5 Å) ≥ 30
et
#cand.(Irmsd > 8 Å) ≥ 30
?
non
590 707
presquenatifs
120 * 10 000 candidats
254 949
leurres
de test
Échantillonnage sans remise :
candidats avec
#presque-natifs=#leurres=30
Ensemble
d'apprent.
1 200 000
candidats
Apprentissage + évaluation
Leave-"one-pdb"-out
Critères globaux
Inspection visuelle
Courbe ROC + ROC-AUC
#presque-natifs(top10)
#cand.(sous énergie native)
Score d'enrichment
d
Apprentissage
1 fonction de score
ROGER Logistique
e
Modèle de
fonction
de score
1 modèle
f
120 modèles
FIGURE 2.8 – Illustration de la methodologie d’optimisation de la fonction de score ´
atomique.
2.4 Evaluation de la fonction de score optimis ´ ee´
Le modele utilis ` e pour l’apprentissage et pr ´ esent ´ e pr ´ ec´ edemment peut faire l’objet ´
de variantes pour ameliorer le pouvoir pr ´ edictif tel qu’il est refl ´ et´ e par les diff ´ erentes ´
mesures d’evaluation. ´
Les choix sur les variantes dependent des connaissances ´ a priori sur le contexte de
la prediction prot ´ eine-ARN. D’une part, nous choisissons de tester les m ´ ethodologies ´
mises en œuvre dans la prediction d’interactions prot ´ eine-prot ´ eine. D’autre part, nous ´
prenons en compte les caracteristiques propres des ARN par rapport aux prot ´ eines, ´
notamment sa plus grande flexibilite. Parmi ces choix, nous pouvons identifier : ´
– la definition de l’intervalle de valeurs des poids des termes de score ; ´
– le filtrage a priori des candidats pour chaque complexe ;
– la categorisation des complexes en fonction de crit ´ eres sur leurs partenaires `
302.4. Evaluation de la fonction de score optimis ´ ee´
combinee´ a la mod ` elisation d’une fonction de score par cat ´ egorie de complexes. ´
2.4.1 Pouvoir predictif en fonction des contraintes ´
L’intervalle de valeurs dans lequel les poids des termes de score sont recherches´
influence les performances de la fonction de score obtenue pour maximiser la fonction
objectif. Une contrainte imposee sur cet intervalle de valeurs permet de simplifier la ´
recherche du maximum global en diminuant la taille de l’espace de recherche. Mais
contraindre l’intervalle de valeurs des poids peut aussi empecher de trouver les poids ˆ
permettant d’obtenir le maximum global. Il convient donc d’utiliser une contrainte astucieusement
choisie pour eviter les minima locaux tout en conservant dans l’intervalle ´
de valeurs les poids permettant d’obtenir le maximum global.
Quelles que soient les contraintes appliquees ´ a l’apprentissage dans R ` OGER, les
fonctions de score optimisees pour l’amarrage prot ´ eine-ARN surpassent les perfor- ´
mances de la fonction de score optimisee pour l’amarrage prot ´ eine-prot ´ eine qui est, ´
rappelons-le, la fonction par defaut de RosettaDock (voir tableau 2.3). La fonction de ´
score optimisee pour l’amarrage prot ´ eine-prot ´ eine a une AUC moyenne inf ´ erieure ´ a 0.4 `
et n’a que la moitie des complexes avec un nombre de presque-natifs non nul parmi le ´
top10 des candidats tries en ´ energie. De plus, seuls 15 des complexes ont une AUC ´
superieure ´ a 0.5. `
La contrainte a poids positifs, issue de la connaissance experte de l’amarrage `
proteine-prot ´ eine, donne de meilleurs r ´ esultats que la contrainte ´ a poids n ` egatifs ou ´
meme que l’absence de contrainte [101]. Les fonctions de score ˆ a poids positifs ont `
une ROC-AUC moyenne superieure de plus de 0.1 ´ a la ROC-AUC moyenne des autres `
fonctions de score. De plus, les fonctions de score a poids positifs ont une dizaine `
de complexes de plus avec une ROC-AUC superieure ´ a 0.5 et avec un nombre de `
presque-natifs non nul dans le top10 des candidats tries en ´ energie. ´
La contrainte a poids n ` egatifs donne des r ´ esultats quasi-identiques ´ a l’absence `
de contrainte. Ces deux manieres d’apprendre les fonctions de score donnent une `
ROC-AUC moyenne de 0.64, 105 complexes avec une ROC-AUC superieure ´ a 0.5 et `
109 complexes avec au moins 1 presque-natif dans le top10 des candidats tries en ´
energie. En l’absence de contrainte, les poids sont pi ´ eg´ es dans des minima locaux. Ce ´
sont justement ces minima locaux qui sont evit ´ es en appliquant la contrainte des poids ´
positifs. Etant donn ´ ee la similarit ´ e de r ´ esultats entre la contrainte n ´ egative et l’absence ´
de contrainte, la question est de savoir si les poids sont aussi similaires.
Il se trouve que les minima locaux des fonctions de score sans contrainte appliquee´
sur leurs poids sont pour certains negatifs ou nuls (voir fig. 2.9). Les poids en question ´
des fonctions de score sans contrainte sont donc effectivement pieg´ es dans l’intervalle ´
de valeurs negatif. ´
Les poids finalement acceptes ont surtout des valeurs non nulles pour quatre ter- ´
mes de score (voir fig. 2.10). Parmi ces quatre termes de score, trois d’entre eux correspondent
a des types de liaisons hydrog ` ene et ont une valeur proche de 1 pour quasi- `
ment tous les complexes. Ceci montre a quel point la formation des liaisons hydrog ` ene `
dans une interaction proteine-ARN est importante dans les structures biologiquement ´
31Chapitre 2. Approche Rosetta et adaptation
Classifieur ROC-AUC ROC-AUC > 0.5 #(top10E(Candidats))> 0
ROS 0.363±0.016 15 61
NEG 0.640±0.016 105 109
ALL 0.643±0.016 105 109
POS 0.798±0.018 119 117
TABLE 2.3 – Pour chaque intervalle de valeurs utilise comme contrainte d’apprentis- ´
sage des poids par ROGER lineaire sont indiqu ´ es : la moyenne et la variance de la ´
ROC-AUC, le nombre de complexes pour lesquels la ROC-AUC est superieure ´ a 0.5 et `
le nombre de complexes avec un #presque-natifs (top10E(Candidats)) non nul. ROGER
lineaire positif (POS) a pour contrainte l’intervalle de valeurs positif [0 ; 1], R ´ OGER
lineaire (ALL) l’intervalle de valeurs sans contrainte [ ´ −1 ; 1] et ROGER lineaire n ´ egatif ´
(NEG) l’intervalle de valeurs negatif [ ´ −1 ; 0]. La fonction de score par defaut est celle ´
implement ´ ee dans RosettaDock et optimis ´ ee pour l’amarrage prot ´ eine-prot ´ eine. ´
actives. Le seul type de liaison hydrogene qui n’est pas privil ` egi ´ e correspond aux li- ´
aisons hydrogene entre les atomes de la cha ` ˆıne laterale de l’un des partenaires et les ´
atomes du squelette de l’autre partenaire. Le dernier terme de score a une valeur qui
avoisine les 0.2 et correspond a l’affinit ` e entre paires d’atomes. ´
2.4.2 Fonction de score dedi ´ ee pour chaque type d’ARN ´
Une des hypotheses de travail est de consid ` erer que l’interaction entre la prot ´ eine et ´
l’ARN depend de la forme des partenaires. Dans cette optique, nous avons cat ´ egoris ´ e´
les complexes en trois types, en fonction de la forme gen´ erale de l’ARN : simple brin ´
(ss), double brin (ds) et ARN de transfert mature (tRNA). Puis, nous avons modelis ´ e´
une fonction de score pour chaque categorie de complexes. Pour chaque fonction ´
de score ainsi modelis ´ ee, nous avons proc ´ ed´ e, en amont de l’apprentissage et de ´
l’evaluation, ´ a un filtre des complexes pour ne garder que les complexes de la cat ` egorie ´
correspondant a la fonction. `
Les resultats de l’ ´ evaluation indiquent que les complexes mettant en jeu un tRNA ´
mature sont un peu mieux modelis ´ es avec une fonction de score d ´ edi ´ ee (voir tableau ´
2.4). Les deux autres fonctions de score dedi ´ ees ne montrent pas d’am ´ elioration par ´
rapport a la fonction de score R ` OGER a poids positifs. `
2.4.3 Combinaison lineaire ´ a poids positifs `
Apres apprentissage de la fonction de score ` a combinaison lin ` eaire par R ´ OGER
avec des coefficients des termes de score contraints aux valeurs dans [0 ; 1], la fonction
de score est evalu ´ ee. Pour chaque mesure d’ ´ evaluation, nous allons ´ evaluer les ´
120 fonctions de score gen´ er´ ees par ´ leave-”one-pdb”-out et la fonction de score globale
sur le jeu de donnees issu des ´ Benchmarks I et II.
322.4. Evaluation de la fonction de score optimis ´ ee´
●
●
●
●
●
●
●●
●
●
●
●
●
●
−1.0 −0.5 0.0 0.5 1.0
Poids
●
●●
●
●
●
●
●●
●
●
●
●
●●●
●
●●
●
●
●●
●
●
●
●
●
●
●
●●
●
●●
●
●
●
●
●
●
●
●
●●
●
−1.0 −0.5 0.0 0.5 1.0
fa_atr
fa_rep
fa_dun
fa_sol
fa_pair
hbond_lr_bb
hbond_sr_bb
hbond_bb_sc
hbond_sc
hack_elec
FIGURE 2.9 – Repartition de la valeur des coefficients par poids et contrainte d’inter- ´
valle de valeurs, pour les 120 fonctions de score gen´ er´ ees par le ´ leave-”one-pdb”-out
mis en œuvre sur la PRIDB. Les points en losange jaune correspondent aux valeurs
des coefficients des poids de la fonction de score par defaut de RosettaDock, ROS. ´
Les boˆıtes a moustache repr ` esentent les valeurs des coefficients des termes de score ´
pour un intervalle de definition n ´ egatif (en bleu) ou sans contrainte (en noir). ´
2.4.3.1 Pouvoir predictif de la fonction de score ´
La ROC-AUC est superieure ´ a 0.7 pour 89 des 120 complexes, montrant un pouvoir `
predictif important (voir tableau S12). Globalement, les presque-natifs sont donc bien ´
separ ´ es des leurres. La ROC-AUC est en moyenne de 0.8 et sa variance de 0.02. ´
Lges courbes ROC ont une pente a l’origine ` elev ´ ee, comme on peut le voir pour les ´
33Chapitre 2. Approche Rosetta et adaptation
FIGURE 2.10 – Repartition de la valeur des coefficients par poids, pour les 120 fonc- ´
tions de score gen´ er´ ees par le ´ leave-”one-pdb”-out mis en œuvre sur la PRIDB. Les
points en losange correspondent aux valeurs des coefficients des poids de la fonction
de score par defaut de RosettaDock, ROS. ´
complexes etant ´ a la m ` ediane, au premier quartile et au troisi ´ eme quartile en ROC- `
AUC (voir fig. 2.11). Sur l’ensemble des complexes, seuls 8 des 120 ont une pente a`
l’origine insatisfaisante (voir fig. 2.12).
Dans le jeu de donnees issu des ´ Benchmarks I et II, les resultats des fonctions de ´
score ROGER sont similaires a ceux pour le jeu de donn ` ees de perturbations issu de ´
la PRIDB (voir fig 2.11).
342.4. Evaluation de la fonction de score optimis ´ ee´
Categorie ´ Mediane(ROC-AUC) ´ ROC-AUC > 0.7 ROC-AUC > 0.6 Complexes
POS 0.82 0.73 0.88 120
POS ds 0.81 0.69 0.87 55
POS ss 0.80 0.76 0.88 33
POS tRNA 0.87 0.84 0.97 32
TABLE 2.4 – Evaluation du mod ´ ele de pr ` ediction d ´ edi ´ e par cat ´ egorie de complexes. Les ´
categories double brin (POS ds), simple brin (POS ss) et ARN de transfert (POS tRNA) ´
sont comparees ´ a la fonction de score sans cat ` egorisation des complexes (POS). La ´
mediane de la ROC-AUC, et la proportion des complexes v ´ erifiant une condition sur la ´
ROC-AUC parmi les complexes de la categorie sont compar ´ ees. La derni ´ ere colonne `
correspond au nombre de complexes dans la categorie. On peut remarquer que la ´
fonction de score dedi ´ ee aux complexes avec un ARNt mature donne de meilleures ´
performances que la fonction de score traitant indifferemment les complexes. Les deux ´
autres fonctions de score dedi ´ ees donnent des r ´ esultats similaires ´ a la fonction de `
score non dedi ´ ee. ´
2.4.3.2 Enrichissement du tri des candidats
Le score d’enrichissement defini au chapitre 1 montre un enrichissement du tri pour ´
27 des 120 complexes : ces 27 complexes ont un score d’enrichissement superieur ´
a 6. Sur les 120 complexes, 6 complexes ont un enrichissement inf ` erieur ´ a 1. ` A la `
lumiere de ces r ` esultats, il faut rappeler que la fonction de score apprend ´ a s ` eparer ´
deux classes - presque-natifs et leurres - qui sont distinguees l’une de l’autre par un ´
seuil fixe de 5A en I ˚ RMSD. Or, le score d’enrichissement considere les 10 % premiers `
candidats en IRMSD comme des presque-natifs et regarde parmi eux la proportion des
10 % premiers candidats en energie. Dans un ensemble de candidats g ´ en´ er´ es par ´
faible perturbation, il arrive frequemment qu’un seuil d ´ efini ´ a 10 % des candidats en `
IRMSD soit tres inf ` erieur ´ a 5 ` A (de l’ordre de 1 ˚ a 2 ` A). De mani ˚ ere g ` en´ erale, le score ´
d’enrichissement est donc d’autant moins bon que le seuil a 10 % des candidats en `
IRMSD s’ecarte de 5 ´ A. Le r ˚ esultat obtenu est plus coh ´ erent avec les autres mesures ´
d’evaluation pour un score d’enrichissement ´ a` X % ou` X est la proportion de candidats
necessaires pour avoir un seuil en I ´ RMSD de 5A. Pour R ˚ OGER, le score d’enrichissement
ainsi calcule est sup ´ erieur ´ a 6 pour 94 des 120 complexes, contre seulement `
42 complexes pour ROS. Et aucun complexe n’a un score inferieur ´ a 2 pour le score `
ROGER, contre 41 complexes pour ROS.
2.4.3.3 Detection d’entonnoir ´
Les courbes d’EvsIrms permettent de detecter un entonnoir pour 94 des 120 com- ´
plexes (voir fig. S1). Ceci suggere que la fonction de score est utilisable en amarrage `
atomique pour affiner une structure 3D dont on a detect ´ e l’ ´ epitope. ´
On pourrait penser que la separation des candidats en presque-natifs et leurres ´
selon un seuil fixe a un impact sur la signification de la prediction. Si la fonction de ´
35Chapitre 2. Approche Rosetta et adaptation
FIGURE 2.11 – Courbes ROC pour trois complexes de la PRIDB avec la fonction de
score POS (a) et ROS (b), avec les courbes ROC pour trois complexes du Benchmark
I (c) et du Benchmark II (d). Les trois complexes utilises´ a chaque fois sont choisis `
parce qu’ils sont les plus proches de la mediane (en trait plein), le 1 ´
er quartile et le 3e
quartile (en pointilles) en ROC-AUC. La ROC-AUC de la m ´ ediane est ´ a chaque fois `
indiquee. ´
score apprend correctement a s ` eparer les classes, les candidats pr ´ edits presque-natifs ´
ont une forte chance d’avoir un IRMSD ≤ 5A. Mais la pr ˚ ediction pourrait ne pas don- ´
ner d’information plus forte sur la divergence entre le presque-natif et la structure native.
Pourtant, on constate avec la detection d’entonnoir que les caract ´ eristiques de ´
l’interaction ont correctement et ´ e mod ´ elis ´ ees par la fonction de score pour approxima- ´
tivement 100 des 120 complexes. En effet, les candidats de meilleure energie tendent ´
362.4. Evaluation de la fonction de score optimis ´ ee´
0.0 0.2 0.4 0.6 0.8 1.0
0.0 0.2 0.4 0.6 0.8 1.0
Irmsd
Score
FIGURE 2.12 – Courbes ROC pour 8 complexes de la PRIDB avec la fonction de score
POS. Ces 8 complexes ont et ´ e choisis pour la faible valeur de leur pente ´ a l’origine. `
aussi a` etre ceux qui ont le meilleur I ˆ RMSD et non n’importe quel IRMSD entre 0 et
5A. Cette information a ˚ et ´ e retrouv ´ ee par le mod ´ ele de fonction de score alors qu’elle `
n’etait pas fournie en entr ´ ee de l’apprentissage. ´
Il reste neanmoins des cas o ´ u un entonnoir n’est tout simplement pas d ` etect ´ e.´
Pour ces complexes pour lesquels l’interaction n’est pas capturee, une structure 3D ´
alternative est quelque fois proposee par la fonction de score, d’ ´ energie plus ´ elev ´ ee´
que l’interaction recherchee. Il s’agit ici de 1jbs et 1t0k, pour lesquels plusieurs leurres ´
de meme I ˆ RMSD sont proposes par la fonction de score. ´
Mais il y a aussi des cas ou la fonction de score privil ` egie de fac¸on consistante des ´
structures plus eloign ´ ees de la native, sans pour autant qu’il s’agisse de leurres. C’est ´
37Chapitre 2. Approche Rosetta et adaptation
1jbs (ES = 0.79)
Irmsd (Å)
Score
0 20
−22 −12
0 20
1t0k (ES = 1.34)
Irmsd (Å)
Score
0 20
21 34
0 20
FIGURE 2.13 – Diagrammes d’energie en fonction du I ´ RMSD pour deux complexes de
la PRIDB avec la fonction POS. On constate que la fonction de score propose une
interaction differente de celle de la structure native, alors qu’elle d ´ etecte tr ´ es bien un `
entonnoir pour 94 des 120 complexes.
notamment le cas pour 1feu, 1j1u ou 1pgl, ainsi que, dans une moindre mesure, pour
1asy, 1av6 ou 1b23. Pour certains de ces complexes, les candidats mis en avant par la
prediction ´ evitent davantage l’interp ´ en´ etration des partenaires que la structure native. ´
Pour d’autres, un entonnoir est meme visible en plus du premier entonnoir et laisse ˆ
suspecter une potentielle interaction de plus haute energie. Les complexes 2bx2, 2d6f ´
et, surtout, 3egz montrent en effet qu’une seconde interaction est compatible avec le
modele de fonction de score (voir fig. 2.14). `
2bx2 (ES = 2.08)
Irmsd (Å)
Score
0 20
2 12
0 20
2d6f (ES = 2.75)
Irmsd (Å)
Score
0 20
6 17
0 20
3egz (ES = 3.05)
Irmsd (Å)
Score
0 20
−17 −6
0 20
FIGURE 2.14 – Diagrammes d’energie en fonction du I ´ RMSD pour trois complexes de
la PRIDB avec la fonction POS. On constate que la fonction de score propose, en plus
de presque-natifs proches de la structure native, une interaction alternative a celle de `
la structure native.
2.4.3.4 Repartition des coefficients des termes de score ´
Les coefficients des termes de score nous permettent de mieux comprendre les
forces en jeu influenc¸ant le plus les interactions entre proteines et ARN. On peut re- ´
marquer plusieurs types de comportements parmi tous les complexes. Notamment, le
382.4. Evaluation de la fonction de score optimis ´ ee´
comportement le plus remarque est celui o ´ u les termes de score hbond, repr ` esentant ´
la stabilite provenant des liaisons hydrog ´ ene, ont des coefficients ` elev ´ es. Mais sur ´
les quatre types de termes de score hbond, seuls trois d’entre eux ont des valeurs
elev ´ ees : le coefficient reste tr ´ es faible pour le score hbond ` bb sc, qui represente les ´
liaisons hydrogene entre le squelette d’un partenaire et les cha ` ˆınes laterales de l’autre ´
partenaire. Ceci indique que les complexes proteine-ARN ont tendance ´ a former des `
liaisons entre les atomes de leurs squelettes a courte et moyenne port ` ee, mais aussi ´
entre les atomes des chaˆınes laterales. ´
Code PDB fa atr fa rep fa dun fa sol fa pair
1h3e 0.000496 0.000793 0.000009 0.000944 0.22261
1j2b 0.000653 0.000337 0.000023 0.000474 0.175237
3ex7 0.00058 0.000314 0.000009 0.000511 0.166342
Code PDB hbond lr bb hbond sr bb hbond bb sc hbond sc hack elec
1h3e 0.999557 0.999906 0.000132 0.999968 0.000726
1j2b 0.999245 0.999941 0.000627 0.99933 0.000559
3ex7 0.999739 0.999963 0.000301 0.999195 0.000479
TABLE 2.5 – Trois exemples types de coefficients des termes de score hbond elev ´ es. ´
Les valeurs des coefficients tournent toujours autour de valeurs tres faibles ( ` < 10−3
) ou
tres hautes ( ` > 1−10−3
). Le seul terme de score faisant exception a la r ` egle est le terme `
de score fa pair, modelisant l’affinit ´ e entre atomes en fonction de leur environnement. ´
2.4.4 Filtrage a priori des candidats du modele atomique `
Avec le filtrage a priori des candidats pour chaque complexe, le modele rejette `
d’emblee de la pr ´ ediction une partie des candidats, principalement pour deux raisons. ´
D’une part, les candidats peuvent etre rejet ˆ es parce qu’ils sont des leurres ´ evidents. ´
D’autre part, pour certains candidats, il peut etre trop difficile de discriminer entre ˆ
presque-natif et leurre. Il devient alors acceptable de rejeter ces candidats si la proportion
de presque-natifs parmi eux est suffisamment faible et si les retirer du jeu
d’apprentissage permet d’ameliorer la pr ´ ediction. ´
Nous avons proced´ e´ a un filtre en fonction du score donn ` e par le terme de score ´
fa rep, qui donne une quantification du chevauchement entre les deux partenaires.
Nous ne conservons que les candidats en-dessous de la mediane du terme de score ´
de fa rep, ce qui signifie que nous choisissons systematiquement de ne conserver que ´
les 5 000 meilleurs candidats en fa rep. En realit ´ e, il ne s’agit pas exactement des 5 000 ´
meilleurs candidats en fa rep. Le nombre exact de candidats retenu peut etre sup ˆ erieur ´
a 5 000, puisque la valeur en fa ` rep peut etre identique entre candidats autour du seuil ˆ
des 5 000 meilleurs candidats en fa rep.
Sur les 120 complexes de la PRIDB, 54 n’ont que des complexes presque-natifs
apres utilisation du filtre. Ceci montre l’importance du terme de score fa ` rep dans la
39Chapitre 2. Approche Rosetta et adaptation
determination des structures repr ´ esentant le mieux l’interaction, mais aussi que ce ´
terme de score ne suffit pas a pr ` edire l’interaction. ´
Sur les 66 complexes restants, qui disposent encore de leurres, on constate une
diminution drastique des performances en ROC-AUC. Sur ces complexes, 28 ont une
diminution de plus de 0.05 du ROC-AUC pour POS. Le filtre a permis d’ecarter des ´
candidats qui etaient des leurres tr ´ es faciles ` a discerner des presque-natifs pour les `
fonctions de score employees. ´
Cependant, nous observons aussi une augmentation du nombre de presque-natifs
dans le top10. Les 3 complexes pour lesquels il est le plus difficile pour POS de predire ´
des presque-natifs dans le top10 ont, apres filtre, tous au moins un presque-natif dans `
le top10 (voir tableau 2.6). De plus, le nombre de complexes pour lesquels il n’y a
aucun presque-natif dans le top10 passe de 59 a 22 pour la fonction de score ROS. `
pdb Enrichissement Top10 Top100 Presque-natifs Seuil ROC-AUC
ROS POS ROS POS ROS POS ROS POS
1jbs 0.38 0.40 0 1 35 32 2528 5003 0.49 0.55
1t0k 0.61 1.03 9 8 79 76 3725 5002 0.51 0.56
2anr 0.38 1.04 8 6 43 75 2927 5000 0.43 0.56
TABLE 2.6 – Les trois complexes les plus difficiles a pr ` edire pour la fonction de score ´
POS ont tous au moins 1 candidat presque-natif dans le top10 apres utilisation du filtre `
de la mediane en fa ´ rep, alors qu’ils etaient les seuls ´ a avoir un nombre de presque- `
natif dans le top10 a 0 sans usage du filtre. Pourtant, le ROC-AUC reste faible (0.55 `
environ).
Nous pourrions etre tent ˆ es de conserver le filtrage par la m ´ ediane en fa ´ rep dans
la suite de ces travaux. En effet, ce filtre a priori permet d’ameliorer les r ´ esultats quant ´
a l’objectif fix ` e de maximiser le nombre de presque-natifs dans le top10. Cependant, ´
il faut se rappeler que les candidats rejetes par ce filtre ´ a priori sont rejetes parce ´
qu’ils presentent une interp ´ en´ etration trop importante. Or, de tels candidats ne sont ´
pas attendus apres une g ` en´ eration de candidats ayant incorpor ´ e l’utilisation d’un filtre ´
adapte pour rejeter les candidats pr ´ esentant des caract ´ eristiques trop ´ eloign ´ ees des ´
attentes biologiques (interpen´ etration trop importante, distance trop importante entre ´
les atomes des partenaires, etc.).
Il est ainsi conseille d’employer le filtrage par la m ´ ediane en fa ´ rep en l’absence
de tout autre filtre ou de tout amarrage pouvant garantir que les candidats gen´ er´ es ne ´
presentent pas d’interp ´ en´ etration n’ayant aucun sens biologique. Mais l’objectif dans ´
les chapitres suivants est justement d’arriver a un protocole de pr ` ediction d’interactions ´
proteine-ARN o ´ u les candidats soumis ` a la pr ` ediction atomique ont un sens biologique. ´
402.5. Conclusions sur la fonction de score atomique
2.5 Conclusions sur la fonction de score atomique
Nous avons pu voir dans ce chapitre la fonction de score atomique implement ´ ee´
par defaut dans RosettaDock, ROS. Vu que ROS n’est pas optimis ´ e pour la pr ´ ediction ´
d’interactions proteine-ARN, ses performances ne permettent pas la pr ´ ediction d’in- ´
teractions entre proteine et ARN, encore moins le raffinement de structures 3D. Nous ´
avons constate que les mesures d’ ´ evaluation globales ne permettent pas d’obtenir d’in- ´
formations sur l’objectif fixe, qui est de maximiser le nombre de presque-natifs dans ´
le top10 des candidats. Dans cette optique, les mesures d’evaluation locales se sont ´
aver´ ees plus utiles. L’optimisation de la fonction de score atomique, en conservant ´
les contraintes de RosettaDock, a permis d’obtenir des performances bien meilleures.
Ce gain de performance a et ´ e conditionn ´ e´ a un apprentissage contraint ` a l’intervalle `
de definition positif, [0 ; 1], raison pour laquelle la fonction de score apprise s’appelle ´
POS. Nous avons confronte POS ´ a deux autres fonctions de score, ALL et NEG, re- `
spectivement sur l’intervalle de definition [ ´ −1 ; 1] pour ALL et [−1 ; 0] pour NEG. Cette
confrontation a permis de montrer l’efficacite de POS, dont l’intervalle de d ´ efinition ´
est tire de la connaissance ´ a priori de l’amarrage proteine-prot ´ eine. Un filtre ´ a priori
permet d’ameliorer la pr ´ ediction donn ´ ee par ROS, mais les r ´ esultats sont encore peu ´
stables, marquant des ecarts de performance importantes entre les diff ´ erents com- ´
plexes. Ce filtre consiste a ne conserver pour la pr ` ediction que les candidats dont la ´
valeur du terme de score fa rep est inferieure ´ a celle de la m ` ediane de fa ´ rep sur les
10 000 candidats gen´ er´ es. ´
Nous avons donc obtenu une fonction de score POS non seulement capable de
predire l’interaction prot ´ eine-ARN, mais aussi d’ ´ etre efficace dans le raffinement de ˆ
structures 3D proteine-ARN. Il reste maintenant ´ a concevoir une fonction de score `
s’affranchissant des contraintes de RosettaDock, pour esperer mieux mod ´ eliser encore ´
l’interaction. La finalite est d’obtenir un protocole d’amarrage de pr ´ ediction d’interaction ´
proteine-ARN multi- ´ echelle, ce qui implique la mod ´ elisation d’une fonction de score ´ a`
une autre echelle. Cette fonction de score sur une autre ´ echelle peut servir de filtre ´ a
priori pour diminuer les temps de calcul et ecarter les leurres les plus simples. C’est ´
pourquoi, dans un second temps, nous nous focaliserons sur une echelle gros-grain. ´
41Chapitre 2. Approche Rosetta et adaptation
42Chapitre 3
Approche a posteriori
Nous avons vu, dans le chapitre prec´ edent, l’approche classique mise en œuvre ´
dans RosettaDock pour la gen´ eration et l’ ´ evaluation de candidats. Le choix de Roset- ´
taDock impose de se restreindre a une fonction d’ ` evaluation qui est une combinaison ´
lineaire des attributs associ ´ es´ a chaque candidat. `
Comme nous le verrons par la suite, RosettaDock peut gen´ erer des candidats ´
presque-natifs qui, d’apres la fonction d’ ` evaluation utilis ´ ee, ne sont pas class ´ es parmi ´
les meilleurs candidats. Il n’est donc pas toujours possible, en utilisant seulement
une fonction de type combinaison lineaire, de mettre en avant les meilleurs candi- ´
dats gen´ er´ es par RosettaDock. Nous nous sommes donc focalis ´ e sur d’autres familles ´
de fonctions afin de pouvoir ordonner plus efficacement les candidats gen´ er´ es par ´
RosettaDock. Sachant que ces fonctions ne pourront etre appliqu ˆ ees qu’en post- ´
traitement de RosettaDock, c’est-a-dire sans interaction directe avec RosettaDock, `
nous appelerons les approches mises en œuvre pour obtenir ces nouvelles fonctions
de tri : modeles ` a posteriori.
3.1 Modeles ` a posteriori
Les modeles de fonction de score ` a posteriori ne sont pas utilises directement par ´
RosettaDock et peuvent ainsi s’affranchir de la contrainte de la combinaison lineaire. ´
Les candidats sont initialement gen´ er´ es par RosettaDock puis tri ´ es par une fonction de ´
score appliquee en post traitement. Notons qu’un tri ´ a posteriori ne permet pas d’orienter
la gen´ eration des candidats durant l’ ´ etape de g ´ en´ eration. Sachant qu’il est possible ´
de fournir a RosettaDock un ensemble de candidats ` a priori peu divergeant des solutions
recherchees, nous pouvons parfaitement envisager de coupler des phases de ´
gen´ eration de candidats suivies de s ´ election des meilleurs candidats en appliquant les ´
fonctions de tri que nous presenterons par la suite. Les meilleurs candidats pourront ´
alors etre utilis ˆ es comme conformations initiales pour l’it ´ eration suivante de Rosetta- ´
Dock.
De nombreuses approches peuvent etre mises en œuvre pour apprendre des fonc- ˆ
tions de score a partir des attributs disponibles pour chaque candidat. Nous avons `
etudi ´ e diff ´ erentes approches reposant sur l’apprentissage de mod ´ eles : fonctions de `
43Chapitre 3. Approche a posteriori
score de type combinaison lineaire ´ etendue, arbres ou r ´ egles de d ` ecision, mod ´ ele`
bayesien na ´ ¨ıf, etc.
3.1.1 Combinaison lineaire ´
La combinaison lineaire de termes physico-chimiques est la seule forme de fonc- ´
tion de score que RosettaDock peut nativement utiliser. L’equation 3.1 montre pour le ´
candidat X la combinaison lineaire ´ f(X) des attributs xi ou` wi representent les poids ´
qui doivent etre appris pour chaque attribut. ˆ
f(X) = X
|A|
i=1
wixi (3.1)
Cette modelisation peut ´ etre ˆ etendue en int ´ egrant la notion de ´ valeur de centrage
associee´ a chaque attribut. `
Les valeurs de centrage doivent etre apprises pour chaque attribut. Ces valeurs ˆ
vont permettre de determiner si la contribution au score de chaque attribut est lin ´ eaire ´
ou non.
La nouvelle fonction de score obtenue, fc, est definie par l’ ´ equation 3.2, o ´ u` X
represente le candidat, ´ xi
la valeur du i
e attribut, wi son poids et ci sa valeur de centrage.
Ainsi, la prise en consideration des valeurs de centrage, permet d’obtenir, pour ´
chaque attribut, un comportement lineaire par partie : croissant (resp. d ´ ecroissant) ´
jusqu’a un seuil ` ci puis decroissante (resp. croissant) apr ´ es le seuil. Notons que la `
contribution de xi est nulle au point ci
.
fc(X) = X
|A|
i=1
wi
|xi − ci
| (3.2)
A l’image des diff ` erents noyaux utilis ´ es pour les SVM, d’autres types de fonctions ´
peuvent etre prises en consid ˆ eration : polynomiales, quadratiques, gaussiennes, ´ etc.
Notre principal objectif n’etant pas d’apprendre une fonction d’ordonnancement des ´
candidats, mais plutot de pouvoir identifier efficacement les candidats presque-natifs, ˆ
nous nous sommes focalises sur des approches permettant d’apprendre des mod ´ eles `
predicitifs. ´
3.1.2 Approches dites ”explicatives” : arbres et regles de d ` ecision ´
Les arbres et les regles de d ` ecision appartienent ´ a la famille des mod ` eles ”expli- `
catifs” ou ”comprehensibles”. En effet, lorsqu’un arbre de d ´ ecision est appris sur des ´
donnees, il est ais ´ e de proposer ´ a l’expert une repr ` esentation graphique des donn ´ ees. ´
L’expert peut alors tres facilement comprendre le mod ` ele obtenu et se l’approprier. `
L’une des limitations de ces approches (arbres ou regles de d ` ecision) est la taille de ´
l’arbre obtenu (ou la quantite de r ´ egles). `
443.1. Modeles a posteriori `
Pour illustration, voici un exemple simple d’arbre de decision (voir fig. 3.1). Sur trois ´
attributs fa dun, fa pair et fa rep, 50 exemples fictifs sont utilises pour la pr ´ ediction : ´
25 presque-natifs et 25 leurres. La valeur de chacun des attributs est dans l’intervalle
[0 ; 1] pour les 50 exemples. Voici le resultat de l’apprentissage d’un arbre d ´ ecisionnel ´
sur ces 50 exemples fictifs :
• fa dun≥ 0.43
• fa rep≤ 0.72 (presque-natifs) : 13 presque-natifs et 5 leurres
• fa rep> 0.72 (leurres) : 16 leurres et 4 presque-natifs
• fa dun< 0.43
• fa pair< 0.14 (presque-natifs) : 2 presque-natifs
• fa pair≥ 0.14
• fa rep> 0.65 (leurres) : 3 leurres
• fa rep≤ 0.65 (presque-natifs) : 6 presque-natifs et 1 leurre
FIGURE 3.1 – Exemple d’arbre de decision sur 50 exemples fictifs r ´ epartis en 25 ´
presque-natifs et 25 leurres, avec 3 attributs : fa dun, fa pair et fa rep.
Cet exemple fictif commence par separer en deux les 50 exemples selon fa ´ dun,
avec un seuil de 0.43. Les exemples avec fa dun≥ 0.43 sont ensuite separ ´ es selon ´
fa rep, avec un seuil de 0.72, a la suite de quoi deux feuilles sont donc cr ` e´ees. La ´
premiere feuille correspond aux exemples avec fa ` dun≥ 0.43 et fa rep≤ 0.72 et est
peuple de 13 presque-natifs et 5 leurres. En pr ´ ediction, comme cette feuille est ma- ´
joritairement peuplee de presque-natifs, un exemple dont la classe est ´ a pr ` edire et qui ´
serait attribue´ a cette feuille serait pr ` edit presque-natif. La seconde feuille correspond ´
aux exemples avec fa rep> 0.72 parmi les exemples de fa dun≥ 0.43. Cette feuille
est peuplee de 16 leurres et 4 presque-natifs, et pr ´ edit comme un leurre tout exemple ´
correspondant a ses seuils. `
Pour les exemples avec fa dun< 0.43, une seconde separation est effectu ´ ee avec ´
un seuil de 0.14 sur fa pair. Nous tombons directement sur une feuille pour fa dun<
0.43 et fa pair< 0.14, peuplee de 2 presque-natifs. Pour fa ´ dun< 0.43 et fa pair≥
0.14, une troisieme s ` eparation selon fa ´ rep est effectuee, avec un seuil de 0.65. Les ´
exemples avec fa dun< 0.43, fa pair≥ 0.14 et fa rep> 0.65 sont au nombre de 3
et sont tous des leurres. La derniere feuille a 7 exemples, dont 6 presque-natifs et `
1 leurre, avec fa dun< 0.43, fa pair≥ 0.14 et fa rep≤ 0.65. Cette feuille predit les ´
exemples comme etant des presque-natifs. ´
Dans cet exemple fictif, on peut remarquer deux cas de figure : les feuilles ou les `
exemples sont de meme classe et les feuilles o ˆ u il y a des exemples des deux classes. `
Dans le cas ou les exemples sont de m ` eme classe, il para ˆ ˆıt evident que les exemples ´
a pr ` edire dont les valeurs d’attributs correspondent ´ a cette feuille sont pr ` edits comme ´
etant de la classe des exemples de la feuille. Dans le second cas, c’est la classe ´
majoritaire qui est consider´ ee comme ´ etant la classe de la feuille. ´
On peut aussi remarquer que les deux premieres feuilles sont peupl ` ees d’exemples ´
des deux classes, alors qu’il reste un dernier attribut selon lequel les exemples n’ont
pas et ´ e s ´ epar ´ es. L’apprentissage de l’arbre a consid ´ er´ e que cette s ´ eparation en fa ´ pair
n’apportait pas d’information supplementaire ´ a la pr ` ediction. ´
45Chapitre 3. Approche a posteriori
La taille de l’arbre est ici relativement petite, mais cette taille peut grandement augmenter
avec le nombre d’attributs et d’exemples.
Le principal inter´ et des arbres (ou r ˆ egles) de d ` ecision dans notre travail ne r ´ eside ´
pas dans leur pouvoir explicatif mais plutot dans la m ˆ ethode mise en œuvre pour ap- ´
prendre les modeles. `
L’apprentissage des arbres de decision repose sur le principe ´ diviser-pour-regner ´ .
Le principe gen´ eral est de diviser it ´ erativement, chaque fois selon un attribut, l’ensem- ´
ble des exemples en sous-ensembles pour lesquels les exemples ont plus de probabilite
d’ ´ etre d’une classe donn ˆ ee. La construction de l’arbre de d ´ ecision d ´ ebute l’ensem- ´
ble des exemples. L’objectif est de determiner le couple (attribut, valeur) permettant ´
d’obtenir une partition ”optimale” des donnees. Plusieurs mesures permettent d’ ´ evaluer ´
la qualite des partitions obtenues. Parmi les crit ´ eres classiquement utilis ` es, nous pou- ´
vons citer le gain de Gini, l’entropie de Shannon, etc.
Sans rentrer dans les details techniques de l’algorithme que nous avons utilis ´ e,´ a`
savoir C4.5 [207] (algorithme de ref ´ erence pour les arbres de d ´ ecision), nous pr ´ ecisons ´
tout de meme que le crit ˆ ere utilis ` e pour s ´ electionner les couples (attribut, valeur) per- ´
mettant de construire un arbre de decision est l’entropie de Shannon. ´
L’algorithme ne procede pas ` a une s ` eparation en nœuds fils s’il se trouve dans l’un ´
des cas suivants :
– tous les exemples du nœud courant sont de la meme classe ˆ y, ce qui cree une ´
feuille etiquet ´ ee avec la classe ´ y ;
– tous les attributs obtiennent un gain d’information normalise nul, ce qui cr ´ ee une ´
feuille etiquet ´ ee de la classe majoritaire ; ´
– la taille d’au moins une des partitions cre´e est inf ´ erieure ´ a un seuil pr ` ed´ efini. ´
Dans le premier cas, le classement est parfait suivant les exemples du jeu d’apprentissage.
Dans le second cas, les attributs ne permettent pas d’ameliorer davantage le ´
gain d’information et toute inference suppl ´ ementaire de r ´ egles de d ` ecision est donc ´
inutile du point de vue des donnees disponibles en apprentissage. Le troisi ´ eme cas `
correspond a la situation o ` u, malgr ` e l’ensemble des tests d ´ ej ´ a effectu ` es, la partition ´
courant n’est toujours pas pure mais sa taille est telle qu’il n’est pas raisonnable de
continuer a rafiner car cela impliquerait du surapprentissage. `
D’autres arbres de decision peuvent ´ etre obtenus, par exemple des arbres de ˆ
decision partiels tels que l’algorithme P ´ ART permet d’en construire. L’algorithm PART
gen´ ere des arbres de d ` ecision partiels sans optimisation globale des r ´ egles apprises. `
La meme strat ˆ egie d’apprentissage que celle pr ´ esent ´ ee pr ´ ec´ edemment pour les ar- ´
bres de decision, ´ a savoir diviser-pour-r ` egner, est utilis ´ ee dans P ´ ART. PART commence
par creer un arbre de d ´ ecision ´ elagu ´ e, qui divise les candidats en sous-ensembles ´
dans les nœuds de l’arbre. Pour ce faire, PART divise en sous-ensembles les candidats
d’un sous-ensemble n’etant pas encore divis ´ e selon un test sur la valeur d’un ´
attribut au hasard. PART rep´ ete ce processus r ` ecursivement jusqu’ ´ a ce que tous les `
sous-ensembles soient des feuilles contenant des candidats d’une seule classe. Pour
l’elagage de l’arbre, P ´ ART annule la division de n’importe quel sous-ensemble en
feuilles si l’erreur calculee sur les feuilles est sup ´ erieure ou ´ egale ´ a l’erreur calcul ` ee´
sur le sous-ensemble. Une fois un arbre de decision ´ elagu ´ e, P ´ ART infere une r ` egle de `
decision en ne choisissant que le chemin de la racine vers la feuille la plus peupl ´ ee´
463.1. Modeles a posteriori `
de l’arbre. Un nouvel arbre de decision est ensuite construit en ne consid ´ erant que ´
les candidats qui ne sont pas couverts par une regle de d ` ecision. P ´ ART itere jusqu’ ` a`
couvrir tous les candidats.
Comme indique pr ´ ec´ edemment, parmi les approches dites ”explicatives”, nous trou- ´
vons des approches permettant d’apprendre des regles de d ` ecision. Parmi ces ap- ´
proches, nous avons retenu RIPPER qui est une amelioration de IREP ´ (Incremental
Reduced Error Pruning) [50]. L’apprentissage des regles de d ` ecision avec R ´ IPPER repose
sur deux etapes s’ex ´ ecutant s ´ equentiellement : 1) la construction avec croissance ´
et elagage et 2) l’optimisation des r ´ egles de d ` ecision. Pour chaque classe, de la moins ´
peuplee´ a la plus peupl ` ee, R ´ IPPER commence par iterer l’ ´ etape de construction sur ´
l’ensemble des attributs par series de croissance et d’ ´ elagage de r ´ egles. Une ` etape ´
de construction commence par une partition de l’ensemble d’apprentissage en un ensemble
de croissance et un ensemble d’elagage. La construction des r ´ egles s’arr ` ete ˆ
lorsque :
– la longueur de description de la regle en construction a 64 bits de plus que celle `
de la regle de longueur de description la plus petite parmi les r ` egles trouv ` ees ; ´
– il n’y a plus d’exemple positif, auquel cas l’ensemble de regles est retourn ` e tel ´
quel ;
– le taux d’erreur est superieur ou ´ egal ´ a 50 %, auquel cas l’ensemble de r ` egles `
retourne contient toutes les r ´ egles construites sauf la derni ` ere r ` egle. `
La croissance rajoute une a une les conditions permettant d’augmenter le plus `
vite le gain d’information (par approche gloutonne), jusqu’a obtenir une pr ` ecision de ´
100%. La croissance teste toutes les valeurs possibles a chaque fois qu’elle ajoute `
une condition. L’elagage est incr ´ emental pour chaque r ´ egle : l’ ` elagage supprime la ´
condition dont l’effacement ameliore la mesure d’ ´ elagage. La mesure d’ ´ elagage utilis ´ ee´
dans JRip (implantation de RIPPER dans Weka) est egale ´ a ( ` p + 1)/(p + n + 2) avec p
le nombre d’exemples positifs correctement predits et ´ n le nombre d’exemples negatifs ´
correctement predits parmi les exemples d’ ´ elagage. Lorsqu’une r ´ egle est construite, `
les exemples qu’elle couvre sont retires des exemples utilis ´ es pour la construction des ´
futures regles. `
L’etape d’optimisation consiste en la construction de deux variantes pour chaque ´
regle, en utilisant comme ensemble d’apprentissage un sous-ensemble al ` eatoire des ´
exemples de l’ensemble d’apprentissage. La premiere variante ajoute des conditions `
a une r ` egle vide. La seconde variante ajoute les conditions par approche gloutonne ` a`
la regle initiale. Pour l’optimisation, le mesure d’ ` elagage est ( ´ p + n)/(P + N), avec P
le nombre d’exemples positifs et N le nombre d’exemples negatifs parmi les exemples ´
d’elagage. Une fois les variantes construites, la variante de longueur de description la ´
plus petite est conservee. Enfin, les r ´ egles augmentant la longueur de description de `
l’ensemble de regles sont retir ` ees. ´
3.1.3 Approches dites non explicatives
Les forets al ˆ eatoires ´ se fondent sur l’apprentissage de B arbres decisionnels ´
d’une hauteur maximale h en utilisant a chaque fois ` k attributs au hasard. Pour chaque
47Chapitre 3. Approche a posteriori
arbre decisionnel (ou arbre al ´ eatoire), un ´ echantillon al ´ eatoire du jeu de donn ´ ees d’ap- ´
prentissage est utilise pour l’apprentissage. De plus, pour chaque arbre d ´ ecisionnel, ´
seul un sous-ensemble de k attributs aleatoires est utilis ´ e pour l’apprentissage. Un ´
arbre decisionnel est l’arborescence d’une succession de tests conditionnels ´ a ef- `
fectuer sur les valeurs des attributs de l’exemple a pr ` edire. ´ A chaque nœud d’un arbre `
decisionnel correspond une test sur un attribut, menant ´ a l’un de ses nœuds fils en `
fonction de la valeur de l’attribut teste. Pour d ´ ecider de la classe d’un exemple en ´
utilisant un arbre decisionnel, il faut successivement tester, du noeud racine jusqu’ ´ a`
une feuille, les nœuds vers lesquels dirigent le resultat de chaque decision. Un arbre ´
decisionnel est appris par mesure statistique sur les diff ´ erents attributs au sein des ex- ´
emples de chacune des classes. Cette mesure statistique se fonde sur une approche
frequentiste. ´
Le classifieur bayesien na¨ıf ´ repose sur le theor ´ eme de Bayes. Le classifieur `
bayesien na ´ ¨ıf est appele na ´ ¨ıf en ce sens qu’il fait l’hypothese d’ind ` ependance des ´
differents attributs entre eux (voir ´ eq. 3.3). La probabilit ´ e qu’un exemple soit d’une cer- ´
taine classe y sachant la valeur de chacun de ses attributs est egale ´ a sa probabilit ` e´
a priori d’etre de la classe ˆ y multipliee par le produit des probabilit ´ es qu’un exemple ´
de cette classe ait la valeur de chacun de ses attributs. Les differents param ´ etres du `
modele sont estim ` es par calcul de fr ´ equences sur l’ensemble d’apprentissage. Il est ´
par ailleurs fait l’hypothese que les variables al ` eatoires sous-jacentes aux param ´ etres `
suivent une loi normale.
P (y|X) = P (y)
Y
|A|
i=1
P (xi
|y) (3.3)
Un autre classifieur est dit na¨ıf, le 1-plus-proche-voisin. Le 1-plus-proche-voisin
est une instance du k-plus-proche-voisin pour k = 1. Le k-plus-proche-voisin predit ´
qu’un exemple est de la classe majoritaire parmi les k exemples appris les plus proches.
Pour k pair, en cas d’egalit ´ e, il est possible de privil ´ egier une classe par rapport ´ a`
l’autre ou de ponderer le vote de chaque voisin par l’inverse de sa distance ´ a l’exemple `
a pr ` edire Le choix de la distance employ ´ ee influence la pr ´ ediction. Traditionnellement, ´
la distance euclidienne est mesuree pour d ´ eterminer la distance entre deux exem- ´
ples. Mais d’autres distances – comme la distance de Manhattan ou la distance de
Mahalanobis – sont plus adaptees ´ a certaines probl ` ematiques. Les coordonn ´ ees des ´
exemples sont les valeurs de leurs attributs. Plus k est grand et moins la methode est ´
sensible aux erreurs presentes dans les jeux de donn ´ ees, mais aussi plus la limite ´
entre les classes est floue. Le 1-plus-proche-voisin fait l’hypothese que les exemples `
se comportent localement de la meme mani ˆ ere : leur classe est la m ` eme si les valeurs ˆ
de leurs attributs sont proches. De plus, tous les attributs sont comparables dans le
poids qui leur est donne pour le calcul de la distance. ´
Tous ces classifieurs sont plus adaptes´ a certaines probl ` ematiques qu’ ´ a d’autres. `
Mais il existe des classifieurs dont la particularite est de tirer partir de la combinaison ´
de classifieurs d’approches tres diff ` erentes : il s’agit des ´ metaclassifieurs ´ . Si plusieurs
classifieurs peuvent chacun capturer des informations differentes sur la pr ´ ediction, le ´
metaclassifieur a plus de chances de donner une meilleure pr ´ ediction que chacun ´
483.1. Modeles a posteriori `
des classifieurs dont il depend. Les m ´ etaclassifieurs offrent le plus de flexibilit ´ e en ´
combinant les scores de plusieurs modeles de fonction de score. `
AdaBoost est un metaclassifieur reposant sur l’apprentissage successif de classi- ´
fieurs faibles. Chaque iteration d’AdaBoost apprend un nouveau classifieur faible. Pour ´
le premier classifieur appris, tous les exemples ont un poids identique. Chaque autre
classifieur faible appris rec¸oit en entree de son apprentissage, pour chaque candidat, ´
un poids augmentant avec les erreurs commises par les classifieurs faibles prec´ edents ´
sur ce candidat. Cette ponderation donne plus d’importance aux exemples n’ayant pas ´
et ´ e captur ´ es par les classifieurs faibles pr ´ ec´ edemment construits. Au fur et ´ a mesure `
des iterations, les exemples les plus difficiles ´ a classer rec¸oivent un poids ` elev ´ e, jusqu’ ´ a`
ce que l’un des classifieurs les classe correctement.
Vote attribue pour chaque exemple a pr ` edire une classe selon un principe de vote. ´
Le principe de vote peut utiliser la moyenne, la mediane, le minimum ou m ´ eme le ˆ
maximum.
Les machines a vecteurs de support ` (SVM, Support Vector Machines) ont pour
principe gen´ eral d’apprendre une fonction de s ´ eparation qui maximise la marge en- ´
tre les exemples et leur separation. Maximiser la marge de s ´ eparation a pour objec- ´
tif de minimiser l’erreur de gen´ eralisation. Les SVM mettent en jeu des noyaux pour ´
determiner cette s ´ eparation. Avec les SVM, le mod ´ ele est param ` etr ´ e par l’hyperplan ´
utilise pour s ´ eparer les exemples pr ´ edits positifs des exemples pr ´ edits n ´ egatifs. De ´
plus, il est possible d’utiliser une fonction noyau pour transformer les exemples et
gen´ erer un mod ´ ele implicitement non-lin ` eaire. Selon la probl ´ ematique, les diff ´ erents ´
noyaux sont plus ou moins adaptes. Les SVM ne tiennent cependant pas compte de ´
la difference de distribution des exemples en fonction de leur classe. En effet, les SVM ´
ont pour objectif de maximiser la marge de separation, ´ i.e. la distance minimale entre
la fonction de separation apprise et les exemples de chaque classe. Or, les exemples ´
peuvent se distribuer differemment selon la classe ´ a laquelle ils appartiennent. Les ex- `
emples d’une classe peuvent etre tr ˆ es proches les uns des autres alors que les exem- `
ples d’une autre classe peuvent etre comparativement plus ˆ etendus. Dans un tel cas ´
de figure, il serait plus judicieux, pour minimiser l’erreur de gen´ eralisation, de donner ´
un poids plus important a la distance aux exemples de la classe la plus ` etendue qu’aux ´
autres exemples. La fonction de separation serait alors plus proches des exemples de ´
la classe dont la distribution est la moins etendue. ´
3.1.4 Boˆıte a outils utilis ` ee pour apprendre les mod ´ eles `
Weka [103] est une boˆıte a outils impl ` ement ´ ee en Java d’algorithmes de fouille de ´
donnees. Weka prend en donn ´ ees d’entr ´ ee des exemples munis de descripteurs et ´
peut visualiser la correlation entre ces descripteurs au sein des donn ´ ees. Weka peut ´
filtrer les donnees d’entr ´ ee et utiliser des m ´ ethodes de clustering ou de s ´ election de de- ´
scripteurs. Weka peut aussi apprendre des modeles de pr ` ediction sur ces donn ´ ees, les ´
tester et sortir les modeles et leurs ` evaluations. Les classifieurs disponibles dans Weka ´
sont ranges par cat ´ egories : les classifieurs bay ´ esiens, les fonctions, les classifieurs ´
na¨ıfs, les metaclassifieurs, les r ´ egles de d ` ecision, les arbres de d ´ ecision, les classi- ´
49Chapitre 3. Approche a posteriori
fieurs multi-instances et les classifieurs n’ayant pas pu etre rang ˆ es dans les autres ´
categories. Les classifieurs sont appris avec la version 3.6 de Weka. Les classifieurs ´
presents dans Weka et utilis ´ es ici sont : ´
– J48 (implementation de C4.5 [207]) ; ´
– JRip (implementation de R ´ IPPER, Repeated Incremental Pruning to Produce Error
Reduction [50]) ;
– PART (variante de C4.5 et de RIPPER reposant sur des arbres de decision partiels ´
[86]) ;
– RandomForest (implementation des for ´ ets al ˆ eatoires [30]) ; ´
– NaiveBayes (implementation du classifieur bay ´ esien na ´ ¨ıf [127]) ;
– IB1 (implementation du 1-plus-proche-voisin [2]) ; ´
– AdaBoostM1 (implementation d’AdaBoost [223]) ; ´
– Vote [135] ;
– Machines a vecteurs de support (SVM [38]). `
3.1.5 Methodologie d’optimisation des fonctions de score ´ a posteriori
La methodologie g ´ en´ erale d’optimisation des fonctions de score ´ a posteriori se
decompose en quatre phases : ´
– reprendre les jeux de donnees pr ´ epar ´ es et pr ´ esent ´ es au chapitre 1 ; ´
– l’apprentissage des fonctions de score par les differents classifieurs sur l’ensem- ´
ble des 120 complexes et le meme apprentissage, mais effectu ˆ e en ´ leave-”onepdb”-out
;
– l’apprentissage par ROGER des metascores avec comme attributs les termes de ´
score physico-chimiques et les scores des differents classifieurs ; ´
– l’evaluation des diff ´ erentes fonctions de score des classifieurs ainsi que des ´
metascores. ´
3.2 Evaluation des fonctions de score ´ a posteriori
A posteriori, il est possible d’utiliser une fonction de score plus complexe qu’une
combinaison lineaire de termes d’ ´ energie. L’utilit ´ e de ce proc ´ ed´ e est de pouvoir re- ´
trier un ensemble de candidats gen´ er´ es par RosettaDock, pour pouvoir r ´ einjecter les ´
meilleurs candidats dans un amarrage atomique, pour affiner les structures obtenues.
Cela necessite que la fonction de score ´ a posteriori permette de mieux identifier les
presque-natifs qu’une fonction de score etant une combinaison lin ´ eaire de termes ´
d’energie. Les r ´ esultats suivants ´ evaluent plusieurs mod ´ eles de fonctions de score `
a posteriori.
Pour que chaque terme de score puisse participer dans la meme mesure ˆ a la fonc- `
tion de score, il est necessaire que l’intervalle de valeurs de chaque terme de score ´
soit reduit ´ a l’intervalle unit ` e. Les termes de score ´ a valeurs positives sont ramen ` es´
a l’intervalle [0 ; 1] alors que les termes de score ` a valeurs n ` egatives sont ramen ´ es´ a`
503.2. Evaluation des fonctions de score a posteriori ´
l’intervalle [−1 ; 0]. La repartition des candidats pour chaque terme de score est donc ´
etudi ´ ee pour mieux comprendre l’influence de chaque terme. ´
3.2.1 Repartition des candidats par terme de score ´
Pour etudier au mieux le comportement des termes de score pour l’ensemble des ´
candidats presque-natifs et leurres, les valeurs reduites ´ a l’intervalle unit ` e sont in- ´
diquees entre parenth ´ eses, sauf pour les scores issus des classifieurs, qui donnent `
dej ´ a des valeurs dans l’intervalle unit ` e. L’ ´ etude se fait sur l’ensemble des 1 200 000 ´
candidats et sur les termes de score physico-chimiques comme sur ceux issus des
classifieurs (voir tableau 3.1).
On peut notamment remarquer que la valeur du terme de score fa dun est plus
elev ´ ee pour les presque-natifs que pour les leurres : la m ´ ediane est de 683 (0.10) ´
pour les presque-natifs contre 549 (0.08) pour les leurres. La terme de score fa dun
correspond a la p ` enalit ´ e donn ´ ee par la base de donn ´ ees Dunbrack pour les rotam ´ eres `
presents dans la structure ´ evalu ´ ee. Pour les deux classes d’exemples, les valeurs ´
se distribuent densement autour de la m ´ ediane et d ´ epassent largement la valeur ´
moyenne, respectivement a 848 (0.12) et 682 (0.10). Cette r ` epartition montre que seul ´
un petit nombre d’acides amines est, pour chaque complexe, assimil ´ e´ a une p ` enalit ´ e´
elev ´ ee, mais aussi que ce nombre est plus ´ elev ´ e pour les presque-natifs que pour les ´
leurres. On peut en conclure que les chaˆınes laterales des acides amin ´ es se compor- ´
tent differemment de ce qui est attendu par la base de donn ´ ees Dunbrack lorsqu’elles ´
sont en interaction avec un ARN.
Les termes de score fa rep et fa pair sont quant a eux plus faibles pour les presque- `
natifs que pour les leurres. Pour fa rep, les presque-natifs ont une mediane de 352 ´
(0.27), alors que les leurres ont une mediane de 406 (0.32). Pour fa ´ pair, la mediane ´
est a 37 (0.17), contre 51 (0.23) pour les leurres. Ils ont effectivement pour but de `
donner une penalit ´ e aux candidats mettant en jeu des atomes trop proches les uns ´
des autres (fa rep) ou rarement rencontres ensemble (fa ´ pair).
Le terme de score fa sol a un comportement different dans les valeurs n ´ egatives, ´
puisqu’il a des valeurs plus faibles en valeur absolue pour les presque-natifs que pour
les leurres. La mediane de fa ´ sol est de −9 (−0.22) pour les presque-natifs et de −11
(−0.27) pour les leurres.
Le score le plus remarquable issu des classifieurs est le score donne par le 1- ´
plus-proche-voisin : sa moyenne est de 0.62 pour les presque-natifs et 0.55 pour les
leurres.
Les autres scores appris a l’aide des classifieurs ne permettent pas de discriminer `
les presque-natifs des leurres. Mais nous allons tout de meme ˆ evaluer l’ensemble des ´
classifieurs a l’aide des diff ` erentes mesures d’ ´ evaluation. ´
3.2.2 Weka
Les fonctions de score gen´ er´ ees avec les diff ´ erentes strat ´ egies d’apprentissage ´
selectionn ´ ees dans Weka montrent des performances hasardeuses (voir tableau 3.2). ´
51Chapitre 3. Approche a posteriori
Exemples Score 1
er quartile Mediane ´ Moyenne 3
e quartile
+1 fa dun 366 (0.05) 683 (0.10) 848 (0.12) 1165 (0.16)
+1 fa pair 19 (0.08) 37 (0.17) 50 (0.22) 70 (0.31)
+1 fa rep 228 (0.18) 352 (0.27) 425 (0.33) 607 (0.47)
+1 fa sol -3 (-0.08) -9 (-0.22) -11 (-0.27) -17 (-0.40)
+1 hack elec -8 (-0.09) -17 (-0.21) -18 (-0.23) -25 (-0.31)
+1 hbond bb sc -13 (-0.07) -29 (-0.16) -37 (-0.21) -55 (-0.31)
+1 NearestNeighbor 0.00 1.00 0.62 1.00
+1 NaiveBayes 0.34 0.42 0.50 0.60
+1 JRip 0.44 0.54 0.51 0.57
+1 J48 0.44 0.52 0.53 0.74
+1 PART 0.45 0.52 0.55 0.68
+1 RandomForest 0.40 0.60 0.56 0.70
-1 fa dun 282 (0.04) 549 (0.08) 682 (0.10) 927 (0.13)
-1 fa pair 25 (0.11) 51 (0.23) 60 (0.27) 82 (0.37)
-1 fa rep 267 (0.21) 406 (0.32) 487 (0.38) 671 (0.52)
-1 fa sol -6 (-0.13) -11 (-0.27) -14 (-0.32) -20 (-0.48)
-1 hack elec -9 (-0.11) -18 (-0.22) -20 (-0.25) -26 (-0.33)
-1 hbond bb sc -17 (-0.10) -40 (-0.23) -46 (-0.26) -60 (-0.34)
-1 NearestNeighbor 0.00 1.00 0.55 1.00
-1 NaiveBayes 0.34 0.41 0.47 0.54
-1 JRip 0.43 0.53 0.49 0.57
-1 J48 0.43 0.47 0.51 0.64
-1 PART 0.44 0.48 0.51 0.58
-1 RandomForest 0.40 0.50 0.53 0.70
TABLE 3.1 – Pour chaque terme de score sont indiques la valeur du premier quartile, de ´
la mediane, de la moyenne et du troisi ´ eme quartile, sur les presque-natifs (exemples `
+1) et les leurres (exemples -1). Entre parentheses se trouvent les valeurs des scores `
ramenees ´ a l’intervalle unit ` e quand ce n’est pas d ´ ej ´ a le cas. NearestNeighbor corre- `
spond au score donne par la fonction de score apprise au moyen du 1-plus-proche- ´
voisin, NaiveBayes au classifieur bayesien na ´ ¨ıf, JRip a l’impl ` ementation de R ´ IPPER,
J48 a l’impl ` ementation de C4.5, P ´ ART est une variante de C4.5 et RandomForest a`
l’apprentissage de forets al ˆ eatoires. ´
De maniere g ` en´ erale, moins de la moiti ´ e des complexes ont une ROC-AUC sup ´ erieure ´
a 0.5. Les performances de Vote ne sont pas indiqu ` ees car la fonction de score ap- ´
prise par Vote classe systematiquement les candidats comme presque-natifs. Seul le ´
classifieur bayesien na ´ ¨ıf donne des resultats satisfaisants, avec 108 des 120 com- ´
plexes ayant une ROC-AUC superieure ´ a 0.5 et 81 complexes avec un #presque- `
natifs (top10E(Candidats)) non nul.
Malgre les performances, il est tout de m ´ eme int ˆ eressant d’observer par exemple ´
les premiers termes de score utilises par les arbres de d ´ ecision (voir fig. 3.2). Ce ´
523.2. Evaluation des fonctions de score a posteriori ´
Classifieur ROC-AUC ROC-AUC > 0.5 #(top10E(Candidats))> 0
ROGER lineaire ´ 0.798±0.018 119 117
JRip 0.314±0.164 36 8
IB1 0.449±0.122 53 3
PART 0.472±0.039 49 18
J48 0.493±0.020 60 16
RandomForest 0.498±0.022 60 56
NaiveBayes 0.649±0.015 108 81
TABLE 3.2 – Pour chaque classifieur Weka selectionn ´ e sont indiqu ´ es : la moyenne ´
et la variance de la ROC-AUC, le nombre de complexes pour lesquels la ROCAUC
est superieure ´ a 0.5 et le nombre de complexes avec un #presque- `
natifs (top10E(Candidats)) non nul.
sont les termes de score fa dun – qui correspond au terme de score des rotameres `
Dunbrack – hack elec (terme de score electrostatique), fa ´ sol (terme de solvatation),
fa pair (terme d’affinite entre pairs d’atomes), fa ´ rep (terme de repulsion universelle) ´
et les termes de score hbond qui sont mis en avant. Nous avons vu dans l’etude de la ´
repartition des valeurs des termes de score entre presque-natifs et leurres que fa ´ dun
donnait pour les presque-natifs des valeurs plus elev ´ ees que pour les leurres. Et en ´
effet, une petite partie des presque-natifs correspond a un pic de valeurs extr ` emes en ˆ
fa dun, avec de nombreuses chaˆınes laterales dans des conformations ordinairement ´
peu probables dans une proteine. Ceci nous conforte dans l’id ´ ee que la distribution des ´
conformations des chaˆınes laterales des acides amin ´ es d’une prot ´ eine peut changer ´
a l’interaction avec un ARN. Les termes de score ` electrostatique, d’affinit ´ e entre pairs ´
d’atomes et des liaisons hydrogene ont d ` ej ´ a` et´ e vus dans la section 2.4.3.4 comme ´
etant des facteurs importants de l’interaction prot ´ eine-ARN. Le terme de score fa ´ rep a
aussi et ´ e vu dans le filtre par la m ´ ediane en fa ´ rep comme etant important pour ´ ecarter ´
les leurres comportant trop d’interpen´ etration (voir section 2.4.4). Seul le terme de ´
solvatation n’avait jusqu’a lors pas ` et´ e vu dans le chapitre pr ´ ec´ edent comme important ´
pour l’interaction proteine-ARN. ´
3.2.3 ROGER non lineaire ´
Lever la contrainte de linearit ´ e de la fonction de score permet d’explorer des solu- ´
tions plus complexes, pouvant prendre en compte des informations qu’une combinaison
lineaire des termes de score n’atteint pas. L’apprentissage de fonctions de score ´
non lineaires avec R ´ OGER a cet objectif. Deux types de fonctions de score sont apprises
: l’une apprise uniquement sur les termes de score physico-chimiques, l’autre
apprise aussi sur les scores des classifieurs selectionn ´ es dans Weka. ´
Meme si les classifieurs s ˆ electionn ´ es dans Weka ne donnent pas de r ´ esultats satis- ´
faisants, ils ont des performances de classifieur faible pour plusieurs dizaines de complexes
chacun. S’ils capturent chacun des informations differentes sur les candidats, il ´
53Chapitre 3. Approche a posteriori
• fa dun ≤ 866.949
• fa dun ≤ 231.186
• fa sol ≤ −23.739
• fa atr ≤ −2023.861 (presque-natifs)
• fa atr > −2023.861 (leurres)
• fa sol > −23.739
• hbond sc ≤ −12.138 (leurres)
• hbond sc > −12.138 (presque-natifs)
• fa dun > 231.186
• fa sol ≤ −35.702
• hbond bb sc ≤ −93.066 (leurres)
• hbond bb sc > −93.066 (presque-natifs)
• fa sol > −35.702
• fa rep ≤ 1042.462 (leurres)
• fa rep > 1042.462 (presque-natifs)
• fa dun > 866.949
• fa dun ≤ 1499.729
• hbond bb sc ≤ −148.009
• fa rep ≤ 1063.695 (leurres)
• fa rep > 1063.695 (presque-natifs)
• hbond bb sc > −148.009
• hack elec ≤ −2.433 (leurres)
• hack elec > −2.433 (presque-natifs)
• fa dun > 1499.729
• fa pair ≤ 65.641
• fa rep ≤ 556.425 (leurres)
• fa rep > 556.425 (presque-natifs)
• fa pair > 65.641
• hbond sr bb ≤ −8.178 (presque-natifs)
• hbond sr bb > −8.178 (leurres)
FIGURE 3.2 – Arbre de decision appris avec J48 sur les 120 complexes de la P ´ RIDB.
Seuls les nœuds apres au plus 4 bifurcations sont affich ` es, pour donner un aperc¸u des ´
premiers attributs mis en jeu dans l’arbre.
peut etre int ˆ eressant de combiner les forces de chacun de ces classifieurs. L’apprentis- ´
sage d’un metascore avec R ´ OGER non lineaire permet de tester cette hypoth ´ ese. Les `
scores des classifieurs selectionn ´ es dans Weka deviennent des termes de score, au ´
meme titre que les termes physico-chimiques. ˆ
Dans l’ensemble, les fonctions de score apprises avec ROGER non lineaire don- ´
nent des resultats moins satisfaisants que celles obtenues avec R ´ OGER lineaire (voir ´
tableau 3.3). Sans metascore, les r ´ esultats sont quasiment identiques concernant le ´
nombre de complexes avec une ROC-AUC superieure ´ a 0.5, mais moins satisfaisants `
du point de vue des autres mesures d’evaluation. L’emploi des scores des classifieurs ´
de Weka dans les metascores d ´ egradent les performances. Les m ´ etascores donnent ´
543.3. Conclusions sur la fonction de score a posteriori
tout de meme 114 complexes pour lesquels il y a au moins un presque-natif dans le ˆ
top10 des candidats tries en ´ energie, contre 106 pour R ´ OGER non lineaire sans ap- ´
prentissage d’un metascore. ´
Classifieur ROC-AUC ROC-AUC > 0.5 top10> 0
ROGER lineaire ´ 0.798±0.018 119 117
Metascore R ´ OGER non lineaire ´ 0.648±0.015 107 114
ROGER non lineaire ´ 0.649±0.015 115 106
TABLE 3.3 – Pour chaque classifieur ROGER selectionn ´ e sont indiqu ´ es : la ´
moyenne et la variance de la ROC-AUC, le nombre de complexes pour lesquels
la ROC-AUC est superieure ´ a 0.5 et le nombre de complexes avec un #presque- `
natifs (top10E(Candidats)) non nul.
3.3 Conclusions sur la fonction de score a posteriori
Nous avons commence par observer la r ´ epartition des termes de score en com- ´
parant les presque-natifs avec les leurres. Nous avons formule plusieurs constata- ´
tions, notamment que la base de donnees de rotam ´ eres Dunbrack n’est peut- ` etre ˆ
pas adaptee´ a la pr ` ediction d’interaction prot ´ eine-ARN. En plus d’utiliser une base ´
de donnees de rotam ´ eres pour les ARN, il peut ` etre n ˆ ecessaire d’utiliser une base ´
de donnees sp ´ ecifique aux interactions prot ´ eine-ARN pour obtenir les probabilit ´ es as- ´
sociees ´ a chaque rotam ` ere en interaction avec un ARN. Nous avons ` evalu ´ e des fonc- ´
tions de score modelis ´ ees pour ´ etre utilis ˆ ees ´ a posteriori de la gen´ eration de candidats ´
par RosettaDock. Nous avons modelis ´ e des fonctions de score directement apprises ´
grace ˆ a des classifieurs usuels, notamment des arbres et r ` egles de d ` ecision, mais ´
aussi des metascores prenant pour attributs les scores donn ´ es par ces classifieurs ´
en plus des termes de score physico-chimiques. Il s’avere que les fonctions de score `
testees n’ont pas de performances plus int ´ eressantes que celles de la fonction de ´
score atomique POS.
C’est la raison pour laquelle nous nous tournons maintenant vers l’usage de termes
de score non pas physico-chimiques, mais geom ´ etriques. Nous souhaitons ´ etendre le ´
protocole de prediction des interactions prot ´ eine-ARN en testant la fonction de score ´
atomique POS sur des candidats issus d’une prediction aveugle. Or, POS n’a ´ et´ e´
testee que pour des candidats ´ a au plus une quinzaine d’Angstr ` oms de la structure ¨
native. Nous souhaitons donc concevoir une fonction de score a une ` echelle plus gros- ´
grain avec pour objectif de trouver des candidats utilisables par POS.
55Chapitre 3. Approche a posteriori
56Chapitre 4
Approche multi-echelle ´
4.1 Principe de l’approche multi-echelle ´
Pour predire l’interaction avec un maximum d’efficacit ´ e – temps de calcul le plus ´
faible possible et qualite des pr ´ edictions – plusieurs approches peuvent ´ etre com- ˆ
binees. Nous avons vu l’utilisation de filtres ´ a posteriori, pour reordonner les r ´ esultats ´
du tri apres une g ` en´ eration de candidats qui contiennent au moins quelques presque- ´
natifs. Nous pouvons aussi intervenir en amont de la gen´ eration des candidats ´ a`
l’echelle atomique, en g ´ en´ erant des candidats ´ a l’ ` echelle gros-grain. Cette g ´ en´ eration ´
a l’ ` echelle gros-grain a l’int ´ er´ et de possiblement donner un aperc¸u du score qu’aurait ˆ
le meme candidat ˆ a l’ ` echelle atomique, mais avec un temps de calcul r ´ eduit. ´
4.1.1 Representation g ´ eom ´ etrique gros-grain des acides amin ´ es´
et des acides nucleiques ´
Le prix Nobel de Chimie 2013 7 a montre l’importance dans le domaine de la bi- ´
ologie structurale computationnelle des representations multi- ´ echelle combin ´ ees aux ´
modeles physiques simples. Ce mod ` ele correspond en effet au d ` eveloppement des ´
premiers potentiels energ ´ etiques des ann ´ ees 70. La premi ´ ere apparition correspond `
au modele de Levitt [151] dans lequel chaque r ` esidu d’une prot ´ eine ´ etait repr ´ esent ´ e´
par trois points encore appeles ”atomes gros-grains” : deux pour la cha ´ ˆıne principale
(squelette) et un pour la chaˆıne laterale. ´
Depuis ce modele initial, de nombreux autres mod ` eles ont ` et´ e d ´ evelopp ´ es [155, ´
231, 242]. Par exemple, Voth et Izvekoc [117] ont developp ´ e un potentiel multi- ´ echelle ´
gros-grain ou les param ` etres du champ de force sont extraits de simulations de dy- `
namique moleculaire en utilisant un proc ´ ed´ e d’adaptation des forces. Souvent, les ´
parametres obtenus sont tabul ` es de fac¸on ´ a ne pas ` etre restreints ˆ a la forme analytique `
d’un potentiel. Plus recemment, d’autres potentiels du m ´ eme type ont ˆ et´ e d ´ evelopp ´ es´
[105], permettant de simuler le repliement de proteines de petite taille [106]. ´
Les modelisations gros-grain rendent les calculs plus rapides. Par exemple, pour ´
7. http://www.nobelprize.org/nobel_prizes/chemistry/laureates/2013/
57Chapitre 4. Approche multi-echelle ´
le passage d’un modele tout atome ` a un mod ` ele r ` eduit avec un point par r ´ esidu/acide ´
nucleique, le nombre d’atomes (pseudo-atomes) est environ divis ´ e par dix, ce qui peux ´
rendre les calculs jusqu’a 100 fois plus rapide. Le m ` eme ordre de grandeur peut ˆ etre ˆ
observe lors du passage d’un mod ´ ele r ` eduit avec un point par r ´ esidu ´ a un point par `
el ´ ement de structure secondaire. ´
Toutefois, le degre de pr ´ ecision n ´ ecessaire ´ a la repr ` esentation fine des processus ´
biologiques est souvent atomique. Il est donc difficile de deriver une repr ´ esentation ´
gros-grain gen´ erique pour un ensemble de syst ´ emes et de simulations rendant la `
modelisation peu co ´ uteuse en temps de calcul et pr ˆ ecise quant ´ a la repr ` esentation ´
fine d’un phenom ´ ene biologique. Pour cette raison, de nombreux groupes ont combin ` e´
des approches a gros grains et grains fins dans des simulations mixtes [5]. Une revue `
des differentes approches est disponible [85]. ´
Dans cette etude, je pr ´ esenterai ´ a nouveau rapidement le mod ` ele utilis ` e par le ´
logiciel RosettaDock puis, de fac¸on plus detaill ´ ee, le mod ´ ele de Vorono ` ¨ı utilise pour ´
l’amarrage.
Dans le cadre de l’utilisation de RosettaDock, comme indique dans la section ´
2.1.1.3 du chapitre 2, la representation gros-grain des prot ´ eines comprend l’ensem- ´
ble des atomes du squelette et un a trois atomes pour la cha ` ˆıne laterale appel ´ es´
centro¨ıdes [99]. Dans cette etude, nous nous sommes limit ´ es´ a l’utilisation du mod ` ele`
a un centro ` ¨ıde que nous avons etendu ´ a l’ARN et ` a l’ADN. Les coordonn ` ees spatiales ´
des atomes gros-grain des acides nucleiques sont calcul ´ ees ´ a partir des coordonn ` ees ´
atomiques des acides nucleiques. L’ARN et l’ADN sont donc pourvus des coordonn ´ ees ´
spatiales de leurs atomes gros-grain (voir fig. 4.1).
a) Representation g ´ eom ´ etrique gros-grain b) Repr ´ esentation g ´ eom ´ etrique atomique ´
FIGURE 4.1 – Modele gros-grain et mod ` ele atomique : exemple de l’uracile. Le groupe- `
ment phosphate et les atomes lourds du sucre sont represent ´ es en gris. a) Le mod ´ ele`
gros grain avec le centro¨ıde en rouge b) Le modele atomique avec les atomes de la `
base en bleu. Le centro¨ıde est le centre geom ´ etrique des atomes lourds. ´
Pour l’adenine, par exemple, nous passons d’un mod ´ ele avec 33 atomes ` a un `
modele avec 13 atomes gros-grains. Le m ` eme facteur 3 est observ ˆ e pour les autres ´
acides nucleiques. ´
La taille des centro¨ıdes des acides nucleiques ainsi remplac ´ es est importante, car ´
elle conditionne la distance a partir de laquelle on peut consid ` erer une interp ´ en´ etration ´
des structures. Cette taille doit permettre aux centro¨ıdes d’occuper l’espace des atomes
584.1. Principe de l’approche multi-echelle ´
que chacun d’entre eux represente, pour leur permettre de se comporter de fac¸on ´
semblable. La taille des centro¨ıdes est donc fixee´ a la valeur donn ` ee pour leur version ´
atomique, a savoir 8 ` A. ˚
Pour les proteines, dans le cadre du mod ´ ele de Vorono ` ¨ı, nous avons choisi de travailler
avec un seul point par residu, le centre g ´ eom ´ etrique de la cha ´ ˆıne laterale et du ´
Cα. Ce choix permet tout d’abord de travailler sur un nombre reduit de points, mais ´
aussi de s’affranchir des mouvements des chaˆınes laterales. En effet, m ´ eme lorsque ˆ
la chaˆıne laterale bouge, ce qui est fr ´ equent ´ a la surface de la prot ` eine, le centre ´
geom ´ etrique n’est souvent pas trop affect ´ e. Pour la suite, la cellule de Vorono ´ ¨ı correspondante
est donc presque identique.
La triangulation de Delaunay pour les proteines a ´ et´ e le plus souvent effectu ´ ee´ a`
partir des carbones α [71, 183, 233, 253]. Nous avons choisi de construire les diagrammes
de Vorono¨ı a partir des centres g ` eom ´ etriques des acides amin ´ es, ceux-ci ´
ayant permis d’obtenir de bons resultats dans le cadre de l’amarrage prot ´ eine-prot ´ eine ´
[18, 15, 26, 27].
Ceux-ci ont et ´ e d ´ efinis comme centres de gravit ´ e des atomes de la cha ´ ˆıne laterale ´
et du carbone α, les atomes d’hydrogene n’ ` etant pas pris en compte. Le centre g ´ eo- ´
metrique ainsi obtenu est donc tr ´ es proche du centre de masse de l’acide amin ` e.´
Ce choix est a rapprocher d’une ` etude r ´ ealis ´ ee par S. Karlin d ´ ebut ´ ee en 1994 [131, ´
130] dans laquelle trois types de distances sont etudi ´ ees : ´
– entre carbones α ;
– entre centres de gravite des acides amin ´ es sans prendre en compte les carbones ´
α ;
– entre centres de gravite de tous les atomes du r ´ esidu (cha ´ ˆıne laterale et squelette). ´
Ces trois types de distances sont utilises pour mesurer la distance entre deux r ´ esidus ´
dans un ensemble de structures tridimensionnelles de proteines connues. Cette ´ etude ´
statistique montre que les distances entre centres de gravite des cha ´ ˆınes laterales ´
sont tres sensibles aux interactions ` electrostatiques et hydrophobes, mais tr ´ es peu `
aux contraintes steriques, contrairement aux distances entre les centres de gravit ´ e de ´
tous les atomes de chaque residu. Le fait de prendre en compte le carbone ´ α dans
le calcul du point qui va representer chaque acide amin ´ e, permet donc d’obtenir des ´
propriet ´ es interm ´ ediaires. S. Karlin et ses collaborateurs montrent ´ egalement que les ´
distances entre carbones α sont largement decorr ´ el ´ ees, ´ a la fois des interactions et `
des contraintes steriques. ´
Le meme mod ˆ ele a ` et ´ e utilis ´ e pour l’ARN o ´ u nous avons aussi un atome gros-grain `
par acide nucleique, situ ´ e au centre g ´ eom ´ etrique des atomes lourds de la base. En ´
effet, le groupement phosphate et les atomes du sucre sont consider´ es comme faisant ´
partie du squelette, tandis que les atomes lourds de la base sont consider´ es comme ´
etant la cha ´ ˆıne laterale. ´
Contrairement aux proteines, qui n’ont que quatre atomes lourds dans leur squelette, ´
les ARN ont douze atomes lourds et donc un squelette de taille importante. Ceci a
pour consequence de placer le centro ´ ¨ıde tres loin du squelette et donc de donner `
une grande importance a l’orientation de la base. Cette approche permet ainsi de `
representer g ´ eom ´ etriquement la flexibilit ´ e de l’ARN pour mieux en tenir compte dans ´
les mesures geom ´ etriques, plut ´ ot que de placer un atome gros-grain au centre de ˆ
59Chapitre 4. Approche multi-echelle ´
l’ensemble des atomes lourds de chaque nucleotide. ´
4.1.2 Mesure des termes geom ´ etriques ´ a l’ ` echelle gros-grain ´
Les termes geom ´ etriques sont uniquement utilis ´ es ici pour les fonctions de score ´
a l’ ` echelle gros-grain. Seuls les acides amin ´ es et les acides nucl ´ eiques ´ a l’interface `
sont consider´ es pour calculer les termes g ´ eom ´ etriques. Ces termes ont d ´ ej ´ a fait leurs `
preuves pour l’amarrage proteine-prot ´ eine [15]. Ils sont calcul ´ es´ a partir du diagramme `
de Vorono¨ı.
Le diagramme de Vorono¨ı est un pavage unique de l’espace en cellules de Vorono¨ı a`
partir d’un ensemble de sites. Dans le cas qui nous interesse, les sites sont les r ´ esidus ´
ou pseudo-atomes. Le pavage est defini de telle sorte que n’importe quel point de l’es- ´
pace plus proche d’un site que de tout autre appartient a la cellule de Vorono ` ¨ı de ce
site.
Formellement, soit l’ensemble des n sites {pj}1≤j≤n, l’ensemble des positions spatiales
V(pi) qui sont plus proches du site pi que de tout autre site constitue la cellule
de Vorono¨ı du site pi (voir eq. 4.1). ´
V(pi) = {x ∈ R
d
: kx − pik ≤ kx − pjk; ∀j ∈ N, 1 ≤ j ≤ n} (4.1)
Les jointures entre les cellules de Vorono¨ı s’appellent des facettes de Vorono¨ı. En
3 dimensions, une cellule de Vorono¨ı est un volume et une facette de Vorono¨ı est
une surface. Les facettes de Vorono¨ı representent la surface d’interaction entre les ´
differents sites. Plus les sites sont proches et peu encombr ´ es par les sites environ- ´
nants, plus elles sont grandes. La cellule de Vorono¨ı represente la zone o ´ u le site a le `
plus d’influence par rapport aux autres sites.
Intuitivement, la construction du diagramme de Vorono¨ı utilise entre les differents ´
sites le trace des m ´ ediatrices. Pour plus de clart ´ e, l’exemple illustr ´ e montre la construc- ´
tion manuelle d’un diagramme de Vorono¨ı dans un espace en 2 dimensions (voir fig.
4.2).
La Computational Geometry Algorithms Library (CGAL [36]) permet la construction
du diagramme de Vorono¨ı. CGAL est une librairie implement ´ ee en C++ de g ´ eom ´ etrie ´
computationnelle algorithmiquement efficace. En pratique, pour une plus grande rapidite
de calcul, C ´ GAL obtient le diagramme de Vorono¨ı en construisant son dual, la
triangulation de Delaunay (voir fig. 4.3).
La triangulation de Delaunay est une triangulation uniquement constituee de trian- ´
gles de Delaunay [167]. Un triangle est un triangle de Delaunay si son cercle circonscrit
ne contient aucun autre site que les trois sommets du triangle. Dans une triangulation
de Delaunay, tous les sites sont relies par des segments de droites formant des tri- ´
angles. L’algorithme construisant la triangulation de Delaunay en 3 dimensions est un
algorithme incremental probabiliste de complexit ´ e´ O(n
d
3
2
e
).
604.1. Principe de l’approche multi-echelle ´
a) b) c)
FIGURE 4.2 – Illustration de la construction intuitive d’un diagramme de Vorono¨ı en 2
dimensions : a) tracer les mediatrices entre chaque paire de sites (repr ´ esent ´ es par des ´
croix), b) puis limiter les segments de droite a leur jointure et c) it ` erer jusqu’ ´ a obtenir `
toutes les cellules de Vorono¨ı.
a) b) c)
FIGURE 4.3 – Exemple de triangulation de Delaunay (en 2 dimensions), le dual du
diagramme de Vorono¨ı. a) Les droites secantes entre les diff ´ erents sites forment des ´
triangles. b) Pour qu’une triangulation soit une triangulation de Delaunay, le cercle
circonscrit de chaque triangle ne doit contenir aucun autre site. c) Pour un meme en- ˆ
semble de sites, en gris sont represent ´ es les triangles de la triangulation de Delaunay ´
et en noir les facettes de Vorono¨ı.
La construction d’une triangulation de Delaunay commence par la selection al ´ eatoire ´
de 3 sites, qui sont toujours une triangulation de Delaunay. Puis, on teste l’insertion
aleatoire d’un nouveau site dans la triangulation en formant de nouveaux triangles ´
avec ce site. Si le nouveau site inser´ e forme un triangle dont le cercle circonscrit con- ´
tient un autre site, alors on teste la formation d’autres triangles avec le meme site. ˆ
Sinon, on accepte le nouveau site. On itere jusqu’ ` a ce que tous les sites soient ins ` er´ es´
61Chapitre 4. Approche multi-echelle ´
(voir fig. 4.4).
a) b) c)
FIGURE 4.4 – Construction d’une triangulation de Delaunay. Cas initial : 3 sites trac¸ant
un triangle constituent toujours une triangulation de Delaunay. Etape d’insertion d’un ´
nouveau site : a) inserer al ´ eatoirement un nouveau site, et donc un nouveau trian- ´
gle (l’insertion est valide si aucun autre site que les sommets du triangle n’est dans
son cercle circonscrit) ; b) si un autre site appartient au cercle circonscrit, on refuse
l’insertion du triangle et c) on teste alors la construction d’un autre triangle.
CGAL est couple´ a la ` Easy Structural Biology Templated Library (ESBTL [168])
pour determiner l’interface et obtenir les mesures statistiques. ESBTL est une li- ´
brairie implement ´ ee en C++, munie de ´ templates pour modeliser et manipuler effi- ´
cacement les entites biologiques. Il est notamment possible de s ´ electionner des entit ´ es´
biologiques telles que des chaˆınes d’acides amines ou d’acides nucl ´ eiques, des acides ´
amines, des acides nucl ´ eiques, des atomes. Des filtres peuvent ´ etre utilis ˆ es pour ne ´
selectionner qu’un sous-ensemble d’entit ´ es biologiques en fonction de son type. Nous ´
avons etendu ESBTL pour : ´
– definir des acides nucl ´ eiques ; ´
– construire automatiquement des atomes gros-grain a partir d’atomes de l’ ` echelle ´
atomique ;
– calculer l’aire d’une facette de Vorono¨ı et le volume d’une cellule de Vorono¨ı en
3D.
L’interface peut etre d ˆ efinie gr ´ ace au diagramme de Vorono ˆ ¨ı. L’usage d’une structure
geom ´ etrique telle que le diagramme de Vorono ´ ¨ı permet en effet de s’affranchir
des seuils arbitraires de distance utilises pour d ´ efinir si deux atomes sont en inter- ´
action. Ainsi, au sens du diagramme de Vorono¨ı, pour que deux atomes gros-grain
soient en interaction, ils doivent partager une facette de Vorono¨ı. L’interface est de cette
maniere repr ` esent ´ ee par l’ensemble des atomes gros-grain partageant une facette de ´
624.1. Principe de l’approche multi-echelle ´
Vorono¨ı avec au moins un atome gros-grain de l’autre partenaire (voir fig. 4.5). C’est
cette definition de l’interface qui est utilis ´ ee pour la fonction de score g ´ eom ´ etrique. ´
FIGURE 4.5 – L’interface d’une tessellation de Vorono¨ı appliquee´ a une interaction `
proteine-ARN. Les atomes gros-grain de la prot ´ eine (en bleu) et de l’ARN (en orange) ´
forment a leur interaction une interface (en vert). `
Le solvant est ajoute explicitement aux structures 3D notamment ´ a l’aide de ESBTL. `
Le solvant explicite a pour fonction de delimiter les surfaces ext ´ erieures des cellules ´
de Vorono¨ı qui ne sont pas enfouies dans la structure. L’ajout du solvant se traduit par
l’insertion de sites supplementaires, avant la construction du diagramme de Vorono ´ ¨ı.
Ces sites supplementaires sont ins ´ er´ es sous la forme d’un treillis o ´ u tout site est distant `
de tous ses voisins de 5A. Comme l’ajout du solvant explicite a pour cons ˚ equence une ´
forte augmentation du temps de calcul du diagramme de Vorono¨ı, les atomes grosgrain
de solvant inutiles sont retires. Sont inutiles tous les atomes gros-grain de solvant ´
qui sont trop loin des atomes gros-grain de chacun des deux partenaires pour interagir
avec eux. Comme l’ajout du solvant explicite peut induire un biais dans les resultats, ´
les atomes gros-grain en interaction avec le solvant ne sont pas consider´ es comme ´
faisant partie de l’interface.
FIGURE 4.6 – Le solvant a l’interface d’une tessellation de Vorono ` ¨ı construite sur les
atomes gros-grain d’une interaction proteine-ARN. Les atomes gros-grain du solvant ´
explicite (en rouge) reduisent l’interface (en vert) : tout atome gros-grain interagissant ´
avec un atome gros-grain du solvant est consider´ e en dehors de l’interface. ´
63Chapitre 4. Approche multi-echelle ´
4.1.3 Termes geom ´ etriques ´ a l’ ` echelle gros-grain ´
Il y a 210 termes de score geom ´ etriques r ´ epartis en 6 types de termes de score ´
geom ´ etriques (voir fig. 4.7) : ´
– P1 (1 terme), le nombre de centro¨ıdes a l’interface ; `
– P2 (1 terme), l’aire totale d’interaction, definie par la somme des aires des facettes ´
de Vorono¨ı a l’interface ; `
– P3 (24 termes), la proportion des cellules de Vorono¨ı des centro¨ıdes a l’interface `
sur le nombre total de cellules de Vorono¨ı a l’interface, pour chaque type d’acide `
amine (20) ou d’acide nucl ´ eique (4) ; ´
– P4 (24 termes), la volume median des centro ´ ¨ıdes a l’interface, pour chaque type `
d’acide amine (20) ou d’acide nucl ´ eique (4) ; ´
– P5 (80 termes), la proportion des facettes de Vorono¨ı a l’interface sur le nombre `
total de facettes de Vorono¨ı a l’interface, pour chaque paire de types d’acides `
amines (20) et d’acides nucl ´ eiques (4) ; ´
– P6 (80 termes), la distance mediane entre les centro ´ ¨ıdes a l’interface de cha- `
cun des deux partenaires, pour chaque paire de types d’acides amines (20) et ´
d’acides nucleiques (4). ´
FIGURE 4.7 – Mesure des parametres gros-grain ` a partir du diagramme de Vorono ` ¨ı entre
une proteine (en bleu) et un ARN (en orange). a) Facette de Vorono ´ ¨ı (surface grise)
entre un acide amine et un acide nucl ´ eique en interaction. Le param ´ etre P2 correspond `
a la somme des aires des facettes de Vorono ` ¨ı constituant l’interface. b) Cellule de
Vorono¨ı (en gris et ici decoup ´ ee pour faire appara ´ ˆıtre l’ARN en son centre) d’un acide
amine. Le param ´ etre P4 d’un type d’atome gros-grain correpond ` a la valeur m ` ediane ´
de ce volume sur tous les atomes gros-grain du type donne. c) Distance entre deux ´
atomes gros-grain (en jaune). Le parametre P6 de deux types donn ` es d’atomes gros- ´
grain correspond a la valeur m ` ediane de cette distance sur toutes les paires d’atomes ´
gros-grain de ces deux types donnes. ´
On peut dej ´ a remarquer que le nombre de termes de score est ` elev ´ e, avec 210 ´
termes. D’autres parametres auraient pu ` etre utilis ˆ es, comme le nombre de facettes ´
de Vorono¨ı ou la distance mediane entre tous les centro ´ ¨ıdes a l’interface. Mais ces `
644.1. Principe de l’approche multi-echelle ´
termes de score auraient pu augmenter la redondance des informations contenues
dans les differents termes de score. ´
Les deux premiers termes de score P1 et P2 sont attendus plus grands pour les
presque-natifs que pour les leurres. Cependant, il est tout a fait possible que leurs `
valeurs oscillent autour d’une valeur moyenne pour les presque-natifs et que des candidats
puissent avoir des valeurs encore plus elev ´ ees sans pour autant correspondre ´
a des presque-natifs. Le terme de score P1 correspond ` a une version issue du dia- `
gramme de Vorono¨ı du terme de score gros-grain interchain contact.
Les termes de score P3 et P5 ont pour objectif de mesurer l’impact de la presence ´
de chacun des types d’acide amine ou d’acide nucl ´ eique ´ a l’interface (P3), mais aussi `
leurs interactions pref ´ erentielles (P5). En effet, si un terme de score P3 est sensi- ´
blement plus elev ´ e au sein des presque-natifs qu’au sein des leurres, cela peut sig- ´
nifier que le type d’acide amine ou d’acide nucl ´ eique auquel il correspond se trouve ´
pref ´ erentiellement ´ a l’interface. De la m ` eme mani ˆ ere pour un terme de score P5, cela `
signifierait que le type d’acide amine et le type d’acide nucl ´ eique qui lui correspondent ´
sont plus souvent que les autres en interaction dans les complexes proteine-ARN. Les ´
termes de score P3 et P5 correspondent respectivement a une version g ` eom ´ etrique ´
des termes de score interchain env et interchain pair, mais dedi ´ es´ a l’interface. `
Le terme de score P4 evalue sp ´ ecifiquement l’empilement st ´ erique. Les acides ´
amines et nucl ´ eiques au contact les uns des autres forment ce qui est appel ´ e un em- ´
pilement sterique. Si les atomes gros-grain sont trop proches les uns des autres, le ´
volume median sera petit. Or, certains acides nucl ´ eiques et acides amin ´ es occupent ´
plus d’espace que d’autres. On attend donc des atomes gros-grain des acides amines´
et acides nucleiques dont la cha ´ ˆıne laterale est petite d’avoir un petit volume m ´ edian ´
chez les presque-natifs, et inversement.
Le terme de score P6 a plusieurs usages. D’une part, la distance mediane permet ´
de reperer les structures pour lesquelles une interaction anormalement longue inter- ´
vient, presageant d’un cas pathologique de leurre (mauvais empilement et donc pos- ´
siblement un probleme lors de la g ` en´ eration des leurres). D’autre part, P6 permet de ´
retrouver l’orientation des acides amines et acides nucl ´ eiques et d’ ´ evaluer si l’orienta- ´
tion de l’interaction se fait telle qu’attendue dans un presque-natif. En effet, les atomes
gros-grain representent la cha ´ ˆıne laterale et, selon l’orientation des acides amin ´ es et ´
acides nucleiques ´ a l’interaction, la distance entre eux n’est pas la m ` eme. ˆ
4.1.4 Donnees et fonctions de score ´ a l’ ` echelle gros-grain ´
Le jeu de donnees atomique de candidats est g ´ en´ er´ e autour et ´ a proximit ` e de la ´
solution. Or, la fonction de score gros-grain a besoin de discriminer des candidats
meme tr ˆ es` eloign ´ es de la solution des candidats mod ´ elisant l’ ´ epitope de l’interaction. ´
Ce jeu de donnees de candidats g ´ en´ er´ es n’est donc pas utilisable pour l’optimisation ´
de la fonction de score gros-grain.
Un jeu de donnees de candidats est donc g ´ en´ er´ e´ a l’identique du jeu de donn ` ees ´
atomique, aux parametres de la perturbation pr ` es. Plut ` ot que de d ˆ efinir un nuage de ´
perturbation gaussienne, les coordonnees de l’ARN sont d ´ efinies al ´ eatoirement au- ´
65Chapitre 4. Approche multi-echelle ´
tour de la proteine. Ceci assure que la structure native n’affecte pas le r ´ esultat et que ´
n’importe quel candidat puisse etre g ˆ en´ er´ e et utilis ´ e pour l’apprentissage comme pour ´
l’evaluation. ´
Les candidats gen´ er´ es sont ensuite ´ etiquet ´ es par un seuil diff ´ erent en I ´ RMSD de
celui utilise pour le jeu de donn ´ ees atomique, pour refl ´ eter la diff ´ erence d’objectif. L’ob- ´
jectif de la fonction de score gros-grain est en effet de trouver l’epitope, pas d’op ´ erer ´
un raffinement de la structure. Le seuil de IRMSD choisi est de 12 A, seuil en-dessous ˚
duquel un candidat est appele´ presque-natif, par analogie avec l’echelle atomique. ´
4.2 Optimisation de la fonction de score gros-grain
Comme pour l’echelle atomique, une fonction de score gros-grain impl ´ ement ´ ee di- ´
rectement dans RosettaDock necessite d’ ´ etre mod ˆ elis ´ ee sous la forme d’une combi- ´
naison lineaire des param ´ etres. Il est cependant possible de s’affranchir d’une telle `
contrainte et de n’utiliser la fonction de score gros-grain qu’en post-traitement de la
gen´ eration. Une telle utilisation implique d’avoir d ´ ej ´ a g ` en´ er´ e les candidats. Deux ap- ´
proches sont donc envisageables : l’utilisation d’une combinaison lineaire ou la mise ´
en place d’une fonction de score a posteriori.
ROGER, etant donn ´ ees ses performances pour l’adaptation de la fonction de score ´
atomique de RosettaDock a la pr ` ediction d’interactions prot ´ eine-ARN, est utilis ´ e pour ´
l’apprentissage d’une fonction logistique pour modeliser une fonction de score gros- ´
grain. La fonction de score ainsi apprise est appelee´ VOR. Nous allons maintenant
detailler comment cette fonction de score est apprise au moyen de R ´ OGER.
4.2.1 Methodologie d’optimisation de la fonction de score gros- ´
grain
La methodologie g ´ en´ erale d’optimisation de la fonction de score gros-grain se ´
decline en cinq phases : ´
– la gen´ eration de candidats issus des complexes de la P ´ RIDB par perturbation,
mais avec des candidats divergeant davantage de la structure native ;
– la construction d’un diagramme de Vorono¨ı sur chacun des candidats gen´ er´ es ; ´
– la mesure des valeurs des termes de score geom ´ etriques gros-grain sur les dia- ´
grammes de Vorono¨ı construits ;
– l’apprentissage de la fonction de score sur l’ensemble des 120 complexes de la
PRIDB ;
– l’evaluation des 120 fonctions de score apprises en ´ leave-”one-pdb”-out et eva- ´
luees sur les 10 000 candidats de leurs jeux d’ ´ evaluation. ´
La gen´ eration de candidats pour l’amarrage gros-grain doit donner des candi- ´
dats divergeant davantage de la solution. De plus, cette gen´ eration ne doit pas tenir ´
compte de la structure du natif. C’est pourquoi la gen´ eration des candidats de l’a- ´
marrage gros-grain se fait en aveugle : les coordonnees spatiales de l’ARN sont ´
determin ´ ees al ´ eatoirement. Une telle g ´ en´ eration sur 10 000 candidats nous emp ´ eche ˆ
664.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
par consequent d’imposer la m ´ eme contrainte du nombre minimum de presque-natifs ˆ
et de leurres gen´ er´ es par complexe. Si le nombre de leurres est rapidement important, ´
le nombre de presque-natifs gen´ er´ es reste tr ´ es faible. Cependant, nous voulons que `
la fonction de score gros-grain nous permette seulement de predire les structures suff- ´
isamment proches de la solution pour etre affin ˆ ees par la fonction de score atomique. ´
Nous pouvons donc considerer ´ a l’ ` echelle gros-grain et pour des raisons d’appren- ´
tissage que le seuil de presque-natifs est cette fois-ci de 10A. Nous pouvons v ˚ erifier ´
que des candidats a moins de 10 ` A de la structure native en I ˚ RMSD permettent bien
d’affiner la structure par protocole d’amarrage grace aux entonnoirs d ˆ etect ´ es pour la ´
fonction de score atomique (voir fig. 4.8).
2i82 (ES = 7.14)
Irmsd (Å)
Score
0 20
−44 −26
0 20
3fht (ES = 3.66)
Irmsd (Å)
Score
0 20
−24 −17
0 20
3iev (ES = 5.64)
Irmsd (Å)
Score
0 20
−27 −19
0 20
FIGURE 4.8 – Exemples de diagrammes d’energie en fonction du I ´ RMSD pour la fonction
de score POS sur 3 complexes. On remarque des entonnoirs permettant un affinement
de structures candidates trouvees ´ a moins de 10 ` A de la structure native. ˚
Contrairement aux termes de score physico-chimiques, ici, tous les termes de score
geom ´ etriques ont des valeurs positives ou nulles. Nous ne contraignons donc pas l’ap- ´
prentissage a rechercher les poids sur l’intervalle de valeurs positif avec cette fonction `
de score gros-grain. Nous etudions toutefois les diff ´ erences entre un apprentissage ´
a poids positifs et un apprentissage sans contrainte sur l’intervalle de d ` efinition des ´
poids.
4.3 Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
La fonction de score gros-grain est modelis ´ ee au moyen de termes g ´ eom ´ etriques ´
issus de la construction d’un diagramme de Vorono¨ı avec pour sites de construction
du diagramme les atomes gros-grain de la structure 3D. En plus d’etablir un protocole ´
permettant la prediction des interactions prot ´ eine-ARN, il s’agit de mieux comprendre ´
les mecanismes donnant lieu ´ a une interaction entre prot ` eine et ARN. C’est pourquoi ´
nous etudions non seulement la fonction de score mod ´ elis ´ ee, mais aussi les valeurs ´
des parametres selon le type de structure rencontr ` ee : native ou candidate. ´
67Chapitre 4. Approche multi-echelle ´
4.3.1 Etude des valeurs des mesures g ´ eom ´ etriques ´
Les valeurs des mesures geom ´ etriques des structures natives et des candidats per- ´
mettent d’en apprendre plus sur le comportement des mesures geom ´ etriques lorsqu’il ´
y a interaction entre proteine et ARN. Toutes les valeurs des mesures g ´ eom ´ etriques ´
sont ici analysees avant traitement des valeurs non renseign ´ ees : ces derni ´ eres ne `
sont tout simplement pas prises en compte pour cette analyse. Les mesures les plus
eloquentes sont certainement le nombre de cellules de Vorono ´ ¨ı en interaction et l’aire
de la surface totale d’interaction pour une meme structure 3D. Pour ces deux mesures, ˆ
les valeurs sont reparties tr ´ es diff ` eremment entre les structures natives et les candi- ´
dats.
En effet, les structures natives ont une surface d’interaction minimale de 10A˚ 2
, contre
0 pour des candidats ou les partenaires sont suffisamment ` eloign ´ es l’un de l’autre ´
(voir tableau 4.1). Rappelons qu’il est possible pour des candidats d’avoir une surface
d’interaction nulle car tout atome gros-grain en interaction avec le solvant est retire de ´
l’interface. La mediane de la surface d’interaction des structures natives est de 756 ´ A˚ 2
,
contre 336A˚ 2 pour les candidats. La methode de g ´ en´ eration des candidats n’impose ´
pas de contrainte sur les partenaires. Comme ceux-ci sont rigides, les perturbations
engendrent de nombreux candidats qui presentent un mauvais emboitement et une ´
interface faible (voir fig. 4.9).
FIGURE 4.9 – Interaction de la proteine (en bleu) et de l’ARN (en orange) avec le ´
solvant explicite (en rouge) du modele gros-grain, avec le mod ` ele atomique des deux `
partenaires affiche pour information (en gris). Il peut arriver comme ici que le nombre ´
d’acides amines et de r ´ esidus ´ a l’interface soit r ` eduit ´ a 0 par la pr ` esence d’atomes ´
gros-grain de solvant autour d’une petite interface composee de trois ou quatre acides ´
amines et nucl ´ eiques. ´
Pour le nombre de cellules de Vorono¨ı a l’interface, c’est d’autant plus flagrant, `
puisque la mediane du nombre de cellules de Vorono ´ ¨ı a l’interface est de 44 pour `
les structures natives, contre 28 pour les candidats. Il y a au minimum 3 cellules de
Vorono¨ı a l’interface dans les structures natives, contre 27 220 candidats qui n’en ont `
aucune. Ces 27 220 candidats sont repartis sur 26 complexes et ont des partenaires ´
trop eloign ´ es pour avoir une interface, le solvant se logeant trop pr ´ es des quelques `
684.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
atomes gros-grain interagissant. Cette absence d’interface est parfois aggravee par le ´
traitement des ions. Les ions a l’interface sont en effet retir ` es de la structure 3D et ´
sont par consequent remplac ´ es par des atomes de solvant s’ils laissent un vide trop ´
important. Or, tout atome gros-grain en interaction avec un atome gros-grain du solvant
n’est pas consider´ e comme faisant partie de l’interface, pour ´ eviter que le solvant ne ´
biaise les resultats des surfaces d’interaction et des volumes des cellules de Vorono ´ ¨ı.
Agregat ´ Aire de l’interface Nombre de cellules
Maximum 3209 174
Moyenne 952 54
Mediane ´ 756 44
Minimum 10 3
TABLE 4.1 – Repartition de deux termes de score g ´ eom ´ etriques sur les structures ´
natives de la PRIDB. L’aire de l’interface (P1) est la surface totale de l’interaction en A˚ 2
,
qui est indiquee avec le nombre de cellules de Vorono ´ ¨ı a l’interface. `
Les autres types de mesures sont repartis en fonction du type d’acide amin ´ e´
ou d’acide nucleique et sont donc plus nombreux, mais aussi parfois avec plus de ´
valeurs manquantes. On peut toutefois remarquer certaines propriet´ es int ´ eressantes ´
en comparaison avec les interactions proteine-prot ´ eine. Il a ´ et´ e vu pour les interac- ´
tions proteine-prot ´ eine que les acides amin ´ es hydrophobes ´ etaient les plus pr ´ esents ´
dans l’interface entre les partenaires [15]. Pour les interactions proteine-ARN, c’est le ´
phenom ´ ene inverse qui est observ ` e (voir fig. 4.11). ´ A part la leucine, ce sont les acides `
amines polaires – et notamment charg ´ es – qui sont ´ a l’interface : parmi les acides `
amines hydrophobes, seule la leucine fait partie des acides amin ´ es de proportion non ´
nulle a l’interface sur plus de la moiti ` e des structures natives. La leucine se partage ´
plus de la moitie des interfaces des structures natives avec l’arginine, l’aspartate, le ´
glutamate, la glycine, la lysine et la serine. Au total, parmi les acides amin ´ es charg ´ es, ´
seule l’histidine est absente de l’interface sur l’ensemble des structures natives alors
que, au contraire, parmi les acides amines polaires non charg ´ es, ce sont la glycine et ´
la serine qui ont une proportion non nulle. Aucun acide amin ´ e n’est ´ a l’interface dans `
toutes les structures natives. De plus, seule la lysine est presente ´ a l’interface dans `
plus des trois quarts des structures natives. De fac¸on plus gen´ erale, on constate une ´
queue de distribution plus elev ´ ee pour les leurres que pour les presque-natifs et natifs. ´
De la meme mani ˆ ere, les uraciles repr ` esentent en moyenne 12 % des acides amin ´ es´
et nucleiques ´ a l’interface, bien au-del ` a de la guanine (8 %), la cyst ` eine (7 %) et ´
l’adenine (5 %). Et seul l’uracile est pr ´ esent ´ a l’interface dans plus des trois-quarts `
des structures natives (voir fig. 4.12). On peut donc en conclure que les acides amines´
dominent largement les acides nucleiques dans leur participation ´ a l’interaction. Il y `
a plus d’un acide amine pour un acide nucl ´ eique. Le rapport est plus proche de sept ´
acides amines pour trois acides nucl ´ eiques dans les structures natives, donc plus ´
de deux pour un. C’est un rapport important a garder en t ` ete lorsque l’on souhaite ˆ
modeliser une interaction prot ´ eine-ARN. En effet, cela signifie que ce sont les atomes ´
69Chapitre 4. Approche multi-echelle ´
0 1000 2000 3000
0.0000 0.0010 0.0020 0.0030
P1 : aire de la surface d'interaction
Densité de structures
0 50 100 150 200
0.00 0.02 0.04
P2 : nombre d'acides aminés et nucléiques
Densité de structures
FIGURE 4.10 – Courbes de densite des termes de score P1 (surface d’interaction) et P2 ´
(nombre d’acides amines et nucl ´ eiques ´ a l’interface) sur les 120 structures natives (en `
rouge), sur les 64 994 presque-natifs (en orange) et sur les 1 135 006 leurres (en gris).
On peut remarquer que de nombreux candidats ne presentent pas d’interface, ce qui ´
est du au fait que tous les atomes gros-grain en interaction entre les deux partenaires ˆ
sont aussi en interaction avec le solvant.
gros-grain des acides amines qui ont le plus d’impact sur la valeur du score. ´
La forte proportion de candidats sans un ou plusieurs types d’acides nucleiques ´ a`
l’interface est explique par deux ph ´ enom ´ enes : `
– les candidats sans interface ;
704.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
0.0 0.2 0.4 0.6
0 20 40 60 80
P3 : proportion de LEU
Densité de structures
0.0 0.2 0.4 0.6
0 10 20 30 40 50
P3 : proportion de ARG
Densité de structures
0.0 0.2 0.4 0.6
0 10 20 30 40 50 60
P3 : proportion de ASP
Densité de structures
FIGURE 4.11 – Courbes de densite des termes de score P3 pour quelques acides ´
amines sur les 120 structures natives (en rouge), sur les presque-natifs (en orange) et ´
sur les leurres (en gris).
– les candidats avec de petits ARN ou des ARN ne presentant qu’un ou deux types ´
d’acides nucleiques. ´
Nous avons en effet vu que les candidats sans interface etaient nombreux et ont ´
necessairement les valeurs des quatre param ´ etres P3 des acides nucl ` eiques ´ a z ` ero. ´
Mais il existe aussi de petits ARN ou des ARN ne presentant pas un ou plusieurs types ´
d’acides nucleiques. C’est le cas des queues poly-A ou poly-U, qui ne poss ´ edent que `
des adenines ou des uraciles. Il existe aussi des complexes dont l’ARN ne contient ´
71Chapitre 4. Approche multi-echelle ´
0.0 0.2 0.4 0.6
0
5 10 20 30
P3 : proportion de GLU
Densité de structures
0.0 0.2 0.4 0.6
0 10 30 50 70
P3 : proportion de GLY
Densité de structures
0.0 0.2 0.4 0.6
0
5 10 20 30
P3 : proportion de LYS
Densité de structures
0.0 0.2 0.4 0.6
0 20 40 60 80
P3 : proportion de SER
Densité de structures
FIGURE 4.11 (cont.) – Courbes de densite des termes de score P3 pour quelques ´
acides amines sur les 120 structures natives (en rouge), sur les presque-natifs (en ´
orange) et sur les leurres (en gris).
qu’une rep´ etition du motif GC. Aucun de ces complexes ne poss ´ ede certains types `
d’acides nucleiques et ceci se retrouve dans les param ´ etres P3 des acides nucl ` eiques ´
sous la forme d’un pic a l’abscisse z ` ero (voir fig. 4.12). ´
724.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
0.0 0.2 0.4 0.6
0
5 10 20 30
P3 : proportion de A
Densité de structures
0.0 0.2 0.4 0.6 0.8
0
5 10 15 20
P3 : proportion de C
Densité de structures
0.0 0.2 0.4 0.6 0.8
0
5 10 15 20
P3 : proportion de G
Densité de structures
0.0 0.2 0.4 0.6 0.8
0
5 10 15 20
P3 : proportion de U
Densité de structures
FIGURE 4.12 – Courbes de densite des termes de score P3 pour les acides nucl ´ eiques ´
sur les 120 structures natives (en rouge), sur les presque-natifs (en orange) et sur les
leurres (en gris). Ici, s’ajoutent aux candidats sans interface les candidats avec de tres`
petits ARN, comme des queues poly-A, qui ne contiennent que des adenines et, par ´
consequent, ne poss ´ edent pas d’autre acide nucl ` eique ´ a l’interface que des ad ` enines. ´
4.3.2 Evaluation de la fonction de score gros-grain ´
La fonction de score gros-grain a pour objectif de trier les candidats de telle sorte
qu’au moins une structure modelisant l’ ´ epitope de l’interaction fasse partie des premi- ´
eres structures du tri. Une fois l’ ` epitope d ´ etect ´ e, c’est ´ a la fonction de score atomique `
73Chapitre 4. Approche multi-echelle ´
d’affiner la structure et d’en modeliser l’interaction 3D. Nous allons d’abord ´ evaluer ´
les poids de la fonction de score gros-grain, puis ses performances, que nous comparerons
ensuite a la m ` eme fonction de score dont les poids sont appris dans l’inter- ˆ
valle de valeurs positif, ainsi qu’a une fonction de score non lin ` eaire utilisant une valeur ´
de centrage par terme de score (voir section 3.1.1 chapitre 3).
4.3.2.1 Poids
Les poids des parametres P1 (l’aire totale de la surface d’interaction) et P2 (le nom- `
bre d’acides amines et nucl ´ eiques ´ a l’interface) sont sans surprise tr ` es n ` egatifs (voir ´
4.13). Ces poids etaient attendus n ´ egatifs car ils sont cens ´ es favoriser l’interaction : il ´
faut qu’il y ait un nombre suffisant d’acides amines et nucl ´ eiques (pour P1), de m ´ eme ˆ
qu’une surface d’interaction suffisante (pour P2) pour obtenir une interaction entre les
deux partenaires. On constate tout de meme une distance d’interquartile (entre le pre- ˆ
mier quartile et le troisieme) plus importante pour P2 que pour P1. Autrement dit, l’ap- `
prentissage sur chacun des plis du leave-”one-pdb”-out ne donne pas un consensus
aussi clair pour l’utilite de P2 que pour celle de P1 pour pr ´ edire l’interaction prot ´ eine- ´
ARN. Ceci suggere que le nombre d’acides amin ` es et nucl ´ eiques en interaction a une ´
contribution plus discutable que la surface d’interaction.
●
●
●●●
●
●
●
●
●
●
●
●
−1.0 −0.5 0.0 0.5 1.0
Termes de score P1 (surface d'interaction) et P2 (nombre d'acides aminés et nucléiques)
Poids
P1 P2
FIGURE 4.13 – Valeurs des coefficients des parametres P1 et P2 pour les 120 com- `
plexes : l’aire totale de la surface d’interaction (en A˚ 2
) et le nombre d’acide amines et ´
nucleiques ´ a l’interface. P1 et P2 sont tr ` es n ` egatifs. ´
On peut aussi constater que tous les parametres P3 (proportion d’acides amin ` es´
a l’interaction) fluctuent autour d’une valeur de 0.5, avec peu de diff ` erences entre les ´
types d’acides amines ou nucl ´ eiques (voir fig. 4.14). Ces poids ont donc tendance ´ a`
744.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
augmenter le score final, donc classer le candidat comme leurre. La fonction de score
a pris en compte le fait qu’il existe des leurres pour lesquels la proportion d’acides
amines de m ´ eme type ˆ a l’interaction est tr ` es importante. Cette proportion importante `
d’acides amines de m ´ eme type correspond ˆ a la queue de distribution de chacun des `
termes de score de P3 vue a la section pr ` ec´ edente. ´
●● ●
●
●
● ● ●
●● ●
●
●
● ●
● ●
●● ●
−1.0 −0.5 0.0 0.5 1.0
Termes de score P3 : proportion d'acides aminés ou nucléiques par type
Poids
ALA
ARG
ASN
ASP
CYS
GLN
GLU
GLY
HIS
ILE
LEU
LYS
MET
PRO
PHE
SER
THR
TRP
TYR
VAL
A
C
G
U
FIGURE 4.14 – Valeurs des coefficients des parametres P3 pour les 120 complexes : `
les proportions de chaque type d’acide amine et d’acide nucl ´ eique. P3 p ´ enalise les ´
structures qui privilegient ´ a leur interface la pr ` esence d’un type d’acide amin ´ e ou ´
nucleique plut ´ ot qu’un autre. ˆ
Comparativement aux poids appris pour les interactions proteine-prot ´ eine, les poids ´
des parametres P4 – les volumes m ` edians – ne sont pas tous n ´ egatifs (voir 4.15). Au ´
contraire, plusieurs acides amines montrent des poids positifs de grande amplitude. En ´
realit ´ e, les poids P4 montrent que l’ordonnancement des acides amin ´ es selon leur taille ´
(ou encombrement sterique) a partiellement ´ et´ e retrouv ´ e´ a travers l’apprentissage. Ils `
sont positifs pour les acides amines de petite taille (alanine, glycine, aspartate, gluta- ´
mate, methionine, valine) et n ´ egatifs de grande amplitude pour les acides amin ´ es de ´
taille importante (arginine, tyrosine, tryptophane, phenylalanine, histidine). Les acides ´
amines polaires non charg ´ es (asparagine, glutamine) de composition proche de cer- ´
tains residus charg ´ es ont aussi des poids n ´ egatifs de plus grande amplitude que les ´
acides amines charg ´ es correspondants : l’aspartate et le glutamate d ´ ej ´ a cit ` es plus ´
haut. Globalement, les poids des parametres P4 sont n ` egatifs ou nuls m ´ eme pour ˆ
des acides amines de taille moyenne (thr ´ eonine, leucine, isoleucine, lysine, s ´ erine, ´
cysteine, proline). Pour les acides nucl ´ eiques, les poids sont positifs et faibles, indi- ´
quant que la fonction de score favorise les candidats ayant un volume median rela- ´
tivement faible pour chaque acide nucleique, en comparaison des volumes m ´ edians ´
75Chapitre 4. Approche multi-echelle ´
obtenus sur les candidats d’une gen´ eration de candidats par perturbation. Les poids ´
des pyrimidines (G et C) sont plus elev ´ es que ceux des purines, qui sont de taille ´
plus petite relativement aux pyrimidines. Le meme constat que pour les prot ˆ eines peut ´
donc etre fait pour les acides nucl ˆ eiques : l’ordonnancement des acides nucl ´ eiques ´
selon leur taille a et ´ e appris par la fonction de score. D’un point de vue g ´ eom ´ etrique, ´
les acides amines et nucl ´ eiques avec une taille importante ont tendance ´ a obtenir des `
cellules de Vorono¨ı plus volumineuses dans une structure native ou presque-native.
Dans une structure gen´ er´ ee al ´ eatoirement et ´ eloign ´ ee de la solution native, la cellule ´
de Vorono¨ı peut avoir un volume plus elev ´ e ou plus faible. Cette diff ´ erence entre le ´
volume des cellules de Vorono¨ı pour les presque-natifs et pour les leurres lors de l’apprentissage
a donc permis a l’algorithme d’apprentissage de retrouver les tailles des `
differents acides amin ´ es et nucl ´ eiques. ´
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
−1.0 −0.5 0.0 0.5 1.0
Termes de score P4 : volume médian par acide aminé ou nucléique
Poids
ALA
ARG
ASN
ASP
CYS
GLN
GLU
GLY
HIS
ILE
LEU
LYS
MET
PRO
PHE
SER
THR
TRP
TYR
VAL
A
C
G
U
FIGURE 4.15 – Valeurs des coefficients des parametres P4 pour les 120 complexes : `
les volumes medians par type d’acide amin ´ e ou nucl ´ eique. Les poids montrent que ´
la fonction de score a retrouve l’information d’encombrement st ´ erique de chaque type ´
d’acide amine et nucl ´ eique. ´
4.3.2.2 Evaluation de la fonction de score gros-grain ´
La fonction de score gros-grain VOR montre de moins bonnes performances que la
fonction de score atomique POS : seuls 65 des complexes ont au moins un presquenatif
parmi les 10 premiers candidats. Meme dans le top100 des candidats, seulement ˆ
99 des complexes ont au moins un presque-natif. Ceci est duˆ a plusieurs facteurs. `
Tout d’abord, on peut remarquer que le nombre de presque-natifs par complexe est
drastiquement plus faible : moins de 150 presque-natifs sur les 10 000 structures, pour
764.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
plus de la moitie des complexes. En comparaison, aucun complexe n’avait aussi peu ´
de presque-natifs a l’ ` echelle atomique, puisque leur minimum ´ etait ´ a 225 presque- `
natifs et ce nombre depassait le millier pour 116 des complexes. Ensuite, le nombre de ´
parametres complexifie l’apprentissage. Nous avons pu voir dans l’ ` etude des poids que ´
de nombreuses informations ont et´ e extraites par la fonction de score : l’encombrement ´
sterique des acides amin ´ es et nucl ´ eiques ainsi que la queue de distribution des propor- ´
tions d’acides amines et nucl ´ eiques ´ a l’interface, notamment. Mais les 210 param ` etres `
ne sont appris que sur moins de 2 500 candidats a chaque fois. De plus, la g ` en´ eration ´
de candidats par perturbation n’a pas permis d’obtenir 30 presque-natifs pour tous
les complexes et ne permet qu’une gen´ eration in ´ egale du nombre de presque-natifs ´
par complexe. On peut notamment voir des illustrations de complexes pour lesquels la
prediction a fonctionn ´ e et d’autres pour lesquels elle n’a pas fonctionn ´ e (voir table 4.2). ´
pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC
1gtf 1.55 10 6.307 99 6307 0.70
1knz 3.26 10 1.136 90 1136 0.73
1m8v 1.70 10 6.192 92 6192 0.61
2a8v 2.22 10 5.018 90 5018 0.67
2voo 4.88 10 3.261 97 3261 0.77
3d2s 1.63 10 5.557 93 5557 0.62
1asy 2.35 0 0.008 0 8 0.59
1b23 1.67 0 0.024 1 24 0.72
1c0a 1.89 0 0.001 0 1 0.77
1ddl 1.21 0 0.327 1 327 0.61
1di2 0.93 0 0.114 0 114 0.52
1e8o 1.43 0 0.743 10 743 0.60
TABLE 4.2 – Resultats de la fonction de score gros-grain VOR sans contrainte sur ´
l’apprentissage des poids pour 6 des meilleurs (en haut) et 6 des pires (en bas) complexes
de la PRIDB (meilleurs ou pires au sens du nombre de presque-natifs dans le
top10) : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre
de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque- ´
natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et aire
sous la courbe ROC sur 10 000 candidats par pdb evalu ´ e. On peut remarquer que ´
tous ces meilleurs complexes ont plus de 1 000 presque-natifs dans les 10 000 candidats
gen´ er´ es, alors que tous ces pires complexes ont moins de 1 000 presque-natifs ´
gen´ er´ es, souvent m ´ eme bien moins. ˆ
Il est aussi a noter qu’il n’est pas n ` ecessaire d’avoir un maximum de presque-natifs ´
dans le top10 des candidats : un seul presque-natif suffit. De plus, ici, l’objectif est
davantage de minimiser la position du premier presque-natif – idealement pour qu’il ´
soit en premiere position dans le tri – que de le placer dans le top10. En effet, plus ce `
presque-natif sera place loin dans le tri et plus il faudra tester de candidats comme point ´
de depart d’un amarrage atomique avant de pouvoir effectuer un amarrage atomique ´
77Chapitre 4. Approche multi-echelle ´
sur le bon candidat.
Lorsque l’on regarde le top100 des candidats, on peut observer que plusieurs complexes
avec moins de 10 presque-natifs en ont un ou plusieurs dans le top100 (voir
table 4.3). Les aires sous la courbe ROC ont alors des valeurs tres` elev ´ ees. On peut ´
donc se rendre compte que, lorsque la gen´ eration de candidats par perturbation per- ´
met de rapidement gen´ erer de nombreux candidats de I ´ RMSD proche de la solution,
le protocole d’amarrage gros-grain fonctionne tres bien. Mais d ` es que les deux parte- `
naires sont de taille suffisamment elev ´ ee, la g ´ en´ eration de 10 000 candidats est insuff- ´
isante pour avoir de bonnes chances de trouver l’epitope en une dizaine de tentatives ´
d’amarrage atomique.
pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC
1ffy 2.30 0 0.008 2 8 0.88
1ser 1.95 0 0.008 1 8 0.88
1qtq 2.05 0 0.007 3 7 0.93
1f7u 2.56 0 0.007 1 7 0.86
1qf6 2.06 0 0.005 1 5 0.85
2bte 2.46 0 0.002 1 2 0.98
TABLE 4.3 – Resultats de la fonction de score gros-grain VOR sans contrainte sur ´
l’apprentissage des poids pour 6 autres des pires complexes de la PRIDB (pires au
sens du nombre de presque-natifs dans le top10), mais avec au moins un presquenatif
dans le top100 : score d’enrichissement (ES), nombre de presque-natifs dans le
top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´
presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et
aire sous la courbe ROC sur 10 000 candidats par pdb evalu ´ e. Malgr ´ e le faible nombre ´
de presque-natifs dans les 10 000 candidats de chaque complexe, il y a tout de meme ˆ
un ou plusieurs presque-natifs dans le top100 des candidats, ce qui donne de tres`
bonnes ROC-AUC.
4.3.2.3 Comparaison avec contrainte a poids positifs `
La fonction de score avec contrainte a poids positifs offre des performances encore `
moins bonnes. Seulement 8 complexes ont au moins un presque-natif dans le top10
des candidats (voir table 4.4). Et seulement 35 complexes ont au moins un presquenatif
dans le top100 des candidats.
Nous pouvons donc voir que la contrainte de l’intervalle de valeurs des poids a`
apprendre depend enti ´ erement du contexte de l’apprentissage. Les descripteurs appris `
sont ici differents du cas de l’ ´ echelle atomique et donnent tous, quelle que soit leur ´
nature, une valeur positive ou nulle. La modelisation de la fonction de score doit alors ´
prendre en compte la contrainte selon laquelle tous les poids doivent etre positifs, alors ˆ
que certains termes de score ne sont pas des termes de penalisation des structures, ´
mais au contraire penchent en faveur de l’interaction.
784.3. Evaluation de l’interaction ´ a l’ ` echelle gros-grain ´
pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC
1gtf 1.27 7 6.307 53 6307 0.48
2a8v 0.69 5 5.018 54 5018 0.46
3d2s 1.00 5 5.557 47 5557 0.49
1sds 0.69 4 2.190 15 2190 0.52
1dfu 0.31 1 0.743 2 743 0.31
2bu1 0.35 1 1.291 4 1291 0.38
TABLE 4.4 – Resultats de la fonction de score gros-grain ´ a poids positifs pour les `
6 meilleurs complexes de la PRIDB (au sens du nombre de presque-natifs dans le
top10) : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre
de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´
dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la
courbe ROC sur 10 000 candidats par pdb evalu ´ e. Comme on peut le voir, les r ´ esultats ´
ne sont pas satisfaisants pour notre protocole d’amarrage gros-grain.
4.3.2.4 Comparaison avec valeurs de centrage
Etant donn ´ e le comportement des structures natives par rapport aux candidats ´
gen´ er´ es, Il est l ´ egitime de penser que les presque-natifs ont une plage de valeurs ´
ideales pour au moins certains param ´ etres, au-dessus et en-dessous de laquelle se `
trouve un espace majoritairement peuple de leurres. Nous pouvons tirer parti de cette ´
repartition en plage de valeurs id ´ eales. C’est un concept qui a d ´ ej ´ a fait ses preuves, `
notamment en fouille de donnees textuelles [214], mais aussi en amarrage prot ´ eine- ´
proteine [6]. Une fonction de score non lin ´ eaire est alors compar ´ ee´ a la fonction `
de score constituee d’une combinaison lin ´ eaire des termes de score g ´ eom ´ etriques. ´
Son comportement sur un seul parametre se mod ` elise par une fonction d ´ ecroissante ´
jusqu’en 0, suivie d’une fonction croissante (voir fig. 4.16). La valeur de centrage ci
indique le centre estime par la fonction de score pour la plage de valeurs id ´ eales. Le ´
poids wi mesure la vitesse a laquelle s’ ` ecarter de cette valeur de centrage p ´ enalise ´
la structure. Au lieu d’un seul poids par terme de score i, cette fonction de score non
lineaire apprend donc les deux poids ´ wi et ci
, calculant le score ainsi, avec les valeurs
des A descripteurs de l’exemple tels que X = (x1, x2, ...x|A|) (voir eq. 4.2). ´
f(X) = X
|A|
i=1
wi
|xi − ci
| (4.2)
Ce modele de fonction de score a d ` ej ´ a` et´ e pr ´ esent ´ e au chapitre 3, en section 3.1.1. ´
Son avantage pour le cas qui nous interesse est de pouvoir discriminer, pour chaque ´
descripteur, d’une part une plage de valeurs correspondant aux presque-natifs, d’autre
part des valeurs correspondant aux leurres et positionnees de part et d’autre de cette ´
plage de valeurs. Remarquons que l’apprentissage des poids doit ici se faire dans
l’intervalle positif au moins pour les valeurs de centrage. Une valeur de ci negative n’a ´
en effet pas de sens puisque tous les termes de score sont a valeur dans l’intervalle `
79Chapitre 4. Approche multi-echelle ´
positif.
Valeur du terme de score xi
Participation yi de xi au score
0 ci
0 wi * |ci|
FIGURE 4.16 – Exemple de calcul de la participation yi a un score ` y par une fonction de
score avec valeurs de centrage, utilisant les poids wi et ci
. Le poids ci est aussi appele´
la valeur de centrage. On peut voir que l’ordonnee´ a l’origine est ` egale ´ a` wi∗|ci
|. Ce type
de fonction permet de modeliser des ph ´ enom ´ enes pour lesquels une plage de valeurs `
ideales est entour ´ ee de valeurs de plus en plus ´ eloign ´ ees du crit ´ ere caract ` erisant la ´
plage de valeurs ideales. ´
Les resultats de la fonction de score avec valeurs de centrage sont moins satis- ´
faisants (voir table 4.5). Il y a 28 complexes pour lesquels au moins un presque-natif
est trouve dans le top10 des candidats, et 61 complexes avec au moins un presque- ´
natif dans le top100 des candidats. La fonction de score avec valeurs de centrage est
tout de meme plus performante que la fonction de score form ˆ ee d’une combinaison ´
lineaire des param ´ etres dont les poids sont restreints ` a l’intervalle de valeurs positif. `
D’autre part, on n’observe plus aucun complexe pour lesquels il existe au moins un
presque-natif dans le top100 pour les complexes avec dix presque-natifs ou moins sur
l’ensemble des 10 000 candidats gen´ er´ es. Cette fonction de score est donc bien moins ´
adaptee´ a la pr ` ediction d’interactions prot ´ eine-ARN que la fonction de score VOR. ´
4.4 Conclusions sur la fonction de score gros-grain
Le protocole gros-grain part de candidats gen´ er´ es al ´ eatoirement dans l’espace des ´
candidats pour essayer de trouver un candidat suffisamment proche de l’epitope pour ´
etre exploitable par le protocole atomique. Malheureusement, les performances de la ˆ
fonction de score gros-grain ne remplissent pas aussi bien les objectifs fixes que pour ´
804.4. Conclusions sur la fonction de score gros-grain
pdb ES TOP10 Attendus TOP100 Presque-natifs ROC-AUC
1gtf 1.12 8 6.307 65 6307 0.51
1m8v 1.07 5 6.192 57 6192 0.49
2f8k 1.06 5 3.820 43 3820 0.49
1wsu 1.02 4 2.288 29 2288 0.51
2gxb 0.96 4 3.404 39 3404 0.49
2a8v 0.77 3 5.018 43 5018 0.49
TABLE 4.5 – Resultats de la fonction de score gros-grain avec valeurs de centrage pour ´
les 6 meilleurs complexes de la PRIDB (au sens du nombre de presque-natifs dans le
top10) : score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre
de presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´
dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la
courbe ROC sur 10 000 candidats par pdb evalu ´ e. Comme on peut le voir, les r ´ esultats ´
sont meilleurs que lorsque l’on contraint un apprentissage des poids dans un intervalle
de valeurs positif, mais toujours insatisfaisants pour notre protocole d’amarrage grosgrain.
la fonction de score atomique. Le manque de solutions acceptables a l’ ` echelle gros- ´
grain parmi celles obtenues avec la gen´ eration de candidats par perturbation participe ´
a ce constat. G ` en´ erer plus de 10 000 candidats pourrait permettre de mieux g ´ erer ce ´
phenom ´ ene. Le second probl ` eme est le nombre de param ` etres, qui s’ ` el ´ eve ` a 210, `
alors que la fonction de score utilise moins de 2 500 candidats dans l’apprentissage.
Malgre cela, m ´ eme pour des complexes avec tr ˆ es peu de solutions, on constate des `
presque-natifs dans le top100 des candidats.
Nous avons cependant pu constater a nouveau qu’il est important de savoir d ` efinir ´
avec precaution l’intervalle de valeurs des poids ´ a apprendre pour la fonction de score. `
Contrairement a l’amarrage atomique, ici, il convient de ne pas contraindre l’appren- `
tissage des poids a l’intervalle de valeurs positif, au risque d’obtenir une fonction de `
score moins performante. Nous avons aussi pu tester l’apprentissage d’une fonction de
score avec valeurs de centrage, qui semblait bien adaptee au ph ´ enom ´ ene de plages `
de valeurs ideales observ ´ ees pour plusieurs param ´ etres. Cette fonction de score avec `
valeurs de centrage etait tout de m ´ eme moins performante que la fonction de score ˆ
par combinaison lineaire des param ´ etres. `
Nous avons aussi pu montrer que les acides amines hydrophobes participent bien ´
moins a l’interaction que les acides amin ` es hydrophiles – surtout les acides amin ´ es´
charges – contrairement ´ a ce qui est observ ` e pour les interactions prot ´ eine-prot ´ eine. ´
Les poids associes aux param ´ etres issus des volumes m ` edians montrent que la taille ´
(encombrement sterique) des acides amin ´ es et des acides nucl ´ eiques est retrouv ´ ee et ´
prise en compte dans la fonction de score gros-grain.
81Chapitre 4. Approche multi-echelle ´
82Chapitre 5
Discussion biologique
5.1 Limites inherentes ´ a la construction de fonctions `
de score obtenues par apprentissage
Les modeles de fonction de score construits pour cette ` etude sont issus d’extrac- ´
tion de connaissances a partir de donn ` ees biologiques/biophysiques exp ´ erimentales et ´
simulees. Pour donner de bons r ´ esultats, ces mod ´ eles de fonction de score n ` ecessitent ´
donc des donnees de qualit ´ e et une mod ´ elisation fiable et pr ´ ecise des objets ´ etudi ´ es. ´
Or, si la quantite relativement faible de donn ´ ees disponibles (que nous verrons en sec- ´
tion 5.1.1) sur les interactions 3D proteine-ARN incite ´ a pr ` edire ces interactions, elle ´
limite aussi les modeles pouvant ` etre construits pour pr ˆ edire ces interactions. ´
Pour eviter une sur-repr ´ esentation de complexes tr ´ es` etudi ´ es dans la PDB, il est ´
necessaire de limiter la redondance dans les jeux de donn ´ ees. Mais cela a pour ´
consequence que les quantit ´ es de donn ´ ees disponibles sont faibles voire tr ´ es faibles. `
Le manque de donnees et la diversit ´ e des r ´ esidus et bases nucl ´ eiques imposent ´
des choix de methodes d’ ´ evaluation et de traitement des valeurs manquantes, des ´
valeurs non standards et du solvant. Chacun de ces choix a un impact sur les resultats. ´
Cette partie traite de cet impact, qu’il faut avoir a l’esprit pour correctement interpr ` eter ´
les resultats. ´
5.1.1 Une source de donnees exp ´ erimentales en constante ´ evolution ´
Nous avons pu extraire et nettoyer 120 complexes proteines-ARN de la P ´ RIDB
non redondante RB199. Nous avons ensuite utilise ces 120 solutions natives pour ´
gen´ erer 10 000 candidats chacune, d’une part pour l’ ´ echelle atomique, d’autre part ´
pour l’echelle gros-grain. Pour ces 120 complexes prot ´ eine-ARN, nous avons pu mon- ´
trer que l’objectif etait rempli pour plus de 90 % d’entre eux. ´
Un nouveau jeu de donnees non redondantes de r ´ ef´ erence – RB344 – est en cours ´
de construction 8
. Il contiendra comme son nom l’indique 344 chaˆınes d’acides amines´
et palliera en partie le manque de donnees. Qu’en serait-il si nous avions dispos ´ e´
8. http://www.pridb.gdcb.iastate.edu/download.php
83Chapitre 5. Discussion biologique
de ces complexes ? Avec davantage de donnees, il serait par exemple possible d’en- ´
visager une evaluation d’interactions non prises en compte dans le mod ´ ele pr ` esent ´ e,´
notamment les interactions avec le solvant explicite qui a et´ e trait ´ e lors du nettoyage ´
des donnees. ´
5.1.2 Influence du nettoyage des donnees ´
5.1.2.1 Valeurs manquantes
Le traitement des valeurs manquantes a ici eu pour but de minimiser l’impact
des parametres inconnus et de permettre d’utiliser des techniques pour lesquelles `
l’ensemble des descripteurs doivent etre renseign ˆ es. Dans les jeux de donn ´ ees de ´
ref ´ erence, certains acides nucl ´ eiques (resp. acides amin ´ es) sont peu pr ´ esents voire ´
inexistants en interaction avec des acides amines (resp. acides nucl ´ eiques). C’est no- ´
tamment le cas de la cysteine. Pour que le mod ´ ele de fonction de score soit complet, il `
necessite tout de m ´ eme un score associ ˆ e aux interactions rarement rencontr ´ ees. Pour ´
determiner cette valeur de score, nous utilisons une m ´ ethode statistique. Une premi ´ ere `
maniere de proc ` eder serait de prendre la valeur moyenne du score pour les autres ´
acides nucleiques ou acides amin ´ es. Ceci donnerait un poids identique ´ a chaque acide `
nucleique ou amin ´ e dans la valeur du score des interactions rares ou non rencontr ´ ees. ´
Or, plusieurs acides nucleiques ou amin ´ es diff ´ erent de mani ` ere importante des autres, `
que ce soit par leur taille ou par leur charge elev ´ ee. Nous avons donc choisi une sec- ´
onde methode : la valeur m ´ ediane. Pour minimiser l’impact de ces acides amin ´ es ou ´
nucleiques au comportement diff ´ erent, nous remplac¸ons la valeur de score des inter- ´
actions rarement rencontrees par la valeur m ´ ediane des acides nucl ´ eiques ou amin ´ es´
sur l’ensemble des structures natives. La mediane de chaque param ´ etre sur les struc- `
tures natives suffit pour attribuer une valeur a chacun des 210 param ` etres. Il s’ensuit `
que les interactions rares ou non rencontrees ont une estimation impr ´ ecise de la valeur ´
de leur score, mais qui correspond au comportement d’un acide amine ou nucl ´ eique ´
type dans une veritable interaction. ´
5.1.2.2 Acides amines et nucl ´ eiques non standards ´
Le traitement des valeurs issues des bases et residus non standards a un impact ´
sur les predictions issues du mod ´ ele. Pour d ` efinir les param ´ etres de la fonction de `
score gros-grain, les methodes utilis ´ ees mettent en œuvre des mesures statistiques ´
sur les jeux de donnees. Le principe est de faire l’hypoth ´ ese que toute nouvelle inter- `
action a pr ` edire se comportera localement pour un acide amin ´ e ou un acide nucl ´ eique ´
comme les interactions dej ´ a connues : `
– si un type d’acide amine se trouve souvent ´ a l’interaction dans les jeux de `
donnees de r ´ ef ´ erence, on aura tendance ´ a penser qu’il devrait g ` en´ eralement ´
etre ˆ a l’interaction ; `
– si un type d’atome ne se trouve quasiment jamais a moins d’une certaine dis- `
tance d’un autre type d’atome, on aura tendance a penser qu’il ne devrait pas se `
trouver plus pres d’un atome que cette distance. `
845.1. Limites inherentes ´ a la construction de fonctions de score obtenues par apprentissage `
De plus, il arrive que les proteines et ARN en interaction contiennent des acides ´
amines ou acides nucl ´ eiques non standards, g ´ en´ erant des param ´ etres qui leur sont `
specifiques. Or, ces acides nucl ´ eiques ou amin ´ es non standards sont rencontr ´ es trop ´
rarement pour modeliser correctement leur influence sur la fonction de score. Il faut ´
alors simplifier le modele et remplacer les acides amin ` es et acides nucl ´ eiques non ´
standards par la structure chimique standard leur etant la plus proche. ´
Cette simplification du modele a peu d’incidence sur la plupart des complexes `
proteine-ARN. Il existe cependant des cas o ´ u les acides amin ` es ou nucl ´ eiques non ´
standards jouent un role d ˆ eterminant dans l’interaction. C’est le cas de certains des ´
complexes mettant en jeu la reconnaissance specifique de ces acides amin ´ es ou ´
nucleiques non standards. Pour illustration, le complexe tRNA-pseudouridine avec la ´
tRNA-pseudouridine synthase necessite la reconnaissance sp ´ ecifique du codon de la ´
pseudouridine du tRNA par la tRNA synthase. Il existe plusieurs complexes de ce type,
avec differentes variantes de tRNA-pseudouridine synthase et diff ´ erents tRNA avec ´
lesquels ils doivent interagir. Pour tous ces complexes, la pseudouridine se trouve
clairement a l’interface. Mais la reconnaissance n’est pas garantie lorsque la pseu- `
douridine est remplacee par l’uridine. Commenc¸ons par un exemple o ´ u le mod ` ele de `
prediction admet la reconnaissance du tRNA par la tRNA-synthase m ´ eme lorsque la ˆ
pseudouridine est remplacee par l’uridine. Le complexe de code 1r3e existe chez la ´
bacterie ´ Thermotoga maritima [193]. Il represente l’interaction entre la tRNA-pseudo- ´
uridine synthase B et la tRNA-pseudouridine (voir fig. 5.1). Ici, l’interaction est correctement
predite par le mod ´ ele et l’on peut facilement observer un entonnoir dans le `
diagramme d’energie en fonction du I ´ RMSD (voir fig. 5.2). Mais il est un cas, illustre´
aussi par la PRIDB, ou l’interaction mettant en œuvre des acides nucl ` eiques non stan- ´
dards n’est pas correctement predite. Ce complexe, de code PDB 1asy, est pr ´ esent ´
chez Saccharomyces cerevisiae [218]. Il s’agit de la tRNA-aspartate synthase A en
interaction avec le tRNA-aspartate. Le tRNA-aspartate reconnu contient trois acides
nucleiques non standards en diff ´ erents points de l’interaction, dont la pseudouridine et ´
la methylguanosine. Notamment, la tRNA-aspartate synthase doit pouvoir diff ´ erencier ´
le tRNA-aspartate d’un autre tRNA (voir fig. 5.1). L’evaluation du mod ´ ele montre que `
des candidats avec une IRMSD > 5A sont pr ˚ esents dans le top10 des candidats en ´
energie (voir fig. 5.2). La d ´ etection d’entonnoir est aussi moins claire. ´ Etant donn ´ e´
le remplacement de la pseudouridine par l’uridine et de la methylguanosine par la ´
guanine, le modele propose donc des interactions diff ` erentes : la tRNA-aspartate syn- ´
thase ne doit pas etre en interaction avec un tRNA-aspartate dans lequel les acides ˆ
nucleiques non standards sont remplac ´ es par leur acide nucl ´ eique standard. ´
Certaines molecules biologiques sont aussi consid ´ er´ ees comme des h ´ et´ eroatomes ´
et sont retirees de la structure 3D. C’est notamment le cas des ATP, GTP et autres lig- ´
ands se liant aux complexes lors de mecanismes qui les mettent en jeu. C’est aussi le ´
cas par exemple de l’aspartyl-adenosine-monophosphate (AMP-ASP). Son implication ´
dans une interaction proteine-ARN est illustr ´ ee par le complexe de code 1c0a, pr ´ esent ´
dans Escherichia coli [75]. Ce complexe presente l’interaction de la tRNA-aspartate ´
synthase avec le tRNA-aspartate, mais avec la presence d’un AMP-ASP ´ a l’interaction `
(voir fig. 5.1). Le vide laisse par cet AMP-ASP n’emp ´ eche cependant pas la pr ˆ ediction ´
de l’interaction (voir fig. 5.2).
85Chapitre 5. Discussion biologique
a) b) c)
FIGURE 5.1 – Structure 3D de trois complexes proteine-ARN (la prot ´ eine en bleu ´
et l’ARN en orange), dans une etude de cas des acides amin ´ es et nucl ´ eiques non ´
standards, avec certains acides amines et nucl ´ eiques mis en ´ evidence (b ´ atonnets ˆ
verts, rouges et blancs) : a) Le tRNA-aspartate en interaction avec la tRNA-aspartate
synthase (code PDB 1c0a), ou l’interaction est mod ` elis ´ ee et pr ´ edite sans difficult ´ e.´
L’aspartyl-adenosine monophosphate est mise en ´ evidence ´ a l’interaction. b) Le tRNA- `
pseudouridine en interaction avec la tRNA-pseudouridine synthase (code PDB 1r3e),
ou l’interaction est aussi correctement pr ` edite. La pseudouridine est mise en ´ evidence ´
a l’interaction. c) Le tRNA-aspartate en interaction avec la tRNA-aspartate synthase `
de la levure (de code PDB 1asy), avec plusieurs acides nucleiques non standards ´
(PSU – la pseudouridine – et 1MG – la 1N-methylguanosine) remplac ´ es par les acides ´
nucleiques standards correspondants (respectivement l’uracile et la guanine). Cette in- ´
teraction est correctement predite, malgr ´ e quelques leurres avec des scores tr ´ es bas. `
5.1.2.3 Solvant et ions
Dans les etapes de nettoyage pr ´ esent ´ ees dans ce manuscrit, le solvant et les ions ´
sont retires des structures natives. Ce traitement du solvant et des ions permet de sim- ´
plifier le modele en retirant le solvant explicite et les ions de la mod ` elisation atomique. ´
En amarrage proteine-prot ´ eine, la communaut ´ e C´ APRI a mene des ´ evaluations de ´
la prediction de la position des mol ´ ecules du solvant et certains algorithmes d’amar- ´
rage ont montre de bonnes performances dans l’affinement de la position des mol ´ ecu- ´
les d’eau [68]. Cet affinement des positions des molecules d’eau a m ´ eme permis de ˆ
mieux modeliser l’interaction entre les deux partenaires. ´
Dans RosettaDock, les molecules d’eau ne sont pas prises en compte. Elles sont ´
865.1. Limites inherentes ´ a la construction de fonctions de score obtenues par apprentissage `
1c0a (ES = 5.89)
Irmsd (Å)
Score
0 20
−194 −162
0 20
1r3e (ES = 6.89)
Irmsd (Å)
Score
0 20
−18
3
0 20
0
1asy (ES = 3.69)
Irmsd (Å)
Score
0 20
176 223
0 20
FIGURE 5.2 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour les trois
complexes de la PRIDB utilises dans l’ ´ etude de cas des partenaires. Pour 1c0a et 1r3e, ´
la prediction de l’interaction est un succ ´ es. Pour 1asy, des am ` eliorations sont encore ´
possibles.
tout simplement ignorees ´ a la lecture du fichier de structure, de m ` eme que les ions. ˆ
Si l’on devait modeliser l’interaction avec le solvant, il faudrait d ´ eterminer les in- ´
teractions possibles entre chacun des partenaires et chaque molecule d’eau pouvant ´
potentiellement s’incorporer a l’interface. En effet, les mol ` ecules d’eau sont des dip ´ oles ˆ
et peuvent avoir une interaction du cotˆ e des hydrog ´ enes comme du c ` otˆ e de l’oxyg ´ ene. `
D’une part, modeliser cette interaction revient ´ a traiter un cas plus complexe que le `
cas de l’interaction binaire. D’autre part, cette energie est d ´ ej ´ a partiellement prise en `
compte dans le terme de solvatation, qui calcule l’accessibilite au solvant : le solvant ´
est modelis ´ e implicitement [76, 144]. Mais la stabilit ´ e conf ´ er´ ee par l’interaction indi- ´
recte des deux partenaires par le biais de molecules d’eau n’est pas enti ´ erement prise `
en compte. C’est par exemple le cas du complexe impliquant la proteine ´ LA en interaction
avec la queue 3’ terminale UUU de certains ARN lorsqu’ils sont nouvellement
transcrits. C’est le complexe de code PDB 2voo pour la proteine humaine, avec pour ´
role la protection de la queue 3’terminale UUU avec laquelle la prot ˆ eine est en in- ´
teraction [139]. Dans ce complexe, l’interaction entre les deux partenaires implique de
nombreuses molecules d’eau ´ a l’interface, par comparaison avec la taille de l’ARN (voir `
fig. 5.3). L’evaluation du mod ´ ele par l’EvsRMSD montre que la plupart des candidats `
de plus basse energie s’ ´ eloignent de 3 ´ a 4 ` A en I ˚ RMSD de la structure native (voir fig.
5.4. La difference est suffisante pour montrer qu’une mod ´ elisation plus fine de l’inter- ´
action avec les molecules d’eau est n ´ ecessaire, au moins pour les complexes dot ´ es´
d’un partenaire de petite taille.
Un autre exemple de l’interaction avec le solvant peut etre observ ˆ e avec le com- ´
plexe de code PDB 2jlv du virus de la Dengue [169]. Dans ce complexe, la sousunite
NS3 de la s ´ erine prot ´ ease du virus de la Dengue est en interaction avec un petit ´
ARN simple brin. De nombreuses molecules de solvant peuvent ´ etre observ ˆ ees en- ´
tre la sous-unite NS3 et l’ARN, allant jusqu’ ´ a quasiment entourer l’ARN (voir fig. 5.3). `
Comme on peut le voir dans le diagramme EvsRMS, l’interaction de 2jlv n’est pas
87Chapitre 5. Discussion biologique
predite correctement par la fonction de score (voir fig. 5.4). ´
Le cas des ions est illustre par le complexe de code PDB 1jbs d’ ´ Aspergillus restrictus
[263]. La restrictocine d’Aspergillus restrictus est en interaction avec un ARN
analogue de la boucle du domaine sarcine-ricine de l’ARN 28S. Des ions potassium
se trouvent en interaction avec l’ARN et l’un d’entre separe m ´ eme l’ARN de la prot ˆ eine ´
(voir fig. 5.3). La fonction de score a du mal a pr ` edire avec exactitude l’interaction entre ´
la restrictocine et cet analogue de la boucle du domaine sarcine-ricine (voir fig. 5.4).
a) b) c)
FIGURE 5.3 – Structure 3D de trois complexes proteine-ARN (la prot ´ eine en bleu et ´
l’ARN en orange), dans une etude de cas du solvant (sph ´ eres rouge) et des ions `
(spheres violettes) : a) La prot ` eine ´ LA en interaction avec la queue 3’ terminale UUU
d’un ARN nouvellement transcrit (code PDB 2voo), avec quatre molecules d’eau as- ´
surant l’interaction entre les deux partenaires. Cette interaction est tout de meme cor- ˆ
rectement predite par la fonction de score. b) La sous-unit ´ e NS3 de la s ´ erine prot ´ ease ´
du virus de la dengue en interaction avec un petit ARN simple brin (code PDB 2jlv), ou`
l’interaction n’est pas predite correctement. De nombreuses mol ´ ecules de solvant sont ´
mises en evidence ´ a l’interface entre les deux partenaires. c) La restrictocine en inter- `
action avec un ARN analogue de la boucle du domaine sarcine-ricine de l’ARN 28S
(code PDB 1jbs), ou l’on peut voir un ion potassium log ` e entre la prot ´ eine et l’ARN. ´
Cette interaction n’est pas correctement predite par la fonction de score. ´
5.1.3 Influence du choix de la methode d’ ´ evaluation ´
Le leave-”one-pdb”-out peut etre vu comme une ˆ k-validation croisee avec ´ k egal ´
au nombre de structures natives et ou les exemples sont r ` epartis en une strate par ´
885.1. Limites inherentes ´ a la construction de fonctions de score obtenues par apprentissage `
2voo (ES = 1.69)
Irmsd (Å)
Score
0 20
−9 −5
0 20
2jlv (ES = 0.74)
Irmsd (Å)
Score
0 20
−142 −108
0 20
1jbs (ES = 0.79)
Irmsd (Å)
Score
0 20
−22 −12
0 20
FIGURE 5.4 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour les trois
complexes de la PRIDB utilises dans l’ ´ etude de cas du solvant et des ions. Pour 2voo ´
et 2jlv, la prediction de l’interaction est un succ ´ es. Pour 1jbs, des am ` eliorations sont ´
encore possibles.
structure native. Chaque strate contient alors les exemples issus de la gen´ eration de ´
candidats par perturbation a partir d’une structure native donn ` ee. ´
Le leave-”one-pdb”-out est une methode permettant de se mettre en situation d’- ´
exploitation avec des donnees d’apprentissage. Plut ´ ot que d’ ˆ etre dans le cas o ˆ u l’on `
connaˆıt 120 structures natives, on considere ne conna ` ˆıtre que 119 structures natives.
On rencontre alors une structure native supplementaire et l’on ´ evalue la performance ´
de la fonction de score apprise sur cette structure native.
Comme il faut apprendre une fonction de score par strate, les calculs pour l’evaluation ´
des donnees sont plus co ´ uteux. Ainsi, cette m ˆ ethode d’ ´ evaluation est non seulement ´
pref ´ erable pour utiliser un maximum de donn ´ ees en apprentissage, mais son co ´ utˆ
evolue aussi en ´ n
2 ou` n est le nombre de complexes proteine-ARN du jeu de donn ´ ees. ´
Ces deux constats rendent le leave-”one-pdb”-out pref´ erable ´ a utiliser sur des jeux de `
donnees de petite taille. ´
Les analyses des resultats sont plus complexes, puisque l’on ne se retrouve plus ´
avec l’evaluation d’une seule fonction de score mais avec l’ ´ evaluation de 120 fonctions ´
de score. Il faut s’assurer que les fonctions de score sont toujours comparables et
verifier ´ a quel point les diff ` erentes mesures peuvent se comparer entre elles. La ROC- ´
AUC est pour cela une bonne mesure de la performance d’une fonction de score. Pour
illustration, le score d’enrichissement a 10 % ne donne pas de r ` esultats satisfaisants, ´
meme pour des complexes avec lesquels le diagramme d’EvsIrmsd permet de d ˆ etecter ´
un entonnoir. Il s’agit gen´ eralement de complexes pour lesquels il y a peu de leurres. ´
C’est notamment le cas pour 1av6, 1gtf et 1vfg (voir fig. 5.5). Toutefois, les fonctions
de score apprennent a discerner avec un seul en I ` RMSD < 5A un exemple des autres ˚
exemples, alors que le score d’enrichissement a 10 % s ` epare les exemples selon un ´
seuil dependant de la distribution en I ´ RMSD des exemples.
89Chapitre 5. Discussion biologique
1av6 (ES = 1.53)
Irmsd (Å)
Score
0 20
−4
6
0 20
1gtf (ES = 1.61)
Irmsd (Å)
Score
0 20
−35 −20
0 20
1vfg (ES = 0.32)
Irmsd (Å)
Score
0 20
58 68
0 20
FIGURE 5.5 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour trois complexes
de la PRIDB pour lesquels on peut observer un faible score d’enrichissement,
malgre la d ´ etection d’un entonnoir. Il y a peu de leurres pour ces trois complexes, ´
compares aux autres complexes. ´
5.2 Flexibilite´ a l’interaction `
Les molecules biologiques adoptent ´ in vivo une conformation biologiquement active.
C’est cette structure 3D qui est recherchee dans les exp ´ eriences de repliement ´
et qui est utilisee par l’amarrage pour pr ´ edire la structure de l’interaction. Mais il ar- ´
rive que les structures des proteines et des ARN se d ´ eforment ´ a l’interaction. On parle `
alors de flexibilite. ´
C’est un concept qui a necessit ´ e de diff ´ erencier l’amarrage partant des structures ´
liees de l’amarrage partant des structures non li ´ ees. En effet, la pr ´ ediction de l’inter- ´
action est plus difficile avec des structures non liees qu’avec des structures li ´ ees. La ´
prediction est d’autant plus difficile que la d ´ eformation de la structure de l’un ou l’autre ´
des deux partenaires est grande a l’interface. Certaines grandes d ` eformations sont ´
modelisables lorsqu’elles mettent en jeu, notamment pour les prot ´ eines, des acides ´
amines se situant dans des boucles. ´
Il arrive aussi qu’un ARN en interaction avec une proteine ne soit compos ´ e que ´
de quelques acides nucleiques. Dans ce genre de cas, la d ´ etermination du repliement ´
de l’ARN doit se faire a la vol ` ee, directement ´ a l’interface avec la prot ` eine. Si ces ´
calculs peuvent etre co ˆ uteux pour des ARN de plusieurs dizaines ou centaines d’acides ˆ
nucleiques, ils sont n ´ ecessaires pour les plus petits ARN. ´
Pour les proteines dans RosettaDock, la flexibilit ´ e´ a l’interaction est mod ` elis ´ ee´
grace ˆ a deux m ` ecanismes : ´
– la reconstruction des chaˆınes laterales des acides amin ´ es en interaction avec ´
des acides amines du partenaire ; ´
– la reconstruction du squelette des boucles en interaction avec des acides amines´
du partenaire.
Pour les chaˆınes laterales, un ´ echantillonnage des diff ´ erents rotam ´ eres possibles `
est teste en ´ evaluant le score que chaque rotam ´ ere test ` e obtiendrait s’il remplac¸ait la ´
905.3. Limites du protocole de gen´ eration des candidats ´
chaˆıne laterale existante. Un algorithme de Monte-Carlo est utilis ´ e pour choisir quel ´
rotamere doit remplacer la cha ` ˆıne laterale existante. ´
Pour les boucles, un algorithme de reconstruction de boucle est utilise : ´ Cyclic Coordinate
Descent (CCD, [33]). La boucle a reconstruire est d’abord rompue pour perme- `
ttre un mouvement plus libre de ses acides amines. Puis, le squelette de chaque acide ´
amine est repositionn ´ e sans prendre en consid ´ eration sa cha ´ ˆıne laterale. Les cha ´ ˆınes
laterales sont enfin reposition ´ ees et, si elles sont en interaction avec des acides amin ´ es´
du partenaire, sont reconstruites par echantillonnage des rotam ´ eres possibles, comme `
decrit au paragraphe pr ´ ec´ edent. L’algorithme CCD est utilis ´ e pour refermer la boucle. ´
L’alliance de ces deux mecanismes de reconstruction de cha ´ ˆınes laterales et de ´
boucles permet de modeliser une part importante de la flexibilit ´ e des prot ´ eines. Ces ´
mecanismes ont toutefois un co ´ ut, qui est contr ˆ ol ˆ e en ne recherchant pas de mani ´ ere `
exhaustive les meilleurs rotameres et squelettes de boucle. En effet, pour l’un comme `
pour l’autre des mecanismes, le meilleur choix, qu’il s’agisse du rotam ´ ere ou du squelette, `
depend des autres choix ´ a effectuer pour les rotam ` eres ou squelettes. Une recherche `
exhaustive impliquerait un calcul combinatoire couteux. Une heuristique est donc utilis ˆ ee. ´
Evidemment, adapter ces deux m ´ ecanismes de reconstruction au cas de l’ARN sig- ´
nifie disposer de donnees cons ´ equentes sur la flexibilit ´ e des ARN. D’une part, nous de- ´
vons disposer d’une base de donnees de rotam ´ eres pour les ARN. Il se trouve qu’une `
base de donnees de rotam ´ eres d’ARN est disponible dans les fichiers de RosettaDock. `
Cependant, nous avons pu voir en section 3.2.1 du chapitre 3 que la base de donnees ´
de rotameres des prot ` eines n’ ´ etait peut- ´ etre pas adapt ˆ ee aux interactions prot ´ eine- ´
ARN. Il n’y a donc aucune raison pour que la base de donnees de rotam ´ eres ARN `
convienne a la pr ` ediction d’interactions prot ´ eine-ARN. Cela signifie qu’il faudrait aussi ´
adapter les rotameres ARN aux interactions prot ` eine-ARN. D’autre part, la reconstruc- ´
tion des boucles a et ´ e´ evalu ´ ee pour les acides amin ´ es. Elle n ´ ecessite une fonction de ´
score dedi ´ ee pour ´ evaluer le meilleur squelette de chaque acide amin ´ e. Il faudrait donc ´
aussi adapter cette fonction de score aux interactions proteine-ARN. ´
5.3 Limites du protocole de gen´ eration des candidats ´
Le tri des candidats d’une interaction entre macromolecules biologiques implique ´
d’avoir au prealable un ensemble de candidats g ´ en´ er´ e. Cet ensemble de candidats ´
a un impact direct sur les performances du tri. Comme on a pu le voir en section
2.4.4 du chapitre 2, un ensemble de candidats judicieusement filtre permet d’accro ´ ˆıtre
considerablement les performances d’une fonction de score. Ainsi, la g ´ en´ eration des ´
candidats doit suivre certains objectifs.
Le premier objectif de la gen´ eration des candidats est d’offrir un panel suffisamment ´
large et representatif de candidats pouvant raisonnablement ´ etre consid ˆ er´ es comme ´
des candidats de l’interaction : les candidats avec deux partenaires trop eloign ´ es pour ´
interagir ou avec trop d’interpen´ etration pour repr ´ esenter une interaction biologique ´
sont des leurres evidents. Cet objectif a cependant des implications s’il est rempli. Nous ´
pouvons par exemple observer pour certains des 120 complexes de la PRIDB que les
91Chapitre 5. Discussion biologique
candidats gen´ er´ es sont pour plus de 99.9 % d’entre eux r ´ epartis de part et d’autre d’un ´
intervalle de plus de 1A (voir fig. 5.6). Cet ˚ etat de fait a deux cons ´ equences. ´
1n35 (ES = 7.27)
Irmsd (Å)
Score
0 20
−28 −20
0 20
1tfw (ES = 4.38)
Irmsd (Å)
Score
0 20
−63 −49
0 20
2nug (ES = 6.56)
Irmsd (Å)
Score
0 20
−67 −42
0 20
FIGURE 5.6 – Diagramme d’energie en fonction du I ´ RMSD (EvsRMS) pour trois complexes
de la PRIDB pour lesquels on peut observer moins de 10 candidats sur un
intervalle de plus de 1 A, avec le reste des candidats se r ˚ epartissant de part et d’autre ´
de cet intervalle. Ce manque de donnees est li ´ e´ a une barri ` ere ` energ ´ etique ´ elev ´ ee´
entre les conformations des presque-natifs et celles des leurres.
Tout d’abord, la quasi-absence de candidats dans cet intervalle de IRMSD empeche ˆ
d’affirmer que, pour ces complexes, il est possible d’affiner une structure proche du
natif. Pour tous les autres complexes ou un entonnoir est d ` etect ´ e, nous pouvons ´
aisement confirmer que l’affinement de structure est possible. Mais pour ces com- ´
plexes, comme nous ne disposons pas des candidats dans cet intervalle de IRMSD,
nous ne pouvons pas affirmer qu’il n’y aura pas dans cet intervalle un saut en energie ´
empechant la formation d’un entonnoir. D’ailleurs, il y a toutes les chances que des ˆ
candidats gen´ er´ es dans cet intervalle de I ´ RMSD et qui ont et´ e rejet ´ es lors de la g ´ en´ eration ´
des candidats aient eu une energie ´ elev ´ ee, notamment due ´ a une tr ` es forte contribution `
du terme de score fa rep.
Ensuite, il existe une barriere ` energ ´ etique plus importante pour ces trois complexes ´
que pour les autres entre les conformations des presque-natifs et celles des leurres.
Cette barriere ` energ ´ etique est principalement due ´ a l’interp ` en´ etration trop importante ´
entre les deux partenaires, pour les candidats proches des presque-natifs gen´ er´ es. Il ´
s’agit d’ailleurs essentiellement de complexes pour lesquels l’agencement des partenaires
en interaction clef-serrure est particulierement marqu ` ee (voir fig. 5.7). ´
Cette distribution est liee au protocole de g ´ en´ eration des candidats par perturbation ´
en corps rigides. Lorsque les molecules sont emboit ´ ees, il n’est pas possible d’obtenir ´
un continuum de structures proches et donc un saut apparaˆıt. La fonction de score
obtenue pourrait donc avoir de mediocres performances lors de l’ ´ evaluation de ce type ´
d’interface par une approche semi-flexible.
925.3. Limites du protocole de gen´ eration des candidats ´
FIGURE 5.7 – Structure 3D d’une interaction de type clef-serrure. On peut voir que la
proteine (en bleu) et l’ARN (en orange) s’embo ´ ˆıtent comme le feraient une clef et une
serrure.
93Chapitre 5. Discussion biologique
94Chapitre 6
Conclusion et perspectives
6.1 Integration de connaissances ´ a priori de contextes
proches
L’amarrage proteine-prot ´ eine nous a appris de nombreuses connaissances tou- ´
jours valables en amarrage proteine-ARN : g ´ en´ eration de donn ´ ees ´ a partir d’un jeu de `
donnees de r ´ ef ´ erence, termes de score physico-chimiques, contraintes appliqu ´ ees sur ´
les intervalles de valeurs des poids a apprendre, ` etc. Tout d’abord, nous avons montre´
que les termes de score physico-chimiques, qui ont fait leur preuve en amarrage
proteine-prot ´ eine, permettent de capturer des informations d ´ ecisives dans la pr ´ ediction ´
des interactions proteine-ARN. Nous avons montr ´ e comment l’apprentissage d’une ´
fonction de score formee d’une combinaison lin ´ eaire des param ´ etres physico-chimiques `
et apprise grace ˆ a des donn ` ees de r ´ ef´ erence nettoy ´ ees permet d’atteindre l’objectif ´
fixe. Cet objectif est d ´ efini d’apr ´ es les attentes de la communaut ` e internationale de ´
l’amarrage de macromolecules biologiques, ´ a savoir pr ` edire correctement au moins ´
une structure candidate parmi les 10 meilleures proposees pour chaque interaction. ´
Nous avons pu atteindre cet objectif pour 117 des 120 complexes utilises pour l’ap- ´
prentissage de la fonction de score atomique avec ROGER. De plus, pour plus de 90 %
des complexes, cette fonction de score montre des capacites´ a affiner une structure `
candidate suffisamment proche de la solution, meme ˆ a 8 ` A en I ˚ RMSD de la solution.
Nous avons aussi montre que cet objectif n’aurait pas ´ et´ e atteint sans l’aide de con- ´
traintes appliquees sur les intervalles de valeurs des poids ´ a apprendre pour la fonction `
de score. Mais il reste des interactions proteine-ARN pour lesquelles les termes de ´
score physico-chimiques sont encore inefficaces, notamment pour ce qui est d’affiner
une structure candidate. D’autre part, l’utilisation de ce protocole atomique necessite ´
d’avoir une idee de l’ ´ epitope pour ne pas avoir ´ a g ` en´ erer des millions de candidats. ´
Nous avons egalement ´ evalu ´ e l’utilisation de donn ´ ees telles que des informations ´
supplementaires sur le type d’ARN de chacun des complexes prot ´ eine-ARN dont l’in- ´
teraction est a pr ` edire. Nous avons propos ´ e l’apprentissage d’une fonction de score ´
dedi ´ ee´ a chaque cat ` egorie d’ARN parmi trois (ARN simple brin, ARN double brin et ´
ARN de tranfert). Les trois fonctions de score gen´ er´ ees ne montrent cependant pas ´
d’amelioration des performances. Il reste encore ´ a tester l’utilisation d’informations `
95Chapitre 6. Conclusion et perspectives
supplementaires sur les cat ´ egories de prot ´ eines. ´
6.2 Extraction des donnees et complexit ´ es des mod ´ eles `
La modelisation de fonctions de score plus complexes qu’une combinaison lin ´ eaire ´
des termes de score physico-chimiques n’a pas permis d’obtenir davantage d’informations
sur la prediction d’interactions prot ´ eine-ARN. De nombreux mod ´ eles classiques `
ont et ´ e´ etudi ´ es et il est probable qu’une ´ etude plus approfondie soit n ´ ecessaire pour ´
tirer davantage parti des informations obtenues grace aux termes de score physico- ˆ
chimiques : apprentissage d’un modele bas ` e uniquement sur un sous-ensemble des ´
parametres, apprentissage d’une variable estim ` ee comme l’I ´ RMSD plutot qu’une clas- ˆ
sification binaire, etc. Des modeles non lin ` eaires tels que des fonctions de score ´
avec valeurs de centrage ou l’utilisation de metaclassifieurs n’a pas non plus ap- ´
porte de gain de performance. Cependant, il reste possible que les termes de score ´
physico-chimiques aient dej ´ a fourni tout ce qu’on peut en extraire sur l’interaction. `
Pour ameliorer la pr ´ ediction, il faudrait alors repenser la mod ´ elisation de certains des ´
termes de score physico-chimiques en fonction des differents facteurs d’interaction, ´
pour les adapter aux interactions proteine-ARN. Il n’y a par exemple aucune certi- ´
tude quant au fait que les criteres de d ` ecision soient les m ´ emes pour les interactions ˆ
proteine-prot ´ eine et prot ´ eine-ARN entre absence d’interaction (quand les partenaires ´
sont trop eloign ´ es), pr ´ esence d’interaction (quand les partenaires sont juste ´ a port ` ee) ´
et interpen´ etration (quand les partenaires sont trop proches l’un de l’autre). L’une des ´
ameliorations des termes de score physico-chimiques pourrait donc consister ´ a recali- `
brer les parametres propres ` a la d ` efinition de l’interaction et de l’interp ´ en´ etration pour ´
les interactions proteine-ARN. ´
Il est cependant concevable d’utiliser des fonctions de score a posteriori sur un
ensemble plus restreint de candidats, notamment le top10 ou le top100 des candidats
du protocole atomique. En ne triant que les meilleurs candidats, il devient possible pour
les fonctions de score a posteriori de se focaliser sur la discrimination des presquenatifs
au sein des candidats les plus proches d’une interaction biologique. On pourrait
par exemple attendre des fonctions de score a posteriori qu’elles assurent que les
presque-natifs du top10 d’un complexe aient plus de chances de se trouver parmi
les premiers candidats du top10. Il serait aussi envisageable d’explorer l’hypothese `
selon laquelle ces ces fonctions de score tenteraient de retrouver les presque-natifs
du top100 et absents du top10 pour les ramener dans le top10.
L’etude ´ a posteriori, en n’ameliorant pas la pr ´ ediction apport ´ ee par la combinai- ´
son lineaire, nous montre l’importance d’une m ´ ethode d’apprentissage adapt ´ ee´ a la `
problematique pos ´ ee. De plus, nous avons d ´ efini comme objectif pour l’apprentis- ´
sage par ROGER la maximisation de l’aire sous la courbe ROC. Or, notre objectif
veritable n’est pas de maximiser l’aire sous la courbe ROC, mais de maximiser le ´
nombre de presque-natifs dans les 10 premiers candidats du tri. Et pourtant, malgre´
cette difference entre l’objectif appris et l’objectif v ´ eritable ´ a atteindre, cet objectif `
veritable est rempli. En effet, ne pas utiliser l’objectif r ´ eel comme objectif appris est ´
un choix permettant de verifier si l’apprentissage a su retrouver les informations es- ´
966.3. Predictions multi- ´ echelle ´
sentielles pour caracteriser les interactions. Plus que cela, les candidats de l’appren- ´
tissage etaient seulement ´ etiquet ´ es presque-natifs et leurres, ramenant l’information ´
numerique prodigu ´ ee par le I ´ RMSD a une valeur binaire. Rien n’attestait qu’un appren- `
tissage reussi permettrait d’obtenir une fonction quasi-croissante du score en fonction ´
du IRMSD. Ceci montre bien que le modele de fonction de score form ` e d’une com- ´
binaison lineaire des param ´ etres physico-chimiques a v ` eritablement pu retrouver les ´
informations determinantes pour pr ´ edire l’interaction prot ´ eine-ARN. ´
Nous avons vu par ailleurs que l’apprentissage de fonctions de score a posteriori
a confirme l’importance de certains termes de score dans la description des interac- ´
tions proteine-ARN et en a r ´ ev´ el ´ e de nouveaux. En comparaison avec les interactions ´
proteine-prot ´ eine, le facteur le plus important est sans doute le terme de score des ´
forces electrostatiques. Avec une telle importance de ce facteur, une mod ´ elisation plus ´
fine des interactions electrostatiques devrait permettre de mieux mod ´ eliser l’interac- ´
tion.
6.3 Predictions multi- ´ echelle ´
Nous avons pu montrer qu’une adaptation judicieuse des recentes m ´ ethodes d’a- ´
marrage proteine-prot ´ eine permet de correctement pr ´ edire les interactions prot ´ eine- ´
ARN. La mise a contribution de termes de score g ` eom ´ etriques montre que d’autres ´
voies que celles sugger´ ees par les connaissances issues des scores physico-chimiques ´
peuvent mener a la pr ` ediction des interactions prot ´ eine-ARN. Cette vision de l’interac- ´
tion permet notamment de s’abstraire des seuils de distance utilises pour d ´ efinir si deux ´
atomes sont en interaction. Nous avons aussi pu voir que c’est une modelisation qui ´
prend mieux en compte, directement dans la representation g ´ eom ´ etrique, la flexibilit ´ e´
de l’ARN, plus accentuee que celle des prot ´ eines. ´
L’apprentissage de la fonction de score gros-grain a necessit ´ e, pour am ´ eliorer ´
les performances, de ne pas contraindre l’intervalle de valeurs des poids a appren- `
dre. Simplement contraindre l’apprentissage a l’intervalle de valeurs positif a en effet `
montre des performances d ´ egrad ´ ees. Cependant, apr ´ es une analyse d ` etaill ´ ee des ´
valeurs des parametres sur les structures natives, il peut para ` ˆıtre opportun d’imposer
des intervalles de valeurs differents pour chacun des poids, en fonction de leur nature. ´
Exactement comme pour les termes de score physico-chimiques, qui ont des valeurs
negatives lorsqu’elles favorisent l’interaction et positives lorsqu’elles la p ´ enalisent, ´
nous pourrions donner un poids negatif aux termes de score privil ´ egiant l’interaction et ´
positif aux termes de score la defavorisant. Cette modification du mod ´ ele de fonction `
de score gros-grain VOR pourrait certainement donner lieu a une am ` elioration de ses ´
performances.
La modelisation et l’ ´ evaluation du protocole gros-grain nous a permis de mettre ´
en lumiere des connaissances nouvelles sur les interactions prot ` eine-ARN. Contraire- ´
ment aux interactions proteine-prot ´ eine, qui favorisent les acides amin ´ es hydrophobes ´
a l’interaction, ce sont les acides amin ` es hydrophiles qui sont pr ´ ef´ erentiellement en ´
interaction avec les acides amines. Nous avons aussi pu voir que, des quatre acides ´
nucleiques, c’est l’uracile qui est majoritairement pr ´ esent ´ a l’interaction. Le volume `
97Chapitre 6. Conclusion et perspectives
median des cellules de Vorono ´ ¨ı des acides amines et nucl ´ eiques a aussi permis de ´
retrouver un ordonnancement des acides amines, d’une part, et des acides nucl ´ eiques, ´
d’autre part, en fonction de leur taille (leur encombrement sterique). Les param ´ etres `
associes au volume m ´ edian permettent de mesurer l’empilement st ´ erique. ´
Nous avons enfin pu voir que l’apprentissage multi-echelle repose essentiellement ´
sur le changement de point de vue sur l’objet a apprendre et sur le changement `
d’objectif. Du point de vue de l’apprentissage, changer de point de vue correspond
a changer les attributs utilis ` es, ici des termes de score. S’aider d’attributs de natures ´
differentes pour la pr ´ ediction – ici physico-chimiques et g ´ eom ´ etriques – permet de cap- ´
turer des informations sinon difficilement accessibles, potentiellement plus adaptees ´
au probleme pos ` e pour chacune des ´ echelles. Changer d’objectif pourrait revenir ´ a`
changer la fonction objectif de l’apprentissage, qui a et´ e l’aire sour la courbe ROC ´
chaque fois que nous avons appris une fonction de score a l’aide de R ` OGER. Se pose
alors la question de savoir si changer la fonction objectif utilisee pour l’apprentissage ´
permettrait d’ameliorer les performances de la fonction de score gros-grain. En effet, il ´
suffit qu’un seul presque-natif soit de rang le plus petit pour que la fonction de score
gros-grain .
Toutefois, il reste encore des voies a explorer. Le protocole propos ` e et ´ evalu ´ e dans ´
ce manuscrit est decompos ´ e en deux ´ etapes : amarrage gros-grain, puis amarrage ´
atomique. Il est toujours possible d’etudier des protocoles plus sophistiqu ´ es d’amar- ´
rage, qui permettront de traquer des epitopes potentiels, ´ a une ` echelle gros-grain, de ´
les explorer a une ` echelle atomique et de revenir ´ a l’ ` echelle gros-grain si les candidats ´
gen´ er´ es ne sont pas satisfaisants. Cet aller-retour entre amarrage gros-grain et amar- ´
rage atomique tire parti des deux perspectives et necessite d’ ´ etudier le meilleur moyen ´
de les faire communiquer dans trois buts :
– minimiser le nombre d’amarrages atomiques explores ; ´
– maximiser les chances de reperer l’ ´ epitope ; ´
– maximiser les chances de trouver un presque-natif une fois l’epitope rep ´ er´ e.´
Si l’on parametre les amarrages gros-grain et atomiques pour qu’ils prennent cha- `
cun approximativement le meme temps d’ex ˆ ecution, chaque erreur de l’amarrage ´
gros-grain conduisant a un amarrage atomique inutile augmente consid ` erablement ´
les temps de calcul necessaires avant de trouver la solution. D’un autre c ´ otˆ e, si l’amar- ´
rage gros-grain ou l’amarrage atomique manquent l’interaction a son ` echelle, c’est tout ´
le protocole d’amarrage qui est compromis. Un tel protocole pourrait ben´ eficier d’une ´
fonction de score permettant de definir s’il y a ou non interaction. Jusqu’ ´ a maintenant, `
les fonctions de score definies ici se contentent de trier les candidats et de proposer les ´
meilleurs d’entre eux pour representer l’interaction, m ´ eme si l’ensemble des candidats ˆ
utilises dans le tri sont des leurres ´ evidents. Or, pour juger que les candidats propos ´ es´
par un amarrage atomique sont insatisfaisants et ainsi remettre en cause une solution
proposee par l’amarrage gros-grain, il est n ´ ecessaire de pouvoir rejeter un candidat ´
juge trop ´ eloign ´ e de ce que devrait ´ etre une interaction prot ˆ eine-ARN. Cela fait appel ´ a`
une notion de seuil allant au-dela de l’approche par tri adopt ` ee dans ce manuscrit. La ´
fonction de tri, associee au seuil du top10 des candidats, ne fait que s ´ electionner 10 ´
candidats parmi les 10 000 gen´ er´ es et les propose dans un certain ordre. Cette fonc- ´
tion de tri n’a actuellement aucun moyen de reperer que l’un des candidats propos ´ es´
986.3. Predictions multi- ´ echelle ´
ne devrait pas faire partie de la liste de 10 candidats. C’est donc une autre approche
a mettre en œuvre, pouvant par exemple ` evaluer le nombre de leurres en queue de ´
distribution d’un tri pour s’assurer de pouvoir rejeter les candidats etant des leurres. ´
Mais ce n’est pas suffisant. Pour obtenir un seuil fixe et universel pour l’ensemble des
complexes proteine-ARN, il faudrait mod ´ eliser une fonction de score dont l’amplitude ´
du score ne depend pas de la taille du complexe (en nombre d’atomes). En effet, le ´
score obtenu avec les fonctions de score present ´ ees dans ce manuscrit, utilis ´ ees dans ´
RosettaDock et dans plusieurs autres algorithmes d’amarrage, est calcule en faisant ´
une somme sur l’ensemble des atomes ou acides amines et nucl ´ eiques. Un complexe ´
de tres petite taille aura donc de grandes chances d’avoir un score de faible amplitude `
alors qu’un complexe de grande taille aura de grandes chances d’avoir un score de
forte amplitude. Avec de tels ecarts entre les scores, il est impossible de fixer un seuil ´
pour l’ensemble des complexes proteine-ARN qui permette de d ´ eterminer ´ a partir de `
quand un candidat dote de ce score est n ´ ecessairement un presque-natif ou un leurre. ´
Il est donc necessaire, pour traiter du probl ´ eme de variabilit ` e du seuil, de traiter du ´
probleme de la variabilit ` e de taille des objets ´ etudi ´ es et de son impact sur le score. La ´
fonction de score gros-grain resoud en partie ce probl ´ eme, en proposant quatre types `
de parametres ind ` ependants de la taille du complexe (proportions et volumes m ´ edians ´
des acides amines et nucl ´ eiques ´ a l’interface, proportions et distances m ` edianes des ´
paires d’acides amines et nucl ´ eiques ´ a l’interface) et deux types de param ` etres qui en `
dependent (nombre d’acides amin ´ es et nucl ´ eiques ´ a l’interface). Pour cette fonction de `
score, il serait possible de se soustraire totalement de la taille du complexe en modifiant
ces deux derniers types de parametres en mesurant par exemple ` a la place le `
pourcentage d’acides amines et nucl ´ eiques ´ a l’interface et la surface m ` ediane d’une ´
facette de l’interface. Il est aussi envisageable d’etudier, en fonction de la taille des ´
complexes proteine-ARN, l’ ´ evolution du nombre d’acides amin ´ es et nucl ´ eiques ´ a l’in- `
terface, pour se faire une idee de leur courbe d’ ´ evolution l’un par rapport ´ a l’autre. Cette `
courbe n’est pas necessairement lin ´ eaire et pourrait conduire ´ a dresser des cat ` egories ´
de complexes en fonction de leur taille.
Plus qu’un protocole multi-echelle de pr ´ ediction d’interactions prot ´ eine-ARN, c’est ´
une approche que nous avons conc¸ue de sorte qu’elle est adaptable : d’autres protocoles
d’amarrage peuvent voir le jour en adaptant cette approche a d’autres algo- `
rithmes de gen´ eration de candidats et d’autres termes de score. Et plus g ´ en´ eralement, ´
la mise au point d’une methodologie telle que le ´ leave-”one-pdb”-out peut parfaitement
etre r ˆ eutilis ´ ee dans d’autes contextes informatiques. Le cadre le plus adapt ´ e au ´
leave-”one-pdb”-out est certainement la faible quantite d’instances positives connues, ´
couteuses ou rares ˆ a obtenir, pour lesquelles on souhaite apprendre, ` etant donn ´ e un ´
ensemble de parametres connus sur ces instances positives, ` a les retrouver. Il peut `
s’agir d’apprendre a les mod ` eliser pour les reproduire (commande souhait ´ ee accom- ´
plie pour la manipulation d’une interface neuronale) ou pour les eviter (accident en ´
vol pour un avion ou un drone). Cette methodologie n ´ ecessite une mani ´ ere, ` a partir `
de ces instances positives, de gen´ erer des exemples proches de ces instances pos- ´
itives et des exemples plus eloign ´ es. Elle implique aussi de disposer d’une mesure ´
de distance ou tout au moins de divergeance entre les exemples et l’instance positive
dont ils sont issus. Il reste ensuite a apprendre la donn ` ee recherch ´ ee en fonction des ´
99Chapitre 6. Conclusion et perspectives
parametres connus, en veillant ` a chaque fois ` a garder pour l’ ` evaluation les exemples ´
issus d’une meme instance positive. ˆ
Au-dela des protocoles d’amarrage se pose la question du filtrage collaboratif. `
Jusqu’ici, nous n’avons emis l’hypoth ´ ese d’un filtrage collaboratif que pour les ter- `
mes de score physico-chimiques et les scores issus des predictions des mod ´ eles ` a
posteriori. Cependant, nous pouvons toujours etudier les filtrages collaboratifs dans le ´
cadre de l’echelle gros-grain, potentiellement en conjonction avec les termes de score ´
physico-chimiques de l’echelle gros-grain. ´
Nous avions envisage dans la section pr ´ ec´ edente une autre fac¸on de traiter l’ ´ etude ´
a posteriori, en lui donnant un but different de la pr ´ ediction par combinaison lin ´ eaire. ´
Puisqu’il s’agit d’un tri a posteriori, le tri par combinaison lineaire est d ´ ej ´ a effectu ` e´
lorsque le tri a posteriori est applique. Dans ce cas de figure, il est tout ´ a fait possible `
de n’appliquer le tri a posteriori que sur un sous-ensemble dej ´ a tri ` e des pr ´ edictions. ´
Comme le tri par combinaison lineaire remplit les objectifs fix ´ es pour presque tous les ´
complexes, il est pensable de durcir les objectifs en integrant le tri ´ a posteriori pour ne
trier que les 10 ou 100 premiers candidats. De la sorte, le tri a posteriori ne traite que
des candidats dej ´ a jug ` es satisfaisants et pourrait ´ etre en mesure de donner au moins ˆ
un presque-natif dans les trois, quatre ou cinq premiers candidats. Si un tel objectif
peut etre atteint, cela signifie qu’il est possible, toujours en proposant 10 candidats ˆ
potentiels de l’interaction, de choisir des candidats representant le mieux l’interaction ´
telle qu’elle est vue par differents amarrages atomiques. Chacun de ces amarrages ´
atomiques serait initie par un candidat gros-grain diff ´ erent et ferait l’hypoth ´ ese d’un `
epitope distinct. ´
L’amarrage gros-grain tel qu’il est modelis ´ e dans ce manuscrit met en œuvre 210 ´
parametres dans sa fonction de score. De plus, 104 de ces param ` etres ont, pour la `
plupart des candidats, une valeur non attribuee et remplac ´ ee par la valeur m ´ ediane du ´
parametre sur l’ensemble des structures natives. Le premier facteur ` a l’origine de ces `
deux constatations est que nous differencions les vingt types d’acides amin ´ es et les ´
quatre types d’acides nucleiques. En effet, 208 des param ´ etres sont d ` efinis par le nom- ´
bre de types d’acides amines et d’acides nucl ´ eiques pris en compte : le nombre de cer- ´
tains de ces parametres est issu d’une addition du nombre de types d’acides amin ` es´
et du nombre de types d’acides nucleiques ; pour d’autres de ces param ´ etres, il s’agit `
d’une multiplication. Or, nous avons vu que des resultats satisfaisants en amarrage ´
proteine-prot ´ eine ont ´ et ´ e observ ´ es en regroupant les acides amin ´ es en six cat ´ egories ´
[15]. Une maniere de diminuer la complexit ` e du mod ´ ele serait donc de reprendre ces `
six categories, ramenant d’une part le nombre de param ´ etres ` a 64 et diminuant d’autre `
part le nombre de valeurs non attribuees pour chaque candidat. Confronter ce mod ´ ele`
au modele` a vingt types d’acides amin ` es permettrait de savoir, dans le cas o ´ u certaines `
informations echappent au mod ´ ele` a six cat ` egories d’acides amin ´ es, si les cat ´ egories ´
d’acides amines d ´ efinies pour l’amarrage prot ´ eine-prot ´ eine peuvent ´ etre remani ˆ ees ´
pour l’amarrage proteine-ARN. Il a toutefois fallu d ´ ej ´ a disposer du protocole tel que `
nous l’avons defini jusqu’ ´ a maintenant pour pouvoir confronter ce nouveau mod ` ele de `
fonction de score a celui que nous avons ` evalu ´ e.´
Les differentes approches ´ evalu ´ ees ont donc montr ´ e que, rien qu’ ´ a partir de la `
structure 3D de chacun des deux partenaires d’un complexe et sans aucune autre
1006.3. Predictions multi- ´ echelle ´
forme de donnees, il est possible de retrouver l’interaction de ces deux partenaires. Il ´
faudra certes encore prendre en compte la flexibilite des partenaires pour v ´ eritablement ´
passer de la structure 3D de partenaires non lies – dont la structure est d ´ etermin ´ ee´
en dehors de toute interaction – a la pr ` ediction de leur interaction. Mais la rapidit ´ e´
de calculs permet desormais de se pencher sur la question de l’amarrage haut d ´ ebit. ´
La prise en compte de la flexibilite et l’accession ´ a l’amarrage haut-d ` ebit constituent ´
certainement la suite logique de ces travaux.
La prediction d’interactions prot ´ eine-ARN est un domaine en plein essor, pour ´
lequel de plus en plus de defis sont relev ´ es. Cela a commenc ´ e par la pr ´ ediction d’inter- ´
actions de petites molecules, puis de mol ´ ecules de plus grandes tailles. La pr ´ ediction ´
d’interactions dans le cas ou la prot ` eine est non li ´ ee est en passe d’ ´ etre r ˆ esolue. ´
Nous devrions voir bientot des travaux traitant de la flexibilit ˆ e de l’ARN sur le point de ´
resoudre les interactions avec les deux partenaires non li ´ es. Mais ceci n ´ ecessitera pour ´
les petits ARN de savoir reconstruire l’ARN a la vol ` ee, en prenant en compte la prox- ´
imite de la prot ´ eine. Plus g ´ en´ eralement dans le domaine des interactions de macro- ´
molecules biologiques, C ´ APRI a recemment montr ´ e sa volont ´ e d’ ´ evaluer la pr ´ ediction ´
de caracteristiques sp ´ ecifiques de l’interaction, telles que la position des mol ´ ecules de ´
solvant ou l’affinite de l’interaction [68]. Avec des fonctions de score mieux adapt ´ ees ´
a l’estimation de la valeur d’une ` energie ou de l’affinit ´ e d’une interaction, il devien- ´
dra possible de passer le cap de la classification binaire. Mais de tels defis n ´ ecessitent ´
des donnees biologiques rarement disponibles en grandes quantit ´ es, et m ´ eme souvent ˆ
disponibles en bien moindres quantites que les structures 3D des interactions. Il fau- ´
dra encore quelques annees avant que l’on puisse utiliser des m ´ ethodes bas ´ ees sur la ´
connaissance pour predire l’affinit ´ e de l’interaction, et encore plus pour les complexes ´
proteine-ARN. ´
101Chapitre 6. Conclusion et perspectives
102Bibliographie
[1] L. Adamian, R. Jackups, Jr, T. A. Binkowski, and J. Liang. Higher-order interhelical
spatial interactions in membrane proteins. J Mol Biol, 327(1) :251–72,
2003.
[2] D. W. Aha, D. Kibler, and M. K. Albert. Instance-based learning algorithms. In
Machine Learning, pages 37–66, 1991.
[3] B. Angelov, J. F. Sadoc, R. Jullien, A. Soyer, J. P. Mornon, and J. Chomilier.
Nonatomic solvent-driven Voronoi tessellation of proteins : an open tool to analyze
protein folds. Proteins, 49(4) :446–56, 2002.
[4] J. C. Austin, K. R. Rodgers, and T. G. Spiro. Protein structure from ultraviolet
resonance Raman spectroscopy. Methods Enzymol, 226 :374–96, 1993.
[5] G. S. Ayton, W. G. Noid, and G. A. Voth. Multiscale modeling of biomolecular
systems : in serial and in parallel. Curr Opin Struct Biol, 17(2) :192–198, Apr
2007.
[6] J. Aze, T. Bourquard, S. Hamel, A. Poupon, and D. Ritchie. ´ Using Kendall-tau
Meta-Bagging to Improve Protein-Protein Docking Predictions, volume 7036 of
Lecture Notes in Computer Science, chapter 25, pages 284–295. Springer Berlin
Heidelberg, 2011.
[7] R. P. Bahadur, P. Chakrabarti, F. Rodier, and J. Janin. A dissection of specific
and non-specific protein-protein interfaces. J Mol Biol, 336(4) :943–55, 2004.
[8] D. Bakowies and W. F. Van Gunsteren. Water in protein cavities : a procedure
to identify internal water and exchange pathways and application to fatty acidbinding
protein. Proteins, 47(4) :534–45, 2002.
[9] A. Barik, N. C., and R. P. Bahadur. A protein-RNA docking benchmark (I) : nonredundant
cases. Proteins, 80(7) :1866–1871, Jul 2012.
[10] E. Ben-Zeev, A. Berchanski, A. Heifetz, B. Shapira, and M. Eisenstein. Prediction
of the unknown : inspiring experience with the CAPRI experiment. Proteins,
52(1) :41–6, 2003.
[11] E. Ben-Zeev and M. Eisenstein. Weighted geometric docking : incorporating
external information in the rotation-translation scan. Proteins, 52(1) :24–7, 2003.
[12] A. Berchanski, D. Segal, and M. Eisenstein. Modeling oligomers with Cn or Dn
symmetry : application to CAPRI target 10. Proteins, 60(2) :202–6, 2005.
103Bibliographie
[13] H. M. Berman, T. N. Bhat, P. E. Bourne, Z. Feng, G. Gilliland, H. Weissig, and
J. Westbrook. The Protein Data Bank and the challenge of structural genomics.
Nat Struct Biol, 7 Suppl :957–9, 2000.
[14] H. M. Berman, J. Westbrook, Z. Feng, G. Gilliland, T. N. Bhat, H. Weissig, I. N.
Shindyalov, and P. E. Bourne. The Protein Data Bank. Nucleic Acids Research,
28 :235–242, 2000.
[15] J. Bernauer, J. Aze, J. Janin, and A. Poupon. A new protein-protein docking scor- ´
ing function based on interface residue properties. Bioinformatics, 23(5) :555–
562, Mar 2007.
[16] J. Bernauer, R. P. Bahadur, F. Rodier, J. Janin, and A. Poupon. DiMoVo : a
Voronoi tessellation-based method for discriminating crystallographic and biological
protein-protein interactions. Bioinformatics, 24(5) :652–658, Mar 2008.
[17] J. Bernauer, X. Huang, A. Y. Sim, and M. Levitt. Fully differentiable coarsegrained
and all-atom knowledge-based potentials for RNA structure evaluation.
RNA, 17(6) :1066–75, 2011.
[18] J. Bernauer, A. Poupon, J. Aze, and J. Janin. A docking analysis of the statistical ´
physics of protein-protein recognition. Phys Biol, 2(2) :S17–23, 2005.
[19] T. A. Binkowski, L. Adamian, and J. Liang. Inferring functional relationships
of proteins from local sequence and spatial surface patterns. J Mol Biol,
332(2) :505–26, 2003.
[20] D. M. Blow, C. S. Wright, D. Kukla, A. Ruhlmann, W. Steigemann, and R. Huber. A
model for the association of bovine pancreatic trypsin inhibitor with chymotrypsin
and trypsin. J Mol Biol, 69(1) :137–44, 1972.
[21] A. Bondi. Van der Waals volumes and radii. The Journal of physical chemistry,
68(3) :441–451, 1964.
[22] A. J. Bordner and A. A. Gorin. Protein docking using surface matching and
supervised machine learning. Proteins, 68(2) :488–502, 2007.
[23] D. Bostick and I. I. Vaisman. A new topological method to measure protein structure
similarity. Biochem Biophys Res Commun, 304(2) :320–5, 2003.
[24] L. G. Boulu, G. M. Crippen, H. A. Barton, H. Kwon, and M. A. Marletta. Voronoi
binding site model of a polycyclic aromatic hydrocarbon binding protein. J Med
Chem, 33(2) :771–5, 1990.
[25] P. E. Bourne. CASP and CAFASP experiments and their findings. Methods
Biochem Anal, 44 :501–7, 2003.
[26] T. Bourquard, J. Bernauer, J. Aze, and A. Poupon. Comparing voronoi and laguerre
tessellations in the protein-protein docking context. In Voronoi Diagrams,
2009. ISVD ’09. Sixth International Symposium on, pages 225–232, 2009.
[27] T. Bourquard, J. Bernauer, J. Aze, and A. Poupon. A collaborative filtering ap- ´
proach for protein-protein docking scoring functions. PLoS One, 6(4) :e18541,
2011.
104[28] M. P. Bradley and G. M. Crippen. Voronoi modeling : the binding of triazines and
pyrimidines to L. casei dihydrofolate reductase. J Med Chem, 36(21) :3171–7,
1993.
[29] P. Bradley, L. Malmstrom, B. Qian, J. Schonbrun, D. Chivian, D. E. Kim, J. Meiler,
K. M. Misura, and D. Baker. Free modeling with Rosetta in CASP6. Proteins, 61
Suppl 7 :128–34, 2005.
[30] L. Breiman. Random Forests. Eighteenth International Conference on Machine
Learning, 45(1) :5–32, 2001.
[31] N. Calimet, M. Schaefer, and T. Simonson. Protein molecular dynamics with the
generalized Born/ACE solvent model. Proteins, 45(2) :144–58, 2001.
[32] C. J. Camacho. Modeling side-chains using molecular dynamics improve recognition
of binding region in CAPRI targets. Proteins, 60(2) :245–51, 2005.
[33] A. A. Canutescu and R. L. Dunbrack. Cyclic coordinate descent : a robotics
algorithm for protein loop closure. Protein science, 12(5) :963–972, 2003.
[34] C. W. Carter, Jr, B. C. LeFebvre, S. A. Cammer, A. Tropsha, and M. H. Edgell.
Four-body potentials reveal protein-specific correlations to stability changes
caused by hydrophobic core mutations. J Mol Biol, 311(4) :625–38, 2001.
[35] P. Carter, V. I. Lesk, S. A. Islam, and M. J. Sternberg. Protein-protein docking
using 3D-Dock in rounds 3, 4, and 5 of CAPRI. Proteins, 60(2) :281–8, 2005.
[36] Project CGAL. CGAL, Computational Geometry Algorithms Library, 1990.
[37] S. Chakravarty, A. Bhinge, and R. Varadarajan. A procedure for detection and
quantitation of cavity volumes proteins. Application to measure the strength of
the hydrophobic driving force in protein folding. J Biol Chem, 277(35) :31345–
53, 2002.
[38] C.-C. Chang and C.-J. Lin. LIBSVM : a library for support vector machines (version
2.31), 2001.
[39] R. Chen, L. Li, and Z. Weng. ZDOCK : an initial-stage protein-docking algorithm.
Proteins, 52(1) :80–7, 2003.
[40] R. Chen, W. Tong, J. Mintseris, L. Li, and Z. Weng. ZDOCK predictions for the
CAPRI challenge. Proteins, 52(1) :68–73, 2003.
[41] R. Chen and Z. Weng. Docking unbound proteins using shape complementarity,
desolvation, and electrostatics. Proteins, 47(3) :281–94, 2002.
[42] R. Chen and Z. Weng. A novel shape complementarity scoring function for
protein-protein docking. Proteins, 51(3) :397–408, 2003.
[43] Y. Chen, T. Kortemme, T. Robertson, D. Baker, and G. Varani. A new hydrogenbonding
potential for the design of protein-RNA interactions predicts specific contacts
and discriminates decoys. Nucleic Acids Res, 32(17) :5147–62, 2004.
[44] Y. Chen and G. Varani. Protein families and RNA recognition. FEBS J,
272(9) :2088–97, 2005.
105Bibliographie
[45] Y. Chen and G. Varani. Engineering RNA-binding proteins for biology. FEBS J,
280(16) :3734–54, 2013.
[46] J. Cherfils, S. Duquerroy, and J. Janin. Protein-protein recognition analyzed by
docking simulation. Proteins, 11(4) :271–80, 1991.
[47] C. Chothia and M. Gerstein. Protein evolution. How far can sequences diverge ?
Nature, 385(6617) :579, 581, 1997.
[48] C. Chothia and J. Janin. Principles of protein-protein recognition. Nature,
256(5520) :705–8, 1975.
[49] A. Clery, M. Blatter, and F. H. Allain. RNA recognition motifs : boring ? Not quite.
Curr Opin Struct Biol, 18(3) :290–8, 2008.
[50] W. W. Cohen. Fast Effective Rule Induction. In Proceedings of the Twelfth International
Conference on Machine Learning, pages 115–123. Morgan Kaufmann,
1995.
[51] N. Colloc’h, C. Etchebest, E. Thoreau, B. Henrissat, and J.P. Mornon. Comparison
of three algorithms for the assignment of secondary structure in proteins :
the advantages of a consensus assignment. Protein Eng, 6(4) :377–82, 1993.
[52] S. R. Comeau and C. J. Camacho. Predicting oligomeric assemblies : N-mers a
primer. J Struct Biol, 150(3) :233–44, 2005.
[53] S. R. Comeau, S. Vajda, and C. J. Camacho. Performance of the first protein
docking server ClusPro in CAPRI rounds 3-5. Proteins, 60(2) :239–44, 2005.
[54] M. L. Connolly. Analytical molecular surface calculation. Journal of Applied
Crystallography, 16(5) :548–558, 1983.
[55] M. L. Connolly. Solvent-accessible surfaces of proteins and nucleic acids. Science,
221(4612) :709–713, Aug 1983.
[56] M. L. Connolly. Molecular surface triangulation. Journal of Applied Crystallography,
18(6) :499–505, 1985.
[57] M. L. Connolly. Shape complementarity at the hemoglobin alpha 1 beta 1 subunit
interface. Biopolymers, 25(7) :1229–47, 1986.
[58] M. L. Connolly. Molecular interstitial skeleton. Computers & Chemistry,
15(1) :37–45, 1991.
[59] L. L. Conte, C. Chothia, and J. Janin. The atomic structure of protein-protein
recognition sites. J Mol Biol, 285(5) :2177–98, 1999.
[60] T. A. Cooper, L. Wan, and G. Dreyfuss. RNA and disease. Cell, 136(4) :777–93,
2009.
[61] A. Cornuiejols and L. Miclet. ´ Apprentissage Artificiel - Concepts et algorithmes.
Cepadues, 2002. ´
[62] D. Cozzetto, A. Di Matteo, and A. Tramontano. Ten years of predictions... and
counting. FEBS J, 272(4) :881–2, 2005.
[63] G. M. Crippen. Voronoi binding site models. NIDA Res Monogr, 112 :7–20, 1991.
106[64] M. D. Daily, D. Masica, A. Sivasubramanian, S. Somarouthu, and J. J. Gray.
CAPRI rounds 3-5 reveal promising successes and future challenges for RosettaDock.
Proteins, 60(2) :181–6, 2005.
[65] R. Das and D. Baker. Automated de novo prediction of native-like RNA tertiary
structures. Proc Natl Acad Sci U S A, 104(37) :14664–9, 2007.
[66] R. Das, J. Karanicolas, and D. Baker. Atomic accuracy in predicting and designing
noncanonical RNA structure. Nat Methods, 7(4) :291–4, 2010.
[67] S. J. de Vries, A. S. Melquiond, P. L. Kastritis, E. Karaca, A. Bordogna, M. van
Dijk, J. P. Rodrigues, and A. M. Bonvin. Strengths and weaknesses of datadriven
docking in critical assessment of prediction of interactions. Proteins,
78(15) :3242–9, 2010.
[68] S. J. De Vries, A. D. J. van Dijk, M. Krzeminski, M. van Dijk, A. Thureau, V. Hsu,
T. Wassenaar, and A. M. J. J. Bonvin. HADDOCK versus HADDOCK : new
features and performance of HADDOCK2. 0 on the CAPRI targets. Proteins :
structure, function, and bioinformatics, 69(4) :726–733, 2007.
[69] C. Dominguez, R. Boelens, and A. M. Bonvin. HADDOCK : a protein-protein
docking approach based on biochemical or biophysical information. J Am Chem
Soc, 125(7) :1731–7, 2003.
[70] R. L. Dunbrack, Jr and F. E. Cohen. Bayesian statistical analysis of protein sidechain
rotamer preferences. Protein Sci, 6 :1661–1681, 1997.
[71] F. Dupuis, J.F. Sadoc, R. Jullien, B. Angelov, and J.P. Mornon. Voro3D : 3D
Voronoi tessellations applied to protein structures. Bioinformatics, 21(8) :1715–
6, 2005.
[72] H. Edelsbrunner, M. Facello, and J. Liang. On the definition and the construction
of pockets in macromolecules. Pac Symp Biocomput, pages 272–87, 1996.
[73] H. Edelsbrunner, M. Facello, and J. Liang. On the definition and the construction
of pockets in macromolecules. Discr Appl Math, 88 :83–102, 1998.
[74] H. Edelsbrunner and P. Koehl. The weighted-volume derivative of a space-filling
diagram. Proc Natl Acad Sci U S A, 100(5) :2203–8, 2003.
[75] S. Eiler, A.-C. Dock-Bregeon, L. Moulinier, J.-C. Thierry, and D. Moras. Synthesis
of aspartyl-tRNAAsp in Escherichia coli—a snapshot of the second step. The
EMBO journal, 18(22) :6532–6541, 1999.
[76] D. Eisenberg and A. D. McLachlan. Solvation energy in protein folding and binding.
Nature, 319(6050) :199–203, 1986.
[77] M. Eisenstein. Introducing a 4th dimension to protein-protein docking. Structure
(Camb), 12(12) :2095–6, 2004.
[78] J. J. Ellis, M. Broom, and S. Jones. Protein-RNA interactions : structural analysis
and functional classes. Proteins, 66(4) :903–11, 2007.
[79] J. Fernandez-Recio, R. Abagyan, and M. Totrov. Improving CAPRI predictions : ´
optimized desolvation for rigid-body docking. Proteins, 60(2) :308–13, 2005.
107Bibliographie
[80] C. Ferri, P. Flach, and J. Hernandez-Orallo. Learning decision trees using the ´
area under the ROC curve. Machine Learning-International Workshop Then
Conference-, pages 139–146, 2002.
[81] S. Fields and O. Song. A novel genetic system to detect protein-protein interactions.
Nature, 340(6230) :245–6, 1989.
[82] J. L. Finney. Volume occupation, environment and accessibility in proteins. The
problem of the protein surface. J Mol Biol, 96(4) :721–32, 1975.
[83] D. Fischer, S. L. Lin, H. L. Wolfson, and R. Nussinov. A geometry-based suite of
molecular docking processes. J Mol Biol, 248(2) :459–77, 1995.
[84] D. Fischer, R. Norel, H. Wolfson, and R. Nussinov. Surface motifs by a computer
vision technique : searches, detection, and implications for protein-ligand
recognition. Proteins, 16(3) :278–92, 1993.
[85] S. C. Flores, J. Bernauer, S. Shin, R. Zhou, and X. Huang. Multiscale modeling
of macromolecular biosystems. Brief Bioinform, 13(4) :395–405, 2012.
[86] E. Frank and I. H. Witten. Generating accurate rule sets without global optimization.
Fifteenth International Conference on Machine Learning, 45(1) :144–151,
1998.
[87] D. Frishman and P. Argos. The future of protein secondary structure prediction
accuracy. Fold Des, 2(3) :159–62, 1997.
[88] J. J. Fritz, A. Lewin, W. Hauswirth, A. Agarwal, M. Grant, and L. Shaw. Development
of hammerhead ribozymes to modulate endogenous gene expression for
functional studies. Methods, 28(2) :276–285, Oct 2002.
[89] J. Furnkranz and Flach. An analysis of rule evaluation metrics. ¨ Proceedings of
the Twentieth International Conference on Machine Learning (ICML-2003), Jan
2003.
[90] H. H. Gan, A. Tropsha, and T. Schlick. Lattice protein folding with two and fourbody
statistical potentials. Proteins, 43(2) :161–74, 2001.
[91] E. J. Gardiner, P. Willett, and P. J. Artymiuk. GAPDOCK : a Genetic Algorithm
Approach to Protein Docking in CAPRI round 1. Proteins, 52(1) :10–4, 2003.
[92] A. C. Gavin, M. Bosche, R. Krause, P. Grandi, M. Marzioch, A. Bauer, J. Schultz,
J. M. Rick, A. M. Michon, C. M. Cruciat, M. Remor, C. Hofert, M. Schelder, M. Brajenovic,
H. Ruffner, A. Merino, K. Klein, M. Hudak, D. Dickson, T. Rudi, V. Gnau,
A. Bauch, S. Bastuck, B. Huhse, C. Leutwein, M. A. Heurtier, R. R. Copley,
A. Edelmann, E. Querfurth, V. Rybin, G. Drewes, M. Raida, T. Bouwmeester,
P. Bork, B. Seraphin, B. Kuster, G. Neubauer, and G. Superti-Furga. Functional
organization of the yeast proteome by systematic analysis of protein complexes.
Nature, 415(6868) :141–7, 2002.
[93] B. J. Gellatly and J. L. Finney. Calculation of protein volumes : an alternative to
the Voronoi procedure. J Mol Biol, 161(2) :305–22, 1982.
[94] M. Gerstein and C. Chothia. Packing at the protein-water interface. Proc Natl
Acad Sci U S A, 93(19) :10167–72, 1996.
108[95] M. Gerstein, J. Tsai, and M. Levitt. The volume of atoms on the protein surface :
calculated from simulation, using Voronoi polyhedra. J Mol Biol, 249(5) :955–66,
1995.
[96] A. Goede, R. Preissner, and C. Frommel. Voronoi cell : new method for allocation ¨
of space among atoms : elimination of avoidable errors in calculation of atomic
volume and density. J Comp Chem, 18(9) :1113–1123, 1997.
[97] S. C. B. Gopinath. Mapping of RNA-protein interactions. Anal Chim Acta,
636(2) :117–128, Mar 2009.
[98] J. J. Gray, S. Moughon, C. Wang, O. Schueler-Furman, B. Kuhlman, C. A. Rohl,
and D. Baker. Protein-protein docking with simultaneous optimization of rigidbody
displacement and side-chain conformations. J Mol Biol, 331(1) :281–99,
2003.
[99] J. J. Gray, S. Moughon, C. Wang, O. Schueler-Furman, B. Kuhlman, C. A. Rohl,
and D. Baker. Protein-protein docking with simultaneous optimization of rigidbody
displacement and side-chain conformations. J Mol Biol, 331(1) :281–99,
2003.
[100] J. J. Gray, S. E. Moughon, T. Kortemme, O. Schueler-Furman, K. M. Misura,
A. V. Morozov, and D. Baker. Protein-protein docking predictions for the CAPRI
experiment. Proteins, 52(1) :118–22, 2003.
[101] A. Guilhot-Gaudeffroy, J. Aze, J. Bernauer, and C. Froidevaux. Apprentissage ´
de fonctions de tri pour la prediction d’interactions prot ´ eine-ARN. In ´ Quatorzieme
conf ` erence Francophone sur l’Extraction et la Gestion des Connais- ´
sances, pages 479–484, 2014.
[102] D. M. Halaby and J. P. Mornon. The immunoglobulin superfamily : an insight on
its tissular, species, and functional diversity. J Mol Evol, 46(4) :389–400, 1998.
[103] M. Hall, E. Frank, G. Holmes, B. Pfahringer, P. Reutemann, and I. H. Witten. The
WEKA data mining software : an update. SIGKDD Explorations, 11(1) :10–18,
2009.
[104] I. Halperin, B. Ma, H. Wolfson, and R. Nussinov. Principles of docking : an
overview of search algorithms and a guide to scoring functions. Proteins,
47(4) :409–43, 2002.
[105] Wei Han, Cheuk-Kin Wan, Fan Jiang, and Yun-Dong Wu. Pace force field for
protein simulations. 1. full parameterization of version 1 and verification. Journal
of Chemical Theory and Computation, 6(11) :3373–3389, 2010.
[106] Wei Han, Cheuk-Kin Wan, and Yun-Dong Wu. Pace force field for protein simulations.
2. folding simulations of peptides. Journal of Chemical Theory and
Computation, 6(11) :3390–3402, 2010.
[107] Y. Harpaz, M. Gerstein, and C. Chothia. Volume changes on protein folding.
Structure, 2(7) :641–9, 1994.
[108] A. Heifetz, E. Katchalski-Katzir, and M. Eisenstein. Electrostatics in proteinprotein
docking. Protein Sci, 11(3) :571–87, 2002.
109Bibliographie
[109] Y. Ho, A. Gruhler, A. Heilbut, G. D. Bader, L. Moore, S. L. Adams, A. Millar,
P. Taylor, K. Bennett, K. Boutilier, L. Yang, C. Wolting, I. Donaldson, S. Schandorff,
J. Shewnarane, M. Vo, J. Taggart, M. Goudreault, B. Muskat, C. Alfarano,
D. Dewar, Z. Lin, K. Michalickova, A. R. Willems, H. Sassi, P. A.
Nielsen, K. J. Rasmussen, J. R. Andersen, L. E. Johansen, L. H. Hansen,
H. Jespersen, A. Podtelejnikov, E. Nielsen, J. Crawford, V. Poulsen, B. D.
Sorensen, J. Matthiesen, R. C. Hendrickson, F. Gleeson, T. Pawson, M. F. Moran,
D. Durocher, M. Mann, C. W. Hogue, D. Figeys, and M. Tyers. Systematic identifi-
cation of protein complexes in Saccharomyces cerevisiae by mass spectrometry.
Nature, 415(6868) :180–3, 2002.
[110] I. L. Hofacker. RNA secondary structure analysis using the Vienna RNA package.
Curr Protoc Bioinformatics, Chapter 12 :Unit 12.2, Feb 2004.
[111] G. M. Huang. High-throughput DNA sequencing : a genomic data manufacturing
process. DNA Seq, 10(3) :149–53, 1999.
[112] S. Y. Huang and X. Zou. A nonredundant structure dataset for benchmarking
protein-RNA computational docking. J Comput Chem, 34(4) :311–8, 2013.
[113] S. Y. Huang and X. Zou. A knowledge-based scoring function for protein-RNA
interactions derived from a statistical mechanics-based iterative method. Nucleic
Acids Res, 2014.
[114] Y. Huang, S. Liu, D. Guo, L. Li, and Y. Xiao. A novel protocol for three-dimensional
structure prediction of RNA-protein complexes. Scientific reports, 3, 2013.
[115] Y. Inbar, D. Schneidman-Duhovny, I. Halperin, A. Oron, R. Nussinov, and H. J.
Wolfson. Approaching the CAPRI challenge with an efficient geometry-based
docking. Proteins, 60(2) :217–23, 2005.
[116] T. Ito, K. Tashiro, S. Muta, R. Ozawa, T. Chiba, M. Nishizawa, K. Yamamoto,
S. Kuhara, and Y. Sakaki. Toward a protein-protein interaction map of the budding
yeast : a comprehensive system to examine two-hybrid interactions in all
possible combinations between the yeast proteins. Proc Natl Acad Sci U S A,
97(3) :1143–7, 2000.
[117] S. Izvekov and G. A. Voth. A multiscale coarse-graining method for biomolecular
systems. J Phys Chem B, 109(7) :2469–2473, Feb 2005.
[118] J. Janin. Assessing predictions of protein-protein interaction : the CAPRI experiment.
Protein Sci, 14(2) :278–83, 2005.
[119] J. Janin. Sailing the route from Gaeta, Italy, to CAPRI. Proteins, 60(2) :149,
2005.
[120] J. Janin. The targets of CAPRI rounds 3-5. Proteins, 60(2) :170–5, 2005.
[121] J. Janin. Protein-protein docking tested in blind predictions : the CAPRI experiment.
Mol Biosyst, 6(12) :2351–62, 2010.
[122] J. Janin, K. Henrick, J. Moult, L. T. Eyck, M. J. Sternberg, S. Vajda, I. Vakser, and
S. J. Wodak. CAPRI : a Critical Assessment of PRedicted Interactions. Proteins,
52(1) :2–9, 2003.
110[123] J. Janin and B. Seraphin. Genome-wide studies of protein-protein interaction.
Curr Opin Struct Biol, 13(3) :383–8, 2003.
[124] J. Janin and S. J. Wodak. Reaction pathway for the quaternary structure change
in hemoglobin. Biopolymers, 24(3) :509–26, 1985.
[125] J. Janin and S. J. Wodak. Protein modules and protein-protein interaction. Introduction.
Adv Protein Chem, 61 :1–8, 2002.
[126] F. Jiang and S. H. Kim. “Soft docking” : matching of molecular surface cubes. J
Mol Biol, 219(1) :79–102, 1991.
[127] G. H. John and P. Langley. Estimating continuous distributions in bayesian classifiers.
In Proceedings of the Eleventh Conference on Uncertainty in Artificial
Intelligence, UAI’95, pages 338–345, San Francisco, CA, USA, 1995. Morgan
Kaufmann Publishers Inc.
[128] W. Kabsch and C. Sander. Dictionary of protein secondary structure : pattern
recognition of hydrogen-bonded and geometrical features. Biopolymers,
22(12) :2577–637, 1983.
[129] R. Karaduman, P. Fabrizio, K. Hartmuth, H. Urlaub, and R. Luhrmann. RNA ¨
structure and RNA-protein interactions in purified yeast u6 snRNPs. J Mol Biol,
356(5) :1248–1262, Mar 2006.
[130] S. Karlin, Z. Y. Zhu, and F. Baud. Atom density in protein structures. Proc Natl
Acad Sci U S A, 96(22) :12500–5, 1999.
[131] S. Karlin, M. Zuker, and L. Brocchieri. Measuring residue associations in protein
structures. Possible implications fro protein folding. J. Mol. Biol., 264 :121–136,
1994.
[132] E. Katchalski-Katzir, I. Shariv, M. Eisenstein, A. A. Friesem, C. Aflalo, and I. A.
Vakser. Molecular surface recognition : determination of geometric fit between
proteins and their ligands by correlation techniques. Proc Natl Acad Sci U S A,
89(6) :2195–9, 1992.
[133] A. Ke and J. A. Doudna. Crystallization of RNA and RNA-protein complexes.
Methods, 34(3) :408–14, 2004.
[134] J. C. Kendrew, R. E. Dickerson, B. E. Standberg, R. G. Hart, D. R. Davies, and
D. C. Phillips. Structure of myoglobin. A three dimensional Fourier synthesis at
2 A resolution. ˚ Nature, 185 :422–427, 1960.
[135] J. Kittler, M. Hatef, R. Duin, and J. Matas. On combining classifiers. Pattern
Analysis and Machine Intelligence, IEEE Transactions on, 20(3) :226–239, 1998.
[136] N. Kobayashi, T. Yamato, and N. Go. Mechanical property of a TIM-barrel protein.
Proteins, 28(1) :109–16, 1997.
[137] K. Komatsu, Y. Kurihara, M. Iwadate, M. Takeda-Shitaka, and H. Umeyama. Evaluation
of the third solvent clusters fitting procedure for the prediction of proteinprotein
interactions based on the results at the CAPRI blind docking study. Proteins,
52(1) :15–8, 2003.
111Bibliographie
[138] J. Konig, K. Zarnack, N. M. Luscombe, and J. Ule. Protein-RNA interactions : new
genomic technologies and perspectives. Nat Rev Genet, 13(2) :77–83, 2011.
[139] O. Kotik-Kogan, E. R. Valentine, D. Sanfelice, M. R. Conte, and S. Curry. Structural
analysis reveals conformational plasticity in the recognition of RNA 3’ ends
by the human La protein. Structure, 16(6) :852–862, Jun 2008.
[140] B. Krishnamoorthy and A. Tropsha. Development of a four-body statistical
pseudo-potential to discriminate native from non-native protein conformations.
Bioinformatics, 19(12) :1540–8, 2003.
[141] A. Kryshtafovych, C. Venclovas, K. Fidelis, and J. Moult. Progress over the first
decade of CASP experiments. Proteins, 61 Suppl 7 :225–36, 2005.
[142] C. Laing and T. Schlick. Computational approaches to 3D modeling of RNA. J
Phys Condens Matter, 22(28) :283101, 2010.
[143] D. S. Law, L. F. Ten Eyck, O. Katzenelson, I. Tsigelny, V. A. Roberts, M. E. Pique,
and J. C. Mitchell. Finding needles in haystacks : Reranking DOT results by using
shape complementarity, cluster analysis, and biological information. Proteins,
52(1) :33–40, 2003.
[144] T. Lazaridis and M. Karplus. Effective energy function for proteins in solution.
Proteins, 35(2) :133–152, May 1999.
[145] R. H. Lee and G. D. Rose. Molecular recognition. I. Automatic identification of
topographic surface features. Biopolymers, 24(8) :1613–27, 1985.
[146] M. F. Lensink, I. H. Moal, P. A. Bates, P. L. Kastritis, A. S. Melquiond, E. Karaca,
C. Schmitz, M. van Dijk, A. M. Bonvin, M. Eisenstein, B. Jimenez-Garcia,
S. Grosdidier, A. Solernou, L. Perez-Cano, C. Pallara, J. Fern ´ andez-Recio, J. Xu, ´
P. Muthu, K. Praneeth Kilambi, J. J. Gray, S. Grudinin, G. Derevyanko, J. C.
Mitchell, J. Wieting, E. Kanamori, Y. Tsuchiya, Y. Murakami, J. Sarmiento, D. M.
Standley, M. Shirota, K. Kinoshita, H. Nakamura, M. Chavent, D. W. Ritchie,
H. Park, J. Ko, H. Lee, C. Seok, Y. Shen, D. Kozakov, S. Vajda, P. J. Kundrotas,
I. A. Vakser, B. G. Pierce, H. Hwang, T. Vreven, Z. Weng, I. Buch, E. Farkash,
H. J. Wolfson, M. Zacharias, S. Qin, H. X. Zhou, S. Y. Huang, X. Zou, J. A.
Wojdyla, C. Kleanthous, and S. J. Wodak. Blind prediction of interfacial water
positions in CAPRI. Proteins, 2013.
[147] M. F. Lensink, R. Mendez, and S. J. Wodak. Docking and scoring protein com- ´
plexes : CAPRI 3rd edition. Proteins, 69(4) :704–718, Dec 2007.
[148] M. F. Lensink and S. J. Wodak. Docking, scoring, and affinity prediction in CAPRI.
Proteins, 81(12) :2082–95, 2013.
[149] C. Levinthal, S. J. Wodak, P. Kahn, and A. K. Dadivanian. Hemoglobin interaction
in sickle cell fibers. I : theoretical approaches to the molecular contacts. Proc Natl
Acad Sci U S A, 72(4) :1330–4, 1975.
[150] M. Levitt. A simplified representation of protein conformations for rapid simulation
of protein folding. J Mol Biol, 104(1) :59–107, 1976.
112[151] M. Levitt. A simplified representation of protein conformations for rapid simulation
of protein folding. J Mol Biol, 104(1) :59–107, Jun 1976.
[152] B. A. Lewis, R. R. Walia, M. Terribilini, J. Ferguson, C. Zheng, V. Honavar, and
D. Dobbs. PRIDB : a protein-RNA interface database. Nucleic Acids Res,
39(Database issue) :D277–D282, Jan 2011.
[153] C. H. Li, L. B. Cao, J. G. Su, Y. X. Yang, and C. X. Wang. A new residuenucleotide
propensity potential with structural information considered for discriminating
protein-RNA docking decoys. Proteins, 80(1) :14–24, 2012.
[154] L. Li, R. Chen, and Z. Weng. RDOCK : refinement of rigid-body protein docking
predictions. Proteins, 53(3) :693–707, 2003.
[155] W. Li, H. Yoshii, N. Hori, T. Kameda, and S. Takada. Multiscale methods for
protein folding simulations. Methods, 52(1) :106–114, Sep 2010.
[156] X. Li, C. Hu, and J. Liang. Simplicial edge representation of protein structures
and alpha contact potential with confidence measure. Proteins, 53(4) :792–805,
2003.
[157] J. Liang and K. A. Dill. Are proteins well-packed ? Biophys J, 81(2) :751–66,
2001.
[158] J. Liang, H. Edelsbrunner, P. Fu, P. V. Sudhakar, and S. Subramaniam. Analytical
shape computation of macromolecules : I. Molecular area and volume through
alpha shape. Proteins, 33(1) :1–17, 1998.
[159] J. Liang, H. Edelsbrunner, P. Fu, P. V. Sudhakar, and S. Subramaniam. Analytical
shape computation of macromolecules : II. Inaccessible cavities in proteins.
Proteins, 33(1) :18–29, 1998.
[160] J. Liang, H. Edelsbrunner, and C. Woodward. Anatomy of protein pockets and
cavities : measurement of binding site geometry and implications for ligand design.
Protein Sci, 7(9) :1884–97, 1998.
[161] J. Liang and S. Subramaniam. Computation of molecular electrostatics with
boundary element methods. Biophys J, 73(4) :1830–41, 1997.
[162] D. R. Lide. CRC handbook of chemistry and physics. CRC press, 2004.
[163] S. L. Lin, R. Nussinov, D. Fischer, and H. J. Wolfson. Molecular surface representations
by sparse critical points. Proteins, 18(1) :94–101, 1994.
[164] C. X. Ling, J. Huang, and H. Zhang. AUC : a better measure than accuracy in
comparing learning algorithms. Advances in Artificial Intelligence, Jan 2003.
[165] C. X. Ling, J. Huang, and H. Zhang. AUC : a statistically consistent and more
discriminating measure than accuracy. International joint Conference on artificial
intelligence, pages 519–524, Jan 2003.
[166] J. Lipfert and S. Doniach. Small-angle X-ray scattering from RNA, proteins, and
protein complexes. Annu Rev Biophys Biomol Struct, 36 :307–27, 2007.
[167] Y. Liu and J. Snoeyink. A comparison of five implementations of 3D Delaunay
tessellation. Combinatorial and Computational Geometry, 52 :439–458, 2005.
113Bibliographie
[168] S. Loriot, F. Cazals, and J. Bernauer. ESBTL : efficient PDB parser and data
structure for the structural and geometric analysis of biological macromolecules.
Bioinformatics, 26(8) :1127–1128, Apr 2010.
[169] D. Luo, T. Xu, R. P. Watson, D. Scherer-Becker, A. Sampath, W. Jahnke, S. S.
Yeong, C. H. Wang, S. P. Lim, A. Strongin, et al. Insights into rna unwinding and
atp hydrolysis by the flavivirus ns3 protein. The EMBO journal, 27(23) :3209–
3219, 2008.
[170] J. G. Mandell, V. A. Roberts, M. E. Pique, V. Kotlovyi, J. C. Mitchell, E. Nelson,
I. Tsigelny, and L. F. Ten Eyck. Protein docking using continuum electrostatics
and geometric fit. Protein Eng, 14(2) :105–13, 2001.
[171] D. H. Mathews. Revolutions in RNA secondary structure prediction. J Mol Biol,
359(3) :526–532, Jun 2006.
[172] B. J. McConkey, V. Sobolev, and M. Edelman. Quantification of protein surfaces,
volumes and atom-atom contacts using a constrained Voronoi procedure. Bioinformatics,
18(10) :1365–73, 2002.
[173] R. Mendez, R. Leplae, L. De Maria, and S. J. Wodak. Assessment of blind
predictions of protein-protein interactions : current status of docking methods.
Proteins, 52(1) :51–67, 2003.
[174] R. Mendez, R. Leplae, M. F. Lensink, and S. J. Wodak. Assessment of CAPRI
predictions in rounds 3-5 shows progress in docking procedures. Proteins,
60(2) :150–69, 2005.
[175] E. C. Meng, B. K. Shoichet, and I. D. Kuntz. Automated docking with grid-based
energy evaluation. J Comp Chem, 13 :505–524, 1992.
[176] E. J. Merino, K. A. Wilkinson, J. L. Coughlan, and K. M. Weeks. RNA structure
analysis at single nucleotide resolution by selective 2’-hydroxyl acylation and
primer extension (shape). J Am Chem Soc, 127(12) :4223–4231, Mar 2005.
[177] C. E. Metz. Basic principles of ROC analysis. Seminars in nuclear medicine,
VIII(4) :283–298, Jan 1978.
[178] I. Mihalek, I. Res, and O. Lichtarge. A structure and evolution-guided Monte
Carlo sequence selection strategy for multiple alignment-based analysis of proteins.
Bioinformatics, 22(2) :149–56, 2006.
[179] M. Milek, E. Wyler, and M. Landthaler. Transcriptome-wide analysis of proteinRNA
interactions using high-throughput sequencing. Semin Cell Dev Biol,
23(2) :206–12, 2012.
[180] J. C. Mitchell, R. Kerr, and L. F. Ten Eyck. Rapid atomic density methods for
molecular shape characterization. J Mol Graph Model, 19(3-4) :325–30, 388–
90, 2001.
[181] I. S. Moreira, P. A. Fernandes, and M. J. Ramos. Protein-protein docking dealing
with the unknown. J Comput Chem, 31(2) :317–42, 2010.
114[182] J. Moult, K. Fidelis, B. Rost, T. Hubbard, and A. Tramontano. Critical assessment
of methods of protein structure prediction (CASP)–round 6. Proteins, 61 Suppl
7 :3–7, 2005.
[183] P. J. Munson and R. K. Singh. Statistical significance of hierarchical multi-body
potentials based on Delaunay tessellation and their application in sequencestructure
alignment. Protein Sci, 6(7) :1467–81, 1997.
[184] G. N. Murshudov, A. A. Vagin, and E. J. Dodson. Refinement of macromolecular
structures by the maximum-likelihood method. Acta Crystallographica Section
D : Biological Crystallography, 53(3) :240–255, 1997.
[185] A. G. Murzin, S. E. Brenner, T. Hubbard, and C. Chothia. SCOP : a structural
classification of proteins database for the investigation of sequences and structures.
J Mol Biol, 247(4) :536–40, 1995.
[186] K. Nadassy, I. Tomas-Oliveira, I. Alberts, J. Janin, and S. J. Wodak. Standard
atomic volumes in double-stranded DNA and packing in protein–DNA interfaces.
Nucleic Acids Res, 29(16) :3362–76, 2001.
[187] K. Nadassy, S. J. Wodak, and J. Janin. Structural features of protein-nucleic acid
recognition sites. Biochemistry, 38(7) :1999–2017, 1999.
[188] R. Norel, D. Fischer, H. J. Wolfson, and R. Nussinov. Molecular surface recognition
by a computer vision-based technique. Protein Eng, 7(1) :39–46, 1994.
[189] R. Norel, S. L. Lin, H. J. Wolfson, and R. Nussinov. Molecular surface complementarity
at protein-protein interfaces : the critical role played by surface normals
at well placed, sparse, points in docking. J Mol Biol, 252(2) :263–73, 1995.
[190] R. Norel, D. Petrey, H. J. Wolfson, and R. Nussinov. Examination of shape complementarity
in docking of unbound proteins. Proteins, 36(3) :307–17, 1999.
[191] C. A. Orengo, A. D. Michie, S. Jones, D. T. Jones, M. B. Swindells, and J. M.
Thornton. CATH–a hierarchic classification of protein domain structures. Structure,
5(8) :1093–108, 1997.
[192] E. Paci and M. Marchi. Intrinsic compressibility and volume compression in solvated
proteins by molecular dynamics simulation at high pressure. Proc Natl
Acad Sci U S A, 93(21) :11609–14, 1996.
[193] H. Pan, S. Agarwalla, D. T. Moustakas, J. Finer-Moore, and R. M. Stroud. Structure
of tRNA pseudouridine synthase TruB and its RNA complex : RNA recognition
through a combination of rigid docking and induced fit. Proc Natl Acad Sci
U S A, 100(22) :12648–12653, Oct 2003.
[194] P. Pancoska and T. A. Keiderling. Systematic comparison of statistical analyses
of electronic and vibrational circular dichroism for secondary structure prediction
of selected proteins. Biochemistry, 30(28) :6885–95, 1991.
[195] M. Parisien and F. Major. The MC-Fold and MC-Sym pipeline infers RNA structure
from sequence data. Nature, 452(7183) :51–5, 2008.
[196] L. Pauling and R. B. Corey. The pleated sheet, a new layer configuration of
polypeptide chains. Proc Natl Acad Sci U S A, 37(5) :251–6, 1951.
115Bibliographie
[197] L. Pauling, R. B. Corey, and H. R. Branson. The structure of proteins ; two
hydrogen-bonded helical configurations of the polypeptide chain. Proc Natl Acad
Sci U S A, 37(4) :205–11, 1951.
[198] K. P. Peters, J. Fauck, and C. Frommel. The automatic search for ligand binding
sites in proteins of known three-dimensional structure using only geometric
criteria. J Mol Biol, 256(1) :201–13, 1996.
[199] B. Pierce, W. Tong, and Z. Weng. M-ZDOCK : a grid-based approach for Cn
symmetric multimer docking. Bioinformatics, 21(8) :1472–8, 2005.
[200] H. Ponstingl, K. Henrick, and J. M. Thornton. Discriminating between homodimeric
and monomeric proteins in the crystalline state. Proteins, 41(1) :47–57,
2000.
[201] A. Poupon. Voronoi and Voronoi-related tessellations in studies of protein structure
and interaction. Curr Opin Struct Biol, 14(2) :233–41, 2004.
[202] R. Pribic, I. H. van Stokkum, D. Chapman, P. I. Haris, and M. Bloemendal. Protein
secondary structure from Fourier transform infrared and/or circular dichroism
spectra. Anal Biochem, 214(2) :366–78, 1993.
[203] T. Puton, L. Kozlowski, I. Tuszynska, K. Rother, and J. M. Bujnicki. Computational
methods for prediction of protein-RNA interactions. J Struct Biol, 179(3) :261–8,
2012.
[204] L. Perez-Cano, B. Jim ´ enez-Garc ´ ´ıa, and J. Fernandez-Recio. A protein-RNA ´
docking benchmark (II) : extended set from experimental and homology modeling
data. Proteins, 80(7) :1872–1882, Jul 2012.
[205] L. Perez-Cano, A. Solernou, C. Pons, and J. Fern ´ andez-Recio. Structural predic- ´
tion of protein-RNA interaction by computational docking with propensity-based
statistical potentials. Pac Symp Biocomput, pages 293–301, 2010.
[206] M. L. Quillin and B. W. Matthews. Accurate calculation of the density of proteins.
Acta Crystallogr D Biol Crystallogr, 56 (Pt 7) :791–4, 2000.
[207] J. R. Quinlan. C4.5 : Programs for Machine Learning. Morgan Kaufmann Publishers
Inc., San Francisco, CA, USA, 1993.
[208] A. Rakotomamonjy. Optimizing area under ROC curves with SVMs. ROCAI’04,
Jan 2004.
[209] G. N. Ramachandran. Conformation of polypeptides and proteins. Advances in
protein chemistry, 23 :283, 1968.
[210] J. Reeder, M. Hochsmann, M. Rehmsmeier, B. Voss, and R. Giegerich. Beyond ¨
Mfold : recent advances in RNA bioinformatics. J Biotechnol, 124(1) :41–55, Jun
2006.
[211] F. M. Richards. The interpretation of protein structures : total volume, group
volume distributions and packing density. J Mol Biol, 82(1) :1–14, 1974.
[212] F. M. Richards. Calculation of molecular volumes and areas for structures of
known geometry. Methods Enzymol, 115 :440–64, 1985.
116[213] D. W. Ritchie. Evaluation of protein docking predictions using Hex 3.1 in CAPRI
rounds 1 and 2. Proteins, 52(1) :98–106, 2003.
[214] M. Roche, J. Aze, Y. Kodratoff, and M. Sebag. Learning interestingness mea- ´
sures in terminology extraction. a ROC-based approach. In Jose Hern ´ andez- ´
Orallo, Cesar Ferri, Nicolas Lachiche, and Peter A. Flach, editors, ´ ROC Analysis
in Artificial Intelligence, 1st International Workshop, ROCAI-2004, Valencia,
Spain, August 22, 2004, ROCAI, pages 81–88, 2004.
[215] G. D. Rose, A. R. Geselowitz, G. J. Lesser, R. H. Lee, and M. H. Zehfus.
Hydrophobicity of amino acid residues in globular proteins. Science,
229(4716) :834–8, 1985.
[216] B. Rost, C. Sander, and R. Schneider. Redefining the goals of protein secondary
structure prediction. J Mol Biol, 235(1) :13–26, 1994.
[217] K. Rother, M. Rother, M. Boniecki, T. Puton, and J. M. Bujnicki. RNA and protein
3D structure modeling : similarities and differences. J Mol Model, 17(9) :2325–
36, 2011.
[218] M. Ruff, S. Krishnaswamy, M. Boeglin, A. Poterszman, A. Mitschler, A. Podjarny,
B. Rees, J. C. Thierry, and D. Moras. Class II aminoacyl transfer RNA synthetases
: crystal structure of yeast aspartyl-tRNA synthetase complexed with
tRNA (asp). Science, 252(5013) :1682–1689, 1991.
[219] S. P. Ryder and S. A. Strobel. Nucleotide analog interference mapping. Methods,
18(1) :38–50, May 1999.
[220] B. Sandak, R. Nussinov, and H. J. Wolfson. A method for biomolecular structural
recognition and docking allowing conformational flexibility. J Comput Biol,
5(4) :631–54, 1998.
[221] C. Sander and R. Schneider. Database of homology-derived protein structures
and the structural meaning of sequence alignment. Proteins, 9(1) :56–68, 1991.
[222] M. Schaefer, C. Bartels, F. Leclerc, and M. Karplus. Effective atom volumes for
implicit solvent models : comparison between Voronoi volumes and minimum
fluctuation volumes. J Comput Chem, 22(15) :1857–1879, 2001.
[223] R. E. Schapire, Y. Freund, P. Bartlett, and W. S. Lee. Boosting the margin : a new
explanation for the effectiveness of voting methods. The Annals of Statistics,
26(5) :1651–1686, 10 1998.
[224] D. Schneidman-Duhovny, Y. Inbar, R. Nussinov, and H. J. Wolfson. Geometrybased
flexible and symmetric protein docking. Proteins, 60(2) :224–31, 2005.
[225] D. Schneidman-Duhovny, Y. Inbar, V. Polak, M. Shatsky, I. Halperin,
H. Benyamini, A. Barzilai, O. Dror, N. Haspel, R. Nussinov, and H.J. Wolfson.
Taking geometry to its edge : fast unbound rigid (and hinge-bent) docking. Proteins,
52(1) :107–12, 2003.
[226] O. Schueler-Furman, C. Wang, and D. Baker. Progress in protein-protein docking
: atomic resolution predictions in the CAPRI experiment using RosettaDock
with an improved treatment of side-chain flexibility. Proteins, 60(2) :187–94,
2005.
117Bibliographie
[227] L. G. Scott and M. Hennig. RNA structure determination by NMR. Methods Mol
Biol, 452 :29–61, 2008.
[228] M. Sebag, J. Aze, and N. Lucas. Impact studies and sensitivity analysis in med- ´
ical data mining with ROC-based genetic learning. In Proceedings of the Third
IEEE International Conference on Data Mining, ICDM 2003, pages 637–40, Nov
2003.
[229] P. Setny and M. Zacharias. A coarse-grained force field for protein-RNA docking.
Nucleic Acids Res, 39(21) :9118–29, 2011.
[230] B. A. Shapiro, Y. G. Yingling, W. Kasprzak, and E. Bindewald. Bridging the gap
in RNA structure prediction. Curr Opin Struct Biol, 17(2) :157–165, Apr 2007.
[231] Paul Sherwood, Bernard R. Brooks, and Mark S P. Sansom. Multiscale methods
for macromolecular simulations. Curr Opin Struct Biol, 18(5) :630–640, Oct 2008.
[232] B. K. Shoichet, I. D. Kuntz, and D. L. Bodian. Molecular docking using shape
descriptors. J Comp Chem, 13 :380–397, 1992.
[233] R. K. Singh, A. Tropsha, and I. I. Vaisman. Delaunay tessellation of proteins :
four body nearest-neighbor propensities of amino acid residues. J Comput Biol,
3(2) :213–21, 1996.
[234] G. R. Smith and M. J. Sternberg. Prediction of protein-protein interactions by
docking methods. Curr Opin Struct Biol, 12(1) :28–35, 2002.
[235] G. R. Smith and M. J. Sternberg. Evaluation of the 3D-Dock protein docking suite
in rounds 1 and 2 of the CAPRI blind trial. Proteins, 52(1) :74–9, 2003.
[236] A. Soyer, J. Chomilier, J.P. Mornon, R. Jullien, and J.F. Sadoc. Voronoi tessellation
reveals the condensed matter character of folded proteins. Phys Rev Lett,
85(16) :3532–5, 2000.
[237] M. L. Stolowitz. Chemical protein sequencing and amino acid analysis. Curr
Opin Biotechnol, 4(1) :9–13, 1993.
[238] G. Terashi, M. Takeda-Shitaka, D. Takaya, K. Komatsu, and H. Umeyama.
Searching for protein-protein interaction sites and docking by the methods of
molecular dynamics, grid scoring, and the pairwise interaction potential of amino
acid residues. Proteins, 60(2) :289–95, 2005.
[239] C. A. Theimer, N. L. Smith, and M. Khanna. NMR studies of protein-RNA interactions.
Methods Mol Biol, 831 :197–218, 2012.
[240] R. Thiele, R. Zimmer, and T. Lengauer. Protein threading by recursive dynamic
programming. J Mol Biol, 290(3) :757–79, 1999.
[241] P. Tijerina, S. Mohr, and R. Russell. DMS footprinting of structured RNAs and
RNA-protein complexes. Nat Protoc, 2(10) :2608–2623, 2007.
[242] V. Tozzini. Coarse-grained models for proteins. Curr Opin Struct Biol, 15(2) :144–
150, Apr 2005.
[243] J. Tsai and M. Gerstein. Calculations of protein volumes : sensitivity analysis
and parameter database. Bioinformatics, 18(7) :985–95, 2002.
118[244] J. Tsai, R. Taylor, C. Chothia, and M. Gerstein. The packing density in proteins :
standard radii and volumes. J Mol Biol, 290(1) :253–66, 1999.
[245] J. Tsai, N. Voss, and M. Gerstein. Determining the minimum number of types
necessary to represent the sizes of protein atoms. Bioinformatics, 17(10) :949–
56, 2001.
[246] T. D. Tullius and B. A. Dombroski. Hydroxyl radical “footprinting” : high-resolution
information about DNA-protein contacts and application to lambda repressor and
Cro protein. Proc Natl Acad Sci U S A, 83(15) :5469–5473, Aug 1986.
[247] I. Tuszynska and J. M. Bujnicki. DARS-RNP and QUASI-RNP : new statistical
potentials for protein-RNA docking. BMC Bioinformatics, 12 :348, 2011.
[248] P. Uetz, L. Giot, G. Cagney, T. A. Mansfield, R. S. Judson, J. R. Knight, D. Lockshon,
V. Narayan, M. Srinivasan, P. Pochart, A. Qureshi-Emili, Y. Li, B. Godwin,
D. Conover, T. Kalbfleisch, G. Vijayadamodar, M. Yang, M. Johnston, S. Fields,
and J. M. Rothberg. A comprehensive analysis of protein-protein interactions in
Saccharomyces cerevisiae. Nature, 403(6770) :623–7, 2000.
[249] I. A. Vakser and P. Kundrotas. Predicting 3D structures of protein-protein complexes.
Curr Pharm Biotechnol, 9(2) :57–66, 2008.
[250] A. D. van Dijk, S. J. de Vries, C. Dominguez, H. Chen, H. X. Zhou, and A. M.
Bonvin. Data-driven docking : HADDOCK’s adventures in CAPRI. Proteins,
60(2) :232–8, 2005.
[251] S. Viswanath, D. V. Ravikant, and R. Elber. Improving ranking of models for
protein complexes with side chain modeling and atomic potentials. Proteins,
81(4) :592–606, 2013.
[252] M. Vuk and T. Curk. ROC curve, lift chart and calibration plot. Metodoloski zvezki,
3(1) :89–108, Jan 2006.
[253] H. Wako and T. Yamato. Novel method to detect a motif of local structures in
different protein conformations. Protein Eng, 11(11) :981–90, 1998.
[254] R. R. Walia, C. Caragea, B. A. Lewis, F. Towfic, M. Terribilini, Y. El-Manzalawy,
D. Dobbs, and V. Honavar. Protein-RNA interface residue prediction using machine
learning : an assessment of the state of the art. BMC Bioinformatics,
13 :89, 2012.
[255] H. Wang. Grid-search molecular accessible surface algorithm for solving the
protein docking problem. J Comp Chem, 12 :746–750, 1991.
[256] L. Wernisch, M. Hunting, and S. J. Wodak. Identification of structural domains in
proteins by a graph heuristic. Proteins, 35(3) :338–52, 1999.
[257] K. Wiehe, B. Pierce, J. Mintseris, W. W. Tong, R. Anderson, R. Chen, and
Z. Weng. ZDOCK and RDOCK performance in CAPRI rounds 3, 4, and 5. Proteins,
60(2) :207–13, 2005.
[258] D. S. Wishart, B. D. Sykes, and F. M. Richards. Relationship between nuclear
magnetic resonance chemical shift and protein secondary structure. J Mol Biol,
222(2) :311–33, 1991.
119Bibliographie
[259] S. J. Wodak and J. Janin. Computer analysis of protein-protein interaction. J Mol
Biol, 124(2) :323–42, 1978.
[260] S. J. Wodak and J. Janin. Structural basis of macromolecular recognition. Adv
Protein Chem, 61 :9–73, 2002.
[261] S. J. Wodak and R. Mendez. Prediction of protein-protein interactions : the
CAPRI experiment, its evaluation and implications. Curr Opin Struct Biol,
14(2) :242–9, 2004.
[262] H. J. Wolfson and R. Nussinov. Geometrical docking algorithms. A practical
approach. Methods Mol Biol, 143 :377–97, 2000.
[263] X. Yang, T. Gerczei, L. Glover, and C. C. Correll. Crystal structures of ´
restrictocin–inhibitor complexes with implications for RNA recognition and base
flipping. Nature Structural & Molecular Biology, 8(11) :968–973, 2001.
[264] K.-D. Zachmann, W. Heiden, M. Schlenkrich, and J. Brickmann. Topological analysis
of complex molecular surfaces. J Comp Chem, 13 :76–84, 1992.
[265] C. Zhang, S. Liu, and Y. Zhou. Accurate and efficient loop selections by the
DFIRE-based all-atom statistical potential. Protein Sci, 13(2) :391–9, 2004.
[266] C. Zhang, S. Liu, and Y. Zhou. Docking prediction using biological information,
ZDOCK sampling technique, and clustering guided by the DFIRE statistical energy
function. Proteins, 60(2) :314–8, 2005.
[267] C. Zhang, S. Liu, Q. Zhu, and Y. Zhou. A knowledge-based energy function
for protein-ligand, protein-protein, and protein-DNA complexes. J Med Chem,
48(7) :2325–35, 2005.
[268] J. Zhang. Protein-length distributions for the three domains of life. Trends Genet,
16(3) :107–9, 2000.
[269] S. Zheng, T. A. Robertson, and G. Varani. A knowledge-based potential function
predicts the specificity and relative binding energy of RNA-binding proteins.
FEBS J, 274(24) :6378–91, 2007.
[270] Z. H. Zhou. Towards atomic resolution structural determination by single-particle
cryo-electron microscopy. Curr Opin Struct Biol, 18(2) :218–28, 2008.
[271] H. Zhu, F. S. Domingues, I. Sommer, and T. Lengauer. NOXclass : prediction of
protein-protein interaction types. BMC Bioinformatics, 7(1) :27, 2006.
[272] X. Zhu, S. S. Ericksen, O. N. Demerdash, and J. C. Mitchell. Data-driven models
for protein interaction and design. Proteins, 81(12) :2221–8, 2013.
[273] R. Zimmer, M. Wohler, and R. Thiele. New scoring schemes for protein fold
recognition based on Voronoi contacts. Bioinformatics, 14(3) :295–308, 1998.
[274] M. Zuker. Mfold web server for nucleic acid folding and hybridization prediction.
Nucleic Acids Res, 31(13) :3406–3415, Jul 2003.
120Annexes
1 # P e rt u r b at i o n .
2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) .
3 # P repacking .
4 −docking : dock ppk f al s e # No docking prepack mode .
5 # Output .
6 −out : pdb # Output pdb f i l e .
7 −out : o v e r w r it e t rue # O v e rw r it e o ut p ut f i l e s .
8 # Docking o pt i o n s .
9 −docking : d o c k i n g c e n t r o i d o u t e r c y c l e s 0
10 −docking : d o c k i n g c e n t r o i d i n n e r c y c l e s 0
11 −docking : n o f i l t e r s t rue
12 −docking : dock mcm f al s e
13 −docking : sc min f al s e
14 −docking : dock min f al s e
Listing .1 – Fichier de flags pour gen´ erer des candidats par perturbation. ´
1 # P e rt u r b at i o n .
2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) .
3 −docking : randomize2 # Randomize the second p a rt n e r ( p a rt n e r B ) .
4 −docking : s p i n # Spin a l i t t l e the second p a rt n e r .
5 # P repacking .
6 −docking : dock ppk t rue # Docking prepack mode .
7 # Output .
8 −out : pdb # Output pdb f i l e .
9 −out : o v e r w r it e
10 # Docking o pt i o n s .
11 −docking : d o c k i n g l o c a l r e f i n e t rue
Listing .2 – Fichier de flags pour gen´ erer des candidats par amarrage atomique. ´
1211 # P e rt u r b at i o n .
2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) .
3 −docking : randomize2 # Randomize the second p a rt n e r ( p a rt n e r B ) .
4 −docking : s p i n # Spin a l i t t l e the second p a rt n e r .
5 # P repacking .
6 −docking : dock ppk t rue # Docking prepack mode .
7 # Output .
8 −out : pdb # Output pdb f i l e .
9 −out : o v e r w r it e
10 # Docking o pt i o n s .
11 −docking : l o w r e s p r o t o c o l o n l y # Skip high re s docking .
Listing .3 – Fichier de flags pour gen´ erer des candidats par amarrage gros-grain. ´
1 # P e rt u r b at i o n .
2 −docking : d o c k p e rt 3 8 # P e rt u r b a l i t t l e the second p a rt n e r (3A, 8d ) .
3 −docking : randomize2 # Randomize the second p a rt n e r ( p a rt n e r B ) .
4 −docking : s p i n # Spin a l i t t l e the second p a rt n e r .
5 # P repacking .
6 −docking : dock ppk t rue # Docking prepack mode .
7 # Output .
8 −out : pdb # Output pdb f i l e .
9 −out : o v e r w r it e t rue # O v e rw r it e o ut p ut f i l e s .
Listing .4 – Fichier de flags pour gen´ erer des candidats par amarrage en aveugle. ´
1221asy (ES = 3.69)
Irmsd (Å)
Score
0 20
176 223
Irmsd (Å)
Score
0 20
−680 3420
1av6 (ES = 1.53)
Irmsd (Å)
Score
0 20
−4
6
Irmsd (Å)
Score
0 20
−310 4560
1b23 (ES = 2.87)
Irmsd (Å)
Score
0 20
−134 −90
Irmsd (Å)
Score
0 20
−340 3220
1c0a (ES = 5.89)
Irmsd (Å)
Score
0 20
−194 −162
Irmsd (Å)
Score
0 20
−620 3380
1ddl (ES = 2.64)
Irmsd (Å)
Score
0 20
26 44
Irmsd (Å)
Score
0 20
−380 1860
1dfu (ES = 5.07)
Irmsd (Å)
Score
0 20
−22 −7
Irmsd (Å)
Score
0 20
−120 3500
1di2 (ES = 4.05)
Irmsd (Å)
Score
0 20
−14 −2
Irmsd (Å)
Score
0 20
−160 2800
1e8o (ES = 2.08)
Irmsd (Å)
Score
0 20
−11 −5
Irmsd (Å)
Score
0 20
−140 3830
1f7u (ES = 4.46)
Irmsd (Å)
Score
0 20
−237 −191
Irmsd (Å)
Score
0 20
−700 3960
FIGURE S1 – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´ energie ´
et son IRMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme presque- ´
natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle apprise ´
par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle disponible
par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque diagramme `
(candidats indiques en gris). ´
1231feu (ES = 1.72)
Irmsd (Å)
Score
0 20
−78 −48
Irmsd (Å)
Score
0 20
−200 3350
1ffy (ES = 7.09)
Irmsd (Å)
Score
0 20
−69 −47
Irmsd (Å)
Score
0 20
−750 5130
1fxl (ES = 6.26)
Irmsd (Å)
Score
0 20
−7
2
Irmsd (Å)
Score
0 20
−140 3330
1gtf (ES = 1.61)
Irmsd (Å)
Score
0 20
−35 −20
Irmsd (Å)
Score
0 20
−140 5060
1h3e (ES = 5.02)
Irmsd (Å)
Score
0 20
−18 −5
Irmsd (Å)
Score
0 20
−250 4130
1h4s (ES = 1.9)
Irmsd (Å)
Score
0 20
−326 −287
Irmsd (Å)
Score
0 20
−1060 4100
1hq1 (ES = 2.42)
Irmsd (Å)
Score
0 20
−30 −17
Irmsd (Å)
Score
0 20
−110 4770
1j1u (ES = 1.4)
Irmsd (Å)
Score
0 20
−35 −29
Irmsd (Å)
Score
0 20
−370 3270
1j2b (ES = 6.25)
Irmsd (Å)
Score
0 20
91 110
Irmsd (Å)
Score
0 20
−660 5460
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1241jbs (ES = 0.79)
Irmsd (Å)
Score
0 20
−22 −12
Irmsd (Å)
Score
0 20
−150 5310
1jid (ES = 0.05)
Irmsd (Å)
Score
0 20
−14 −9
Irmsd (Å)
Score
0 20
−150 4350
1k8w (ES = 7.73)
Irmsd (Å)
Score
0 20
−31 −20
Irmsd (Å)
Score
0 20
−320 3300
1knz (ES = 5.68)
Irmsd (Å)
Score
0 20
−25 −17
Irmsd (Å)
Score
0 20
−210 2980
1lng (ES = 3.91)
Irmsd (Å)
Score
0 20
−41 −26
Irmsd (Å)
Score
0 20
−140 5170
1m8v (ES = 1.7)
Irmsd (Å)
Score
0 20
−2
5
Irmsd (Å)
Score
0 20
−60 2610
1m8x (ES = 4.61)
Irmsd (Å)
Score
0 20
−10
2
Irmsd (Å)
Score
0 20
−350 4470
1mzp (ES = 3.15)
Irmsd (Å)
Score
0 20
−107 −69
Irmsd (Å)
Score
0 20
−240 5100
1n35 (ES = 7.27)
Irmsd (Å)
Score
0 20
−28 −20
Irmsd (Å)
Score
0 20
−1190 4730
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1251n78 (ES = 3.67)
Irmsd (Å)
Score
0 20
−234 −191
Irmsd (Å)
Score
0 20
−530 3400
1ooa (ES = 2.56)
Irmsd (Å)
Score
0 20
−8
4
Irmsd (Å)
Score
0 20
−260 5530
1pgl (ES = 0)
Irmsd (Å)
Score
0 20
−48 −31
Irmsd (Å)
Score
0 20
−470 2510
1q2r (ES = 6.33)
Irmsd (Å)
Score
0 20
−92 −80
Irmsd (Å)
Score
0 20
−770 3560
1qf6 (ES = 7.3)
Irmsd (Å)
Score
0 20
−32 −17
Irmsd (Å)
Score
0 20
−600 4320
1qtq (ES = 6.36)
Irmsd (Å)
Score
0 20
−29 −12
Irmsd (Å)
Score
0 20
−550 4830
1r3e (ES = 6.89)
Irmsd (Å)
Score
0 20
−18
3
Irmsd (Å)
Score
0 20
−260 4080
1r9f (ES = 3.19)
Irmsd (Å)
Score
0 20
−30 −18
Irmsd (Å)
Score
0 20
−170 2790
1sds (ES = 1.51)
Irmsd (Å)
Score
0 20
−5
3
Irmsd (Å)
Score
0 20
−120 4170
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1261ser (ES = 4.35)
Irmsd (Å)
Score
0 20
−65 −48
Irmsd (Å)
Score
0 20
−760 3310
1si3 (ES = 4.66)
Irmsd (Å)
Score
0 20
1 11
Irmsd (Å)
Score
0 20
−90 4940
1t0k (ES = 1.34)
Irmsd (Å)
Score
0 20
21 34
Irmsd (Å)
Score
0 20
−410 5520
1tfw (ES = 4.38)
Irmsd (Å)
Score
0 20
−63 −49
Irmsd (Å)
Score
0 20
−930 5030
1u0b (ES = 6.33)
Irmsd (Å)
Score
0 20
−219 −154
Irmsd (Å)
Score
0 20
−490 4940
1un6 (ES = 2.93)
Irmsd (Å)
Score
0 20
−150 −87
Irmsd (Å)
Score
0 20
−120 4350
1uvj (ES = 3.2)
Irmsd (Å)
Score
0 20
−44 −37
Irmsd (Å)
Score
0 20
−670 2080
1vfg (ES = 0.32)
Irmsd (Å)
Score
0 20
58 68
Irmsd (Å)
Score
0 20
−130 2740
1wpu (ES = 3.48)
Irmsd (Å)
Score
0 20
−8 −3
Irmsd (Å)
Score
0 20
−150 3320
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1271wsu (ES = 1.72)
Irmsd (Å)
Score
0 20
−6
4
Irmsd (Å)
Score
0 20
−150 3870
1wz2 (ES = 5.18)
Irmsd (Å)
Score
0 20
43 57
Irmsd (Å)
Score
0 20
−380 5450
1yvp (ES = 2.69)
Irmsd (Å)
Score
0 20
−14 −5
Irmsd (Å)
Score
0 20
−510 3730
1zbh (ES = 1.74)
Irmsd (Å)
Score
0 20
−26 −12
Irmsd (Å)
Score
0 20
−220 4350
2a8v (ES = 2.2)
Irmsd (Å)
Score
0 20
−3
0
Irmsd (Å)
Score
0 20
−100 1840
2anr (ES = 2.06)
Irmsd (Å)
Score
0 20
15 25
Irmsd (Å)
Score
0 20
−140 2160
2asb (ES = 5.26)
Irmsd (Å)
Score
0 20
−33 −22
Irmsd (Å)
Score
0 20
−160 3430
2az0 (ES = 4.33)
Irmsd (Å)
Score
0 20
−20 −7
Irmsd (Å)
Score
0 20
−170 4540
2azx (ES = 2.29)
Irmsd (Å)
Score
0 20
−50 −43
Irmsd (Å)
Score
0 20
−770 4220
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1282b3j (ES = 3.18)
Irmsd (Å)
Score
0 20
−171 −135
Irmsd (Å)
Score
0 20
−330 3020
2bgg (ES = 4.89)
Irmsd (Å)
Score
0 20
−5
7
Irmsd (Å)
Score
0 20
−400 2820
2bh2 (ES = 7.08)
Irmsd (Å)
Score
0 20
−20 −6
Irmsd (Å)
Score
0 20
−390 3620
2bte (ES = 2.15)
Irmsd (Å)
Score
0 20
−164 −139
Irmsd (Å)
Score
0 20
−810 2290
2bu1 (ES = 2.41)
Irmsd (Å)
Score
0 20
−9
0
Irmsd (Å)
Score
0 20
−110 4340
2bx2 (ES = 2.08)
Irmsd (Å)
Score
0 20
2 12
Irmsd (Å)
Score
0 20
−250 1840
2ct8 (ES = 3.09)
Irmsd (Å)
Score
0 20
−295 −235
Irmsd (Å)
Score
0 20
−440 2770
2czj (ES = 3.51)
Irmsd (Å)
Score
0 20
0
9
Irmsd (Å)
Score
0 20
−20 4190
2d6f (ES = 2.75)
Irmsd (Å)
Score
0 20
6 17
Irmsd (Å)
Score
0 20
−290 3700
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1292der (ES = 4.52)
Irmsd (Å)
Score
0 20
−23 −13
Irmsd (Å)
Score
0 20
−250 3190
2du3 (ES = 2.11)
Irmsd (Å)
Score
0 20
−52 −42
Irmsd (Å)
Score
0 20
−850 4130
2e9t (ES = 7.7)
Irmsd (Å)
Score
0 20
−31 −15
Irmsd (Å)
Score
0 20
−430 4360
2f8k (ES = 1.47)
Irmsd (Å)
Score
0 20
−7 −2
Irmsd (Å)
Score
0 20
−110 4840
2f8s (ES = 2.19)
Irmsd (Å)
Score
0 20
−13 −5
Irmsd (Å)
Score
0 20
−530 1560
2fk6 (ES = 2.93)
Irmsd (Å)
Score
0 20
−26 −16
Irmsd (Å)
Score
0 20
−270 2750
2fmt (ES = 5.99)
Irmsd (Å)
Score
0 20
−12
2
Irmsd (Å)
Score
0 20
−290 3400
2gic (ES = 3.06)
Irmsd (Å)
Score
0 20
7 12
Irmsd (Å)
Score
0 20
−260 2830
2gje (ES = 2.6)
Irmsd (Å)
Score
0 20
−3
7
Irmsd (Å)
Score
0 20
−150 5750
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1302gjw (ES = 4.25)
Irmsd (Å)
Score
0 20
−7
4
Irmsd (Å)
Score
0 20
−470 5040
2gtt (ES = 3.38)
Irmsd (Å)
Score
0 20
19 26
Irmsd (Å)
Score
0 20
−210 5000
2gxb (ES = 1.87)
Irmsd (Å)
Score
0 20
−60 −23
Irmsd (Å)
Score
0 20
−70 3040
2hw8 (ES = 3.72)
Irmsd (Å)
Score
0 20
−45 −27
Irmsd (Å)
Score
0 20
−240 4120
2i82 (ES = 7.14)
Irmsd (Å)
Score
0 20
−44 −26
Irmsd (Å)
Score
0 20
−210 5770
2iy5 (ES = 6.69)
Irmsd (Å)
Score
0 20
22 35
Irmsd (Å)
Score
0 20
−810 5720
2jlv (ES = 0.74)
Irmsd (Å)
Score
0 20
−142 −108
Irmsd (Å)
Score
0 20
−210 5420
2nqp (ES = 3.02)
Irmsd (Å)
Score
0 20
−28 −15
Irmsd (Å)
Score
0 20
−510 4170
2nug (ES = 6.56)
Irmsd (Å)
Score
0 20
−67 −42
Irmsd (Å)
Score
0 20
−550 3410
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1312ozb (ES = 6.82)
Irmsd (Å)
Score
0 20
−4 12
Irmsd (Å)
Score
0 20
−360 2950
2pjp (ES = 1.75)
Irmsd (Å)
Score
0 20
−16 −8
Irmsd (Å)
Score
0 20
−140 4450
2po1 (ES = 1.35)
Irmsd (Å)
Score
0 20
−38 −28
Irmsd (Å)
Score
0 20
−510 4400
2qux (ES = 3.18)
Irmsd (Å)
Score
0 20
−16 −7
Irmsd (Å)
Score
0 20
−240 4040
2r7r (ES = 4.54)
Irmsd (Å)
Score
0 20
−15 −6
Irmsd (Å)
Score
0 20
−900 2450
2r8s (ES = 1.96)
Irmsd (Å)
Score
0 20
−369 −332
Irmsd (Å)
Score
0 20
−590 2480
2vnu (ES = 2.2)
Irmsd (Å)
Score
0 20
−63 −34
Irmsd (Å)
Score
0 20
−650 6230
2voo (ES = 1.69)
Irmsd (Å)
Score
0 20
−9 −5
Irmsd (Å)
Score
0 20
−180 2510
2w2h (ES = 3.96)
Irmsd (Å)
Score
0 20
101 109
Irmsd (Å)
Score
0 20
300 6590
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1322wj8 (ES = 6.11)
Irmsd (Å)
Score
0 20
16 24
Irmsd (Å)
Score
0 20
−340 2710
2z2q (ES = 2.64)
Irmsd (Å)
Score
0 20
49 56
Irmsd (Å)
Score
0 20
−810 2550
2zi0 (ES = 0.48)
Irmsd (Å)
Score
0 20
−17 −7
Irmsd (Å)
Score
0 20
−100 4820
2zko (ES = 4.04)
Irmsd (Å)
Score
0 20
−29 −14
Irmsd (Å)
Score
0 20
−220 3780
2zni (ES = 6.44)
Irmsd (Å)
Score
0 20
41 57
Irmsd (Å)
Score
0 20
−450 4090
2zue (ES = 4.53)
Irmsd (Å)
Score
0 20
−216 −171
Irmsd (Å)
Score
0 20
−710 4050
2zzm (ES = 8.06)
Irmsd (Å)
Score
0 20
−18 1
Irmsd (Å)
Score
0 20
−260 4930
3a6p (ES = 7.17)
Irmsd (Å)
Score
0 20
2 31
Irmsd (Å)
Score
0 20
−1120 3810
3bso (ES = 5.84)
Irmsd (Å)
Score
0 20
−31 −15
Irmsd (Å)
Score
0 20
−490 4210
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1333bt7 (ES = 4.98)
Irmsd (Å)
Score
0 20
−16 −7
Irmsd (Å)
Score
0 20
−280 2520
3ciy (ES = 2.79)
Irmsd (Å)
Score
0 20
6 21
Irmsd (Å)
Score
0 20
−440 4200
3d2s (ES = 0.79)
Irmsd (Å)
Score
0 20
−27 −14
Irmsd (Å)
Score
0 20
−110 2750
3dd2 (ES = 2)
Irmsd (Å)
Score
0 20
−35 −23
Irmsd (Å)
Score
0 20
−320 5130
3egz (ES = 3.05)
Irmsd (Å)
Score
0 20
−17 −6
Irmsd (Å)
Score
0 20
−120 4940
3eph (ES = 8.81)
Irmsd (Å)
Score
0 20
−17 −4
Irmsd (Å)
Score
0 20
−380 4410
3eqt (ES = 7.19)
Irmsd (Å)
Score
0 20
−16 −1
Irmsd (Å)
Score
0 20
−250 3430
3ex7 (ES = 4.06)
Irmsd (Å)
Score
0 20
−40 −29
Irmsd (Å)
Score
0 20
−610 2100
3fht (ES = 3.66)
Irmsd (Å)
Score
0 20
−24 −17
Irmsd (Å)
Score
0 20
−370 1790
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1343foz (ES = 8)
Irmsd (Å)
Score
0 20
−28 −15
Irmsd (Å)
Score
0 20
−360 4800
3gib (ES = 1.8)
Irmsd (Å)
Score
0 20
−3 1
Irmsd (Å)
Score
0 20
−170 4470
3hax (ES = 6.51)
Irmsd (Å)
Score
0 20
−59 −37
Irmsd (Å)
Score
0 20
−430 4460
3hl2 (ES = 3.66)
Irmsd (Å)
Score
0 20
−28 −20
Irmsd (Å)
Score
0 20
−790 1710
3htx (ES = 8.04)
Irmsd (Å)
Score
0 20
15 30
Irmsd (Å)
Score
0 20
−500 5330
3i5x (ES = 3.55)
Irmsd (Å)
Score
0 20
−29 −24
Irmsd (Å)
Score
0 20
−550 2350
3iab (ES = 5.28)
Irmsd (Å)
Score
0 20
−18 −10
Irmsd (Å)
Score
0 20
−250 5270
3icq (ES = 2.83)
Irmsd (Å)
Score
0 20
−197 −141
Irmsd (Å)
Score
0 20
−360 4850
3iev (ES = 5.64)
Irmsd (Å)
Score
0 20
−27 −19
Irmsd (Å)
Score
0 20
−290 2780
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1353k62 (ES = 3.4)
Irmsd (Å)
Score
0 20
−23 −13
Irmsd (Å)
Score
0 20
−430 3960
3l25 (ES = 7.02)
Irmsd (Å)
Score
0 20
−174 −127
Irmsd (Å)
Score
0 20
−530 3980
3snp (ES = 6.63)
Irmsd (Å)
Score
0 20
−54 −42
Irmsd (Å)
Score
0 20
−810 2450
FIGURE S1 (cont.) – Diagramme par complexe de l’energie en fonction du I ´ RMSD (EvsRMS).
Chaque candidat est positionne (par une croix) sur le diagramme selon son ´
energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es comme ´
presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est celle ´
apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1361b7f (ES = 5.15)
Irmsd (Å)
Score
0 20
−115 −98
Irmsd (Å)
Score
0 20
−90 3490
1c9s (ES = 1.19)
Irmsd (Å)
Score
0 20
−50 −34
Irmsd (Å)
Score
0 20
−60 3700
1dk1 (ES = 2.58)
Irmsd (Å)
Score
0 20
−145 −122
Irmsd (Å)
Score
0 20
−90 3140
1e7k (ES = 1.33)
Irmsd (Å)
Score
0 20
−126 −97
Irmsd (Å)
Score
0 20
−90 4790
1ec6 (ES = 0.88)
Irmsd (Å)
Score
0 20
−90 −73
Irmsd (Å)
Score
0 20
−80 3420
1efw (ES = 2.9)
Irmsd (Å)
Score
0 20
−492 −468
Irmsd (Å)
Score
0 20
−400 3340
1ekz (ES = 0.81)
Irmsd (Å)
Score
0 20
−98 −75
Irmsd (Å)
Score
0 20
−60 3960
1g1x (ES = 0.54)
Irmsd (Å)
Score
0 20
−166 −148
Irmsd (Å)
Score
0 20
−110 3170
1hc8 (ES = 3.63)
Irmsd (Å)
Score
0 20
−123 −105
Irmsd (Å)
Score
0 20
−110 1860
FIGURE S2 – Diagramme par complexe des Benchmarks I et II de l’energie en fonction ´
du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le diagramme ´
selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie sont indiqu ´ es´
comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de score utilisee est ´
celle apprise par ROGER en leave-”one-pdb”-out pour les grands diagrammes et celle
disponible par defaut dans RosettaDock dans les encarts en bas ´ a droite de chaque `
diagramme (candidats indiques en gris). ´
1371hvu (ES = 1.93)
Irmsd (Å)
Score
0 20
−667 −636
Irmsd (Å)
Score
0 20
1210 6690
1jbr (ES = 0.02)
Irmsd (Å)
Score
0 20
−135 −112
Irmsd (Å)
Score
0 20
−140 4470
1kog (ES = 1.14)
Irmsd (Å)
Score
0 20
−365 −338
Irmsd (Å)
Score
0 20
−300 4420
1kq2 (ES = 5.4)
Irmsd (Å)
Score
0 20
−255 −236
Irmsd (Å)
Score
0 20
−270 4150
1m5o (ES = 1.33)
Irmsd (Å)
Score
0 20
−191 −170
Irmsd (Å)
Score
0 20
−200 3750
1m8w (ES = 1.27)
Irmsd (Å)
Score
0 20
−326 −307
Irmsd (Å)
Score
0 20
−360 3870
1mfq (ES = 2.35)
Irmsd (Å)
Score
0 20
−231 −204
Irmsd (Å)
Score
0 20
−180 4830
1mms (ES = 3.31)
Irmsd (Å)
Score
0 20
−169 −146
Irmsd (Å)
Score
0 20
−130 2850
1msw (ES = 8.84)
Irmsd (Å)
Score
0 20
−692 −656
Irmsd (Å)
Score
0 20
−500 5040
FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´
fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´
diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´
sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´
score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands
diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´
a droite de chaque diagramme (candidats indiqu ` es en gris). ´
1381ob2 (ES = 3.38)
Irmsd (Å)
Score
0 20
−320 −293
Irmsd (Å)
Score
0 20
−270 3590
1u63 (ES = 1.13)
Irmsd (Å)
Score
0 20
−191 −162
Irmsd (Å)
Score
0 20
−50 4650
1t4l (ES = 1.64)
Irmsd (Å)
Score
0 20
−27041 −25961
Irmsd (Å)
Score
0 20
9803120 9970860
1ttt (ES = 3.25)
Irmsd (Å)
Score
0 20
−374 −348
Irmsd (Å)
Score
0 20
−260 3610
1wne (ES = 4.41)
Irmsd (Å)
Score
0 20
−346 −324
Irmsd (Å)
Score
0 20
−410 4170
1zbi (ES = 2.95)
Irmsd (Å)
Score
0 20
−150 −124
Irmsd (Å)
Score
0 20
−130 3840
2ad9 (ES = 2.53)
Irmsd (Å)
Score
0 20
−64 −54
Irmsd (Å)
Score
0 20
−70 2080
2adb (ES = 3.37)
Irmsd (Å)
Score
0 20
−86 −76
Irmsd (Å)
Score
0 20
−100 2410
2adc (ES = 2.61)
Irmsd (Å)
Score
0 20
−148 −136
Irmsd (Å)
Score
0 20
−180 2440
FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´
fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´
diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´
sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´
score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands
diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´
a droite de chaque diagramme (candidats indiqu ` es en gris). ´
1392b6g (ES = 0.02)
Irmsd (Å)
Score
0 20
−95 −74
Irmsd (Å)
Score
0 20
−80 3630
2c0b (ES = 2.98)
Irmsd (Å)
Score
0 20
−327 −310
Irmsd (Å)
Score
0 20
−50 3410
2dra (ES = 6.16)
Irmsd (Å)
Score
0 20
−392 −369
Irmsd (Å)
Score
0 20
−440 4260
2err (ES = 2.48)
Irmsd (Å)
Score
0 20
−80 −62
Irmsd (Å)
Score
0 20
−90 3730
2ez6 (ES = 2.92)
Irmsd (Å)
Score
0 20
−278 −251
Irmsd (Å)
Score
0 20
−310 3850
2hgh (ES = 1.03)
Irmsd (Å)
Score
0 20
−138 −110
Irmsd (Å)
Score
0 20
−130 6030
2i91 (ES = 7.35)
Irmsd (Å)
Score
0 20
−444 −421
Irmsd (Å)
Score
0 20
−390 3710
2ix1 (ES = 2.14)
Irmsd (Å)
Score
0 20
−482 −451
Irmsd (Å)
Score
0 20
−580 6730
2py9 (ES = 2.95)
Irmsd (Å)
Score
0 20
−110 −101
Irmsd (Å)
Score
0 20
−110 1660
FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´
fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´
diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´
sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´
score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands
diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´
a droite de chaque diagramme (candidats indiqu ` es en gris). ´
1403bo2 (ES = 2.73)
Irmsd (Å)
Score
0 20
−295 −273
Irmsd (Å)
Score
0 20
−140 4850
3bsb (ES = 1.55)
Irmsd (Å)
Score
0 20
−306 −283
Irmsd (Å)
Score
0 20
−290 4870
3bsx (ES = 1.2)
Irmsd (Å)
Score
0 20
−315 −294
Irmsd (Å)
Score
0 20
−340 4660
3bx2 (ES = 3.09)
Irmsd (Å)
Score
0 20
−315 −296
Irmsd (Å)
Score
0 20
−310 4500
FIGURE S2 (cont.) – Diagramme par complexe des Benchmarks I et II de l’energie en ´
fonction du IRMSD (EvsRMS). Chaque candidat est positionne (par une croix) sur le ´
diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats en energie ´
sont indiques comme presque-natifs (en bleu) ou leurres (en rouge). La fonction de ´
score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les grands
diagrammes et celle disponible par defaut dans RosettaDock dans les encarts en bas ´
a droite de chaque diagramme (candidats indiqu ` es en gris). ´
1411m5o (ES = 4.75)
Irmsd (Å)
Score
0 20
−194 −174
Irmsd (Å)
Score
0 20
−200 3830
1qtq (ES = 6.09)
Irmsd (Å)
Score
0 20
−437 −403
Irmsd (Å)
Score
0 20
−380 5500
1wpu (ES = 3.15)
Irmsd (Å)
Score
0 20
−116 −103
Irmsd (Å)
Score
0 20
−150 2460
1yvp (ES = 0.2)
Irmsd (Å)
Score
0 20
−484 −459
Irmsd (Å)
Score
0 20
−540 3980
1zbh (ES = 0)
Irmsd (Å)
Score
0 20
−188 −165
Irmsd (Å)
Score
0 20
−200 3840
2ad9 (ES = 6.06)
Irmsd (Å)
Score
0 20
−50 −42
Irmsd (Å)
Score
0 20
−20 2170
FIGURE S3 – Diagramme par complexe des 6 complexes avec proteine non li ´ ee de ´
l’energie en fonction du I ´ RMSD (EvsRMS). Chaque candidat est positionne (par une ´
croix) sur le diagramme selon son energie et son I ´ RMSD. Les 10 premiers candidats
en energie sont indiqu ´ es comme presque-natifs (en bleu) ou leurres (en rouge). La ´
fonction de score utilisee est celle apprise par R ´ OGER en leave-”one-pdb”-out pour les
grands diagrammes et celle disponible par defaut dans RosettaDock dans les encarts ´
en bas a droite de chaque diagramme (candidats indiqu ` es en gris). ´
142Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
1asy 0.72 0.75 1.00 0.99 0.84 0.86 0.72 0.76 1.00 0.99 0.00 0.16
1av6 0.88 0.88 1.00 1.00 0.94 0.94 0.88 0.88 1.00 1.00 0.00 0.01
1b23 0.50 0.66 1.00 0.90 0.67 0.76 0.50 0.72 1.00 0.90 0.00 0.54
1c0a 0.26 0.71 1.00 0.78 0.41 0.74 0.26 0.86 1.00 0.78 0.00 0.89
1ddl 0.28 0.34 1.00 0.81 0.44 0.48 0.28 0.51 1.00 0.81 0.00 0.39
1dfu 0.92 0.96 1.00 0.99 0.96 0.97 0.92 0.95 1.00 0.99 0.00 0.44
1di2 0.76 0.84 1.00 0.94 0.86 0.88 0.76 0.82 1.00 0.94 0.00 0.45
1e8o 0.34 0.35 1.00 0.95 0.50 0.51 0.34 0.38 1.00 0.95 0.00 0.09
1f7u 0.41 0.76 1.00 0.85 0.58 0.80 0.41 0.83 1.00 0.85 0.00 0.81
1feu 0.91 0.92 1.00 0.99 0.95 0.95 0.91 0.91 1.00 0.99 0.00 0.10
1ffy 0.32 0.58 0.98 0.77 0.48 0.66 0.33 0.76 0.98 0.77 0.04 0.75
1fxl 0.51 0.86 1.00 0.87 0.68 0.87 0.51 0.86 1.00 0.87 0.00 0.86
1gtf 0.96 0.96 1.00 1.00 0.98 0.98 0.96 0.96 1.00 1.00 0.00 0.02
1h3e 0.59 0.69 1.00 0.94 0.74 0.79 0.59 0.71 1.00 0.94 0.00 0.38
1h4s 0.12 0.19 1.00 0.52 0.21 0.27 0.12 0.67 1.00 0.52 0.00 0.69
1hq1 0.28 0.28 0.89 0.97 0.42 0.43 0.36 0.33 0.89 0.97 0.17 0.10
1j1u 0.83 0.83 1.00 1.00 0.91 0.91 0.83 0.83 1.00 1.00 0.00 0.00
1j2b 0.13 0.64 1.00 0.81 0.23 0.71 0.13 0.91 1.00 0.81 0.00 0.93
1jbs 0.25 0.31 1.00 0.79 0.40 0.45 0.25 0.50 1.00 0.79 0.00 0.40
1jid 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.08
1k8w 0.39 0.72 1.00 0.86 0.56 0.78 0.39 0.81 1.00 0.86 0.00 0.79
1knz 0.31 0.84 1.00 0.89 0.47 0.86 0.31 0.91 1.00 0.89 0.00 0.92
1lng 0.73 0.76 1.00 0.98 0.84 0.86 0.73 0.76 1.00 0.98 0.00 0.16
1m8v 0.70 0.70 1.00 1.00 0.82 0.83 0.70 0.70 1.00 1.00 0.00 0.01
1m8x 0.84 0.84 1.00 1.00 0.91 0.91 0.84 0.84 1.00 1.00 0.00 0.01
1mzp 0.16 0.32 1.00 0.52 0.27 0.39 0.16 0.75 1.00 0.52 0.00 0.79
1n35 0.07 0.57 1.00 0.83 0.14 0.68 0.08 0.94 1.00 0.83 0.00 0.95
1n78 0.44 0.83 1.00 0.88 0.61 0.85 0.44 0.87 1.00 0.88 0.00 0.86
1ooa 0.87 0.88 1.00 1.00 0.93 0.94 0.87 0.88 1.00 1.00 0.00 0.14
1pgl 0.93 0.94 1.00 1.00 0.97 0.97 0.93 0.94 1.00 1.00 0.00 0.10
1q2r 0.46 0.73 1.00 0.92 0.63 0.82 0.46 0.81 1.00 0.92 0.00 0.71
1qf6 0.12 0.67 1.00 0.80 0.21 0.73 0.12 0.93 1.00 0.80 0.00 0.95
1qtq 0.30 0.72 1.00 0.77 0.46 0.74 0.30 0.84 1.00 0.77 0.00 0.87
1r3e 0.34 0.60 1.00 0.74 0.50 0.66 0.34 0.75 1.00 0.74 0.00 0.76
1r9f 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.04
1sds 0.43 0.42 0.96 1.00 0.59 0.59 0.44 0.43 0.96 1.00 0.07 0.02
1ser 0.30 0.66 1.00 0.87 0.46 0.75 0.30 0.83 1.00 0.87 0.00 0.81
1si3 0.77 0.95 1.00 0.95 0.87 0.95 0.77 0.92 1.00 0.95 0.00 0.84
1t0k 0.38 0.37 0.98 1.00 0.54 0.54 0.39 0.37 0.98 1.00 0.03 0.00
1tfw 0.02 0.71 1.00 0.96 0.04 0.82 0.02 0.99 1.00 0.96 0.00 0.99
1u0b 0.26 0.58 1.00 0.77 0.41 0.66 0.26 0.79 1.00 0.77 0.00 0.80
1un6 0.40 0.67 1.00 0.73 0.57 0.70 0.40 0.75 1.00 0.73 0.00 0.76
1uvj 0.21 0.72 1.00 0.92 0.34 0.81 0.21 0.91 1.00 0.92 0.00 0.91
1vfg 0.93 0.93 1.00 1.00 0.96 0.96 0.93 0.93 1.00 1.00 0.00 0.00
1wpu 0.87 0.88 1.00 1.00 0.93 0.93 0.87 0.88 1.00 1.00 0.00 0.05
1wsu 0.48 0.51 1.00 0.95 0.65 0.67 0.48 0.54 1.00 0.95 0.00 0.15
1wz2 0.25 0.51 1.00 0.78 0.39 0.62 0.25 0.76 1.00 0.78 0.00 0.76
Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du meilleur Fscore :
avec les mesures d’evaluation globales pour chacun des complexes pour la fonction ´
de score par defaut de RosettaDock (ROS) et la fonction de score atomique apprise ´
avec ROGER (POS).
143Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
1yvp 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.01
1zbh 0.38 0.47 1.00 0.90 0.55 0.61 0.38 0.57 1.00 0.90 0.00 0.37
2a8v 0.48 0.54 1.00 0.87 0.65 0.67 0.48 0.59 1.00 0.87 0.00 0.33
2anr 0.29 0.36 1.00 0.76 0.45 0.49 0.29 0.54 1.00 0.76 0.00 0.44
2asb 0.55 0.68 1.00 0.97 0.71 0.80 0.55 0.73 1.00 0.97 0.00 0.45
2az0 0.14 0.32 0.99 0.58 0.24 0.41 0.14 0.77 0.99 0.58 0.01 0.81
2azx 0.72 0.77 1.00 0.97 0.84 0.86 0.72 0.77 1.00 0.97 0.00 0.27
2b3j 0.72 0.88 1.00 0.94 0.84 0.91 0.72 0.87 1.00 0.94 0.00 0.68
2bgg 0.54 0.81 1.00 0.87 0.70 0.84 0.54 0.82 1.00 0.87 0.00 0.76
2bh2 0.23 0.76 1.00 0.70 0.38 0.73 0.23 0.88 1.00 0.70 0.00 0.93
2bte 0.73 0.80 1.00 0.93 0.84 0.86 0.73 0.78 1.00 0.93 0.00 0.39
2bu1 0.39 0.43 1.00 0.91 0.56 0.59 0.39 0.50 1.00 0.91 0.00 0.24
2bx2 0.35 0.51 0.99 0.89 0.51 0.65 0.35 0.67 0.99 0.89 0.01 0.56
2ct8 0.58 0.72 1.00 0.90 0.74 0.80 0.58 0.74 1.00 0.90 0.00 0.53
2czj 0.91 0.91 1.00 1.00 0.95 0.96 0.91 0.91 1.00 1.00 0.00 0.01
2d6f 0.85 0.85 1.00 1.00 0.92 0.92 0.85 0.85 1.00 1.00 0.01 0.00
2der 0.35 0.83 1.00 0.79 0.52 0.81 0.35 0.87 1.00 0.79 0.00 0.91
2du3 0.92 0.92 1.00 1.00 0.96 0.96 0.92 0.92 1.00 1.00 0.00 0.01
2e9t 0.17 0.93 1.00 0.98 0.29 0.95 0.17 0.98 1.00 0.98 0.00 0.99
2f8k 0.50 0.50 1.00 0.99 0.67 0.67 0.50 0.51 1.00 0.99 0.00 0.02
2f8s 0.68 0.69 1.00 0.99 0.81 0.82 0.68 0.69 1.00 0.99 0.00 0.05
2fk6 0.82 0.83 1.00 0.99 0.90 0.90 0.82 0.83 1.00 0.99 0.00 0.09
2fmt 0.27 0.53 1.00 0.88 0.42 0.66 0.27 0.76 1.00 0.88 0.00 0.71
2gic 0.40 0.69 1.00 0.90 0.57 0.78 0.40 0.80 1.00 0.90 0.00 0.74
2gje 0.72 0.78 1.00 0.95 0.84 0.85 0.72 0.76 1.00 0.95 0.00 0.28
2gjw 0.78 0.85 1.00 0.97 0.88 0.91 0.78 0.84 1.00 0.97 0.00 0.41
2gtt 0.24 0.51 0.98 0.87 0.39 0.64 0.26 0.76 0.98 0.87 0.03 0.73
2gxb 0.47 0.49 1.00 0.93 0.64 0.64 0.47 0.52 1.00 0.93 0.00 0.15
2hw8 0.73 0.81 1.00 0.97 0.84 0.88 0.73 0.81 1.00 0.97 0.00 0.38
2i82 0.69 0.78 1.00 0.95 0.82 0.85 0.69 0.78 1.00 0.95 0.00 0.39
2iy5 0.09 0.47 1.00 0.83 0.17 0.60 0.10 0.90 1.00 0.83 0.01 0.91
2jlv 0.46 0.71 0.99 0.94 0.63 0.81 0.47 0.80 0.99 0.94 0.04 0.68
2nqp 0.27 0.35 1.00 0.82 0.42 0.49 0.27 0.54 1.00 0.82 0.01 0.44
2nug 0.06 1.00 0.58 1.00 0.11 1.00 0.66 1.00 0.58 1.00 0.66 1.00
2ozb 0.37 0.66 1.00 0.76 0.54 0.71 0.37 0.77 1.00 0.76 0.00 0.77
2pjp 0.30 0.39 1.00 0.83 0.46 0.53 0.30 0.56 1.00 0.83 0.00 0.45
2po1 0.92 0.91 1.00 1.00 0.96 0.96 0.92 0.91 1.00 1.00 0.03 0.00
2qux 0.19 0.28 1.00 0.77 0.33 0.41 0.20 0.57 1.00 0.77 0.01 0.52
2r7r 0.42 0.83 1.00 0.94 0.59 0.88 0.42 0.89 1.00 0.94 0.00 0.86
2r8s 0.73 0.73 1.00 1.00 0.84 0.84 0.73 0.73 1.00 1.00 0.00 0.04
2vnu 0.25 0.69 1.00 0.96 0.40 0.80 0.25 0.88 1.00 0.96 0.00 0.86
2voo 0.76 0.76 1.00 1.00 0.86 0.86 0.76 0.76 1.00 1.00 0.00 0.00
2w2h 0.55 0.63 1.00 0.91 0.71 0.75 0.55 0.66 1.00 0.91 0.00 0.35
2wj8 0.24 0.82 1.00 0.93 0.39 0.88 0.24 0.94 1.00 0.93 0.00 0.94
2z2q 0.59 0.60 1.00 0.99 0.74 0.75 0.59 0.60 1.00 0.99 0.00 0.05
2zi0 0.79 0.89 1.00 0.98 0.88 0.93 0.79 0.89 1.00 0.98 0.00 0.55
2zko 0.17 0.24 0.52 0.62 0.26 0.34 0.61 0.68 0.52 0.62 0.62 0.69
Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du meilleur Fscore :
avec les mesures d’evaluation globales pour chacun des complexes pour la fonction ´
de score par defaut de RosettaDock (ROS) et la fonction de score atomique apprise ´
avec ROGER (POS).
144Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
2zni 0.27 0.52 1.00 0.71 0.42 0.60 0.27 0.75 1.00 0.71 0.00 0.76
2zue 0.49 0.77 1.00 0.88 0.66 0.82 0.49 0.81 1.00 0.88 0.00 0.74
2zzm 0.13 0.76 1.00 0.79 0.22 0.78 0.13 0.94 1.00 0.79 0.00 0.96
3a6p 0.61 0.88 0.56 0.90 0.58 0.89 0.84 0.96 0.56 0.90 0.91 0.97
3bso 0.25 0.77 0.99 0.94 0.40 0.85 0.27 0.92 0.99 0.94 0.04 0.91
3bt7 0.54 0.67 1.00 0.87 0.70 0.76 0.54 0.70 1.00 0.87 0.00 0.50
3ciy 0.56 0.58 1.00 0.98 0.72 0.73 0.56 0.58 1.00 0.98 0.00 0.07
3d2s 0.89 0.90 1.00 1.00 0.94 0.94 0.89 0.89 1.00 1.00 0.00 0.02
3dd2 0.25 0.30 1.00 0.79 0.40 0.43 0.25 0.48 1.00 0.79 0.00 0.38
3egz 0.52 0.82 1.00 0.91 0.69 0.87 0.52 0.85 1.00 0.91 0.00 0.79
3eph 0.10 0.93 1.00 0.95 0.18 0.94 0.10 0.99 1.00 0.95 0.00 0.99
3eqt 0.52 0.85 1.00 0.76 0.68 0.80 0.52 0.80 1.00 0.76 0.00 0.85
3ex7 0.75 0.87 1.00 0.96 0.86 0.91 0.75 0.86 1.00 0.96 0.00 0.59
3fht 0.83 0.92 1.00 0.95 0.90 0.93 0.83 0.89 1.00 0.95 0.00 0.59
3foz 0.13 0.68 1.00 0.92 0.24 0.78 0.13 0.93 1.00 0.92 0.00 0.93
3gib 0.23 0.40 1.00 0.64 0.38 0.49 0.23 0.69 1.00 0.64 0.00 0.71
3hax 0.10 0.76 1.00 0.60 0.19 0.67 0.10 0.94 1.00 0.60 0.00 0.98
3hl2 0.91 0.95 1.00 0.99 0.95 0.97 0.91 0.94 1.00 0.99 0.00 0.48
3htx 0.10 0.63 1.00 0.76 0.19 0.69 0.10 0.93 1.00 0.76 0.00 0.95
3i5x 0.68 0.79 1.00 0.96 0.81 0.87 0.68 0.80 1.00 0.96 0.00 0.47
3iab 0.48 0.74 1.00 0.85 0.65 0.79 0.48 0.78 1.00 0.85 0.00 0.73
3icq 0.51 0.67 1.00 0.89 0.68 0.76 0.51 0.72 1.00 0.89 0.00 0.53
3iev 0.79 0.79 1.00 1.00 0.88 0.88 0.79 0.79 1.00 1.00 0.00 0.01
3k62 0.85 0.85 1.00 1.00 0.92 0.92 0.85 0.85 1.00 1.00 0.00 0.03
3l25 0.12 0.92 1.00 0.96 0.22 0.94 0.12 0.98 1.00 0.96 0.00 0.99
3snp 0.32 0.63 1.00 0.75 0.48 0.68 0.32 0.78 1.00 0.75 0.00 0.79
TABLE S1 – Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du meilleur
Fscore : avec les mesures d’evaluation globales pour chacun des complexes pour la ´
fonction de score par defaut de RosettaDock (ROS) et la fonction de score atomique ´
apprise avec ROGER (POS).
145Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
1asy 0.70 0.90 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00
1av6 0.50 1.00 0.00 0.00 0.00 0.00 0.12 0.12 0.00 0.00 1.00 1.00
1b23 0.40 1.00 0.00 0.00 0.00 0.00 0.50 0.50 0.00 0.00 1.00 1.00
1c0a 0.10 1.00 0.00 0.00 0.00 0.01 0.74 0.74 0.00 0.00 1.00 1.00
1ddl 0.20 0.40 0.00 0.00 0.00 0.00 0.72 0.72 0.00 0.00 1.00 1.00
1dfu 0.40 1.00 0.00 0.00 0.00 0.00 0.08 0.08 0.00 0.00 0.99 1.00
1di2 1.00 0.90 0.00 0.00 0.00 0.00 0.25 0.25 0.00 0.00 1.00 1.00
1e8o 0.60 0.40 0.00 0.00 0.00 0.00 0.66 0.66 0.00 0.00 1.00 1.00
1f7u 0.40 1.00 0.00 0.00 0.00 0.00 0.59 0.59 0.00 0.00 1.00 1.00
1feu 0.40 1.00 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 0.99 1.00
1ffy 0.00 0.80 0.00 0.00 0.00 0.01 0.69 0.69 0.00 0.00 1.00 1.00
1fxl 0.00 1.00 0.00 0.00 0.00 0.00 0.49 0.49 0.00 0.00 1.00 1.00
1gtf 1.00 1.00 0.00 0.00 0.00 0.00 0.04 0.04 0.00 0.00 1.00 1.00
1h3e 0.00 0.80 0.00 0.00 0.00 0.00 0.41 0.41 0.00 0.00 1.00 1.00
1h4s 0.10 0.50 0.00 0.00 0.00 0.01 0.88 0.88 0.00 0.00 1.00 1.00
1hq1 0.60 0.00 0.00 0.00 0.00 0.00 0.74 0.74 0.00 0.00 1.00 1.00
1j1u 1.00 1.00 0.00 0.00 0.00 0.00 0.17 0.17 0.00 0.00 1.00 1.00
1j2b 0.00 0.90 0.00 0.01 0.00 0.01 0.87 0.87 0.00 0.01 1.00 1.00
1jbs 0.00 0.20 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00
1jid 0.20 1.00 0.00 0.00 0.00 0.00 0.06 0.07 0.00 0.00 0.99 1.00
1k8w 0.10 1.00 0.00 0.00 0.00 0.01 0.61 0.61 0.00 0.00 1.00 1.00
1knz 0.00 0.50 0.00 0.00 0.00 0.00 0.69 0.69 0.00 0.00 1.00 1.00
1lng 0.60 0.90 0.00 0.00 0.00 0.00 0.27 0.27 0.00 0.00 1.00 1.00
1m8v 1.00 0.90 0.00 0.00 0.00 0.00 0.30 0.30 0.00 0.00 1.00 1.00
1m8x 0.70 1.00 0.00 0.00 0.00 0.00 0.16 0.16 0.00 0.00 1.00 1.00
1mzp 0.00 0.60 0.00 0.00 0.00 0.01 0.84 0.84 0.00 0.00 1.00 1.00
1n35 0.00 0.00 0.00 0.00 0.00 0.00 0.93 0.93 0.00 0.00 1.00 1.00
1n78 0.00 1.00 0.00 0.00 0.00 0.00 0.56 0.56 0.00 0.00 1.00 1.00
1ooa 0.60 0.90 0.00 0.00 0.00 0.00 0.13 0.13 0.00 0.00 1.00 1.00
1pgl 1.00 1.00 0.00 0.00 0.00 0.00 0.07 0.07 0.00 0.00 1.00 1.00
1q2r 0.00 1.00 0.00 0.00 0.00 0.00 0.54 0.54 0.00 0.00 1.00 1.00
1qf6 0.00 1.00 0.00 0.01 0.00 0.02 0.88 0.89 0.00 0.01 1.00 1.00
1qtq 0.00 1.00 0.00 0.00 0.00 0.01 0.70 0.70 0.00 0.00 1.00 1.00
1r3e 0.00 0.90 0.00 0.00 0.00 0.01 0.66 0.67 0.00 0.00 1.00 1.00
1r9f 1.00 1.00 0.00 0.00 0.00 0.00 0.07 0.07 0.00 0.00 1.00 1.00
1sds 0.50 0.40 0.00 0.00 0.00 0.00 0.58 0.58 0.00 0.00 1.00 1.00
1ser 0.00 0.60 0.00 0.00 0.00 0.00 0.70 0.70 0.00 0.00 1.00 1.00
1si3 0.00 1.00 0.00 0.00 0.00 0.00 0.23 0.23 0.00 0.00 1.00 1.00
1t0k 0.80 0.00 0.00 0.00 0.00 0.00 0.63 0.63 0.00 0.00 1.00 1.00
1tfw 0.00 0.40 0.00 0.02 0.00 0.03 0.98 0.98 0.00 0.02 1.00 1.00
1u0b 0.00 1.00 0.00 0.00 0.00 0.01 0.74 0.74 0.00 0.00 1.00 1.00
1un6 0.00 0.90 0.00 0.00 0.00 0.00 0.60 0.61 0.00 0.00 1.00 1.00
1uvj 0.00 0.40 0.00 0.00 0.00 0.00 0.79 0.79 0.00 0.00 1.00 1.00
1vfg 0.90 0.90 0.00 0.00 0.00 0.00 0.07 0.07 0.00 0.00 1.00 1.00
1wpu 1.00 1.00 0.00 0.00 0.00 0.00 0.13 0.13 0.00 0.00 1.00 1.00
1wsu 0.00 0.60 0.00 0.00 0.00 0.00 0.52 0.52 0.00 0.00 1.00 1.00
1wz2 0.00 0.90 0.00 0.00 0.00 0.01 0.75 0.76 0.00 0.00 1.00 1.00
Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du top10 des candidats
: avec les mesures d’evaluation globales pour chacun des complexes pour la ´
fonction de score par defaut de RosettaDock (ROS) et la fonction de score atomique ´
apprise avec ROGER (POS).
146Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
1yvp 0.80 1.00 0.00 0.00 0.00 0.00 0.06 0.06 0.00 0.00 1.00 1.00
1zbh 0.20 0.80 0.00 0.00 0.00 0.00 0.62 0.62 0.00 0.00 1.00 1.00
2a8v 0.20 0.50 0.00 0.00 0.00 0.00 0.52 0.52 0.00 0.00 1.00 1.00
2anr 0.70 0.10 0.00 0.00 0.00 0.00 0.71 0.71 0.00 0.00 1.00 1.00
2asb 0.20 1.00 0.00 0.00 0.00 0.00 0.45 0.45 0.00 0.00 1.00 1.00
2az0 0.00 0.40 0.00 0.00 0.00 0.01 0.86 0.86 0.00 0.00 1.00 1.00
2azx 0.00 0.90 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00
2b3j 0.00 1.00 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00
2bgg 0.00 1.00 0.00 0.00 0.00 0.00 0.46 0.46 0.00 0.00 1.00 1.00
2bh2 0.00 1.00 0.00 0.00 0.00 0.01 0.77 0.77 0.00 0.00 1.00 1.00
2bte 0.70 1.00 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00
2bu1 0.50 0.30 0.00 0.00 0.00 0.00 0.61 0.61 0.00 0.00 1.00 1.00
2bx2 0.00 0.80 0.00 0.00 0.00 0.00 0.65 0.66 0.00 0.00 1.00 1.00
2ct8 0.30 1.00 0.00 0.00 0.00 0.00 0.42 0.42 0.00 0.00 1.00 1.00
2czj 1.00 1.00 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 1.00 1.00
2d6f 1.00 0.50 0.00 0.00 0.00 0.00 0.16 0.15 0.00 0.00 1.00 1.00
2der 0.00 0.90 0.00 0.00 0.00 0.01 0.65 0.65 0.00 0.00 1.00 1.00
2du3 0.90 1.00 0.00 0.00 0.00 0.00 0.08 0.09 0.00 0.00 1.00 1.00
2e9t 0.00 0.90 0.00 0.01 0.00 0.01 0.83 0.83 0.00 0.01 1.00 1.00
2f8k 0.90 0.50 0.00 0.00 0.00 0.00 0.50 0.50 0.00 0.00 1.00 1.00
2f8s 0.60 1.00 0.00 0.00 0.00 0.00 0.32 0.32 0.00 0.00 1.00 1.00
2fk6 1.00 0.90 0.00 0.00 0.00 0.00 0.18 0.18 0.00 0.00 1.00 1.00
2fmt 0.00 1.00 0.00 0.00 0.00 0.01 0.73 0.73 0.00 0.00 1.00 1.00
2gic 0.00 0.60 0.00 0.00 0.00 0.00 0.60 0.60 0.00 0.00 1.00 1.00
2gje 0.60 1.00 0.00 0.00 0.00 0.00 0.28 0.28 0.00 0.00 1.00 1.00
2gjw 0.80 1.00 0.00 0.00 0.00 0.00 0.22 0.22 0.00 0.00 1.00 1.00
2gtt 0.00 0.40 0.00 0.00 0.00 0.00 0.76 0.76 0.00 0.00 1.00 1.00
2gxb 0.00 0.40 0.00 0.00 0.00 0.00 0.53 0.53 0.00 0.00 1.00 1.00
2hw8 0.90 0.90 0.00 0.00 0.00 0.00 0.27 0.27 0.00 0.00 1.00 1.00
2i82 0.60 1.00 0.00 0.00 0.00 0.00 0.31 0.31 0.00 0.00 1.00 1.00
2iy5 0.00 0.00 0.00 0.00 0.00 0.00 0.91 0.91 0.00 0.00 1.00 1.00
2jlv 0.00 0.10 0.00 0.00 0.00 0.00 0.55 0.55 0.00 0.00 1.00 1.00
2nqp 0.00 0.20 0.00 0.00 0.00 0.00 0.73 0.74 0.00 0.00 1.00 1.00
2nug 0.00 1.00 0.00 0.03 0.00 0.05 0.96 0.96 0.00 0.03 1.00 1.00
2ozb 0.10 1.00 0.00 0.00 0.00 0.01 0.63 0.63 0.00 0.00 1.00 1.00
2pjp 0.10 0.60 0.00 0.00 0.00 0.00 0.70 0.70 0.00 0.00 1.00 1.00
2po1 1.00 0.30 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 1.00 0.99
2qux 0.10 0.00 0.00 0.00 0.00 0.00 0.81 0.81 0.00 0.00 1.00 1.00
2r7r 0.00 0.70 0.00 0.00 0.00 0.00 0.58 0.58 0.00 0.00 1.00 1.00
2r8s 0.80 0.90 0.00 0.00 0.00 0.00 0.27 0.27 0.00 0.00 1.00 1.00
2vnu 0.00 0.20 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00
2voo 1.00 1.00 0.00 0.00 0.00 0.00 0.25 0.25 0.00 0.00 1.00 1.00
2w2h 0.20 1.00 0.00 0.00 0.00 0.00 0.45 0.45 0.00 0.00 1.00 1.00
2wj8 0.00 0.80 0.00 0.00 0.00 0.01 0.76 0.76 0.00 0.00 1.00 1.00
2z2q 0.30 0.60 0.00 0.00 0.00 0.00 0.41 0.41 0.00 0.00 1.00 1.00
2zi0 0.00 0.60 0.00 0.00 0.00 0.00 0.21 0.21 0.00 0.00 1.00 1.00
2zko 0.00 0.10 0.00 0.00 0.00 0.00 0.87 0.87 0.00 0.00 1.00 1.00
Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du top10 des candidats
: avec les mesures d’evaluation globales pour chacun des complexes pour la ´
fonction de score par defaut de RosettaDock (ROS) et la fonction de score atomique ´
apprise avec ROGER (POS).
147Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
2zni 0.00 1.00 0.00 0.00 0.00 0.01 0.73 0.73 0.00 0.00 1.00 1.00
2zue 0.00 1.00 0.00 0.00 0.00 0.00 0.51 0.51 0.00 0.00 1.00 1.00
2zzm 0.00 1.00 0.00 0.01 0.00 0.02 0.87 0.88 0.00 0.01 1.00 1.00
3a6p 0.00 0.70 0.00 0.00 0.00 0.01 0.80 0.80 0.00 0.00 1.00 1.00
3bso 0.00 0.00 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00
3bt7 0.10 1.00 0.00 0.00 0.00 0.00 0.46 0.46 0.00 0.00 1.00 1.00
3ciy 0.40 0.30 0.00 0.00 0.00 0.00 0.44 0.44 0.00 0.00 1.00 1.00
3d2s 0.60 1.00 0.00 0.00 0.00 0.00 0.11 0.11 0.00 0.00 1.00 1.00
3dd2 0.00 0.30 0.00 0.00 0.00 0.00 0.75 0.75 0.00 0.00 1.00 1.00
3egz 0.60 0.90 0.00 0.00 0.00 0.00 0.48 0.48 0.00 0.00 1.00 1.00
3eph 0.00 1.00 0.00 0.01 0.00 0.02 0.90 0.90 0.00 0.01 1.00 1.00
3eqt 0.20 1.00 0.00 0.00 0.00 0.00 0.48 0.48 0.00 0.00 1.00 1.00
3ex7 0.00 1.00 0.00 0.00 0.00 0.00 0.25 0.25 0.00 0.00 1.00 1.00
3fht 0.00 1.00 0.00 0.00 0.00 0.00 0.17 0.18 0.00 0.00 0.99 1.00
3foz 0.00 1.00 0.00 0.01 0.00 0.01 0.86 0.87 0.00 0.01 1.00 1.00
3gib 0.00 0.50 0.00 0.00 0.00 0.00 0.77 0.77 0.00 0.00 1.00 1.00
3hax 0.10 1.00 0.00 0.01 0.00 0.02 0.90 0.90 0.00 0.01 1.00 1.00
3hl2 0.00 1.00 0.00 0.00 0.00 0.00 0.09 0.09 0.00 0.00 0.99 1.00
3htx 0.00 0.90 0.00 0.01 0.00 0.02 0.89 0.90 0.00 0.01 1.00 1.00
3i5x 0.00 1.00 0.00 0.00 0.00 0.00 0.32 0.32 0.00 0.00 1.00 1.00
3iab 0.00 1.00 0.00 0.00 0.00 0.00 0.52 0.52 0.00 0.00 1.00 1.00
3icq 0.00 0.90 0.00 0.00 0.00 0.00 0.49 0.49 0.00 0.00 1.00 1.00
3iev 0.80 1.00 0.00 0.00 0.00 0.00 0.21 0.21 0.00 0.00 1.00 1.00
3k62 0.90 1.00 0.00 0.00 0.00 0.00 0.15 0.15 0.00 0.00 1.00 1.00
3l25 0.00 0.90 0.00 0.01 0.00 0.01 0.88 0.88 0.00 0.01 1.00 1.00
3snp 0.10 1.00 0.00 0.00 0.00 0.01 0.68 0.68 0.00 0.00 1.00 1.00
TABLE S2 – Resultats globaux des 120 complexes de la P ´ RIDB sous le seuil du top10
des candidats : avec les mesures d’evaluation globales pour chacun des complexes ´
pour la fonction de score par defaut de RosettaDock (ROS) et la fonction de score ´
atomique apprise avec ROGER (POS).
148Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
1b7f 0.36 0.75 1.00 0.73 0.53 0.74 0.36 0.82 1.00 0.73 0.00 0.87
1c9s 0.59 0.64 1.00 0.94 0.74 0.77 0.59 0.66 1.00 0.94 0.00 0.25
1dk1 0.77 0.81 1.00 0.97 0.87 0.88 0.77 0.80 1.00 0.97 0.00 0.25
1e7k 0.34 0.34 0.98 1.00 0.50 0.50 0.35 0.34 0.98 1.00 0.04 0.00
1ec6 0.18 0.22 0.99 0.81 0.30 0.34 0.20 0.46 0.99 0.81 0.03 0.39
1efw 0.64 0.73 1.00 0.91 0.78 0.81 0.64 0.73 1.00 0.91 0.00 0.41
1ekz 0.19 0.19 0.89 0.96 0.31 0.31 0.30 0.25 0.89 0.96 0.17 0.09
1g1x 0.88 0.88 1.00 1.00 0.93 0.93 0.88 0.88 1.00 1.00 0.00 0.00
1hc8 0.94 0.95 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.07
1hvu 0.44 0.50 0.99 0.90 0.61 0.65 0.45 0.57 0.99 0.90 0.03 0.32
1jbr 0.92 0.92 1.00 1.00 0.96 0.96 0.92 0.92 1.00 1.00 0.00 0.00
1kog 0.15 0.16 1.00 0.94 0.27 0.28 0.15 0.25 1.00 0.94 0.00 0.12
1kq2 0.26 0.42 1.00 0.65 0.41 0.51 0.26 0.67 1.00 0.65 0.00 0.68
1m5o 0.47 0.66 1.00 0.91 0.64 0.77 0.47 0.74 1.00 0.91 0.00 0.57
1m8w 0.83 0.84 1.00 1.00 0.91 0.91 0.83 0.84 1.00 1.00 0.00 0.02
1mfq 0.78 0.78 1.00 1.00 0.88 0.87 0.78 0.78 1.00 1.00 0.02 0.00
1mms 0.89 0.90 1.00 0.99 0.94 0.94 0.89 0.89 1.00 0.99 0.00 0.13
1msw 0.08 0.91 1.00 0.99 0.16 0.95 0.08 0.99 1.00 0.99 0.00 0.99
1ob2 0.46 0.67 1.00 0.83 0.63 0.74 0.46 0.73 1.00 0.83 0.00 0.65
1t4l 0.79 0.79 1.00 1.00 0.88 0.88 0.79 0.79 1.00 1.00 0.00 0.00
1ttt 0.47 0.59 1.00 0.89 0.64 0.71 0.47 0.65 1.00 0.89 0.00 0.44
1u63 0.83 0.86 1.00 0.97 0.91 0.91 0.83 0.84 1.00 0.97 0.00 0.22
1wne 0.22 0.92 1.00 0.99 0.36 0.95 0.22 0.98 1.00 0.99 0.00 0.98
1zbi 0.22 0.37 1.00 0.71 0.37 0.49 0.22 0.67 1.00 0.71 0.00 0.66
2ad9 0.92 0.92 1.00 1.00 0.96 0.96 0.92 0.92 1.00 1.00 0.00 0.01
2adb 0.92 0.95 1.00 0.97 0.96 0.96 0.92 0.93 1.00 0.97 0.00 0.48
2adc 0.69 0.85 1.00 0.85 0.82 0.85 0.69 0.79 1.00 0.85 0.00 0.67
2b6g 0.52 0.52 1.00 1.00 0.69 0.69 0.52 0.52 1.00 1.00 0.00 0.00
2c0b 0.39 0.67 1.00 0.82 0.57 0.73 0.39 0.77 1.00 0.82 0.00 0.73
2dra 0.14 0.63 1.00 0.67 0.25 0.65 0.14 0.90 1.00 0.67 0.00 0.93
2err 0.83 0.92 1.00 0.97 0.90 0.95 0.83 0.91 1.00 0.97 0.00 0.60
2ez6 0.52 0.53 1.00 0.98 0.69 0.69 0.53 0.54 1.00 0.98 0.01 0.06
2hgh 0.54 0.76 1.00 0.80 0.70 0.78 0.54 0.75 1.00 0.80 0.00 0.70
2i91 0.17 0.81 1.00 0.85 0.29 0.83 0.17 0.94 1.00 0.85 0.00 0.96
2ix1 0.18 0.66 1.00 0.91 0.30 0.76 0.18 0.90 1.00 0.91 0.00 0.89
2py9 0.80 0.88 1.00 0.98 0.89 0.92 0.80 0.87 1.00 0.98 0.00 0.44
3bo2 0.37 0.55 1.00 0.89 0.54 0.68 0.37 0.69 1.00 0.89 0.00 0.57
3bsb 0.83 0.84 1.00 1.00 0.91 0.91 0.83 0.84 1.00 1.00 0.00 0.02
3bsx 0.84 0.85 1.00 1.00 0.92 0.92 0.84 0.85 1.00 1.00 0.00 0.02
3bx2 0.86 0.87 1.00 0.99 0.92 0.93 0.86 0.86 1.00 0.99 0.00 0.07
TABLE S3 – Resultats globaux des ´ Benchmarks I et II : avec les mesures d’evaluation ´
globales pour chacun des complexes pour la fonction de score par defaut de Rosetta- ´
Dock (ROS) et la fonction de score atomique apprise avec ROGER (POS).
149Precision ´ Rappel Fscore Accuracy Sensibilite´ Specificit ´ e´
pdb ROS POS ROS POS ROS POS ROS POS ROS POS ROS POS
1m5o 0.48 0.66 1.00 0.81 0.65 0.73 0.48 0.71 1.00 0.81 0.00 0.62
1qtq 0.28 0.73 1.00 0.76 0.44 0.74 0.28 0.85 1.00 0.76 0.00 0.89
1wpu 0.87 0.88 1.00 1.00 0.93 0.93 0.87 0.88 1.00 1.00 0.00 0.05
1yvp 0.94 0.94 1.00 1.00 0.97 0.97 0.94 0.94 1.00 1.00 0.00 0.00
1zbh 0.98 0.99 1.00 1.00 0.99 0.99 0.98 0.99 1.00 1.00 0.00 0.21
2ad9 0.00 0.00 1.00 1.00 0.00 0.01 0.02 0.98 1.00 1.00 0.02 0.98
TABLE S4 – Resultats globaux des 6 complexes avec prot ´ eine non li ´ ee : avec les ´
mesures d’evaluation globales pour chacun des complexes pour la fonction de score ´
par defaut de RosettaDock (ROS) et la fonction de score atomique apprise avec ´
ROGER (POS).
150pdb ES Top10 Top100 # presque-natifs ROC-AUC
ROS POS ROS POS Attendu ROS POS ROS POS
1b7f 0.47 5.15 1 10 3.58 1 100 3579 0.32 0.89
1c9s 0.90 1.19 6 7 5.91 25 81 5905 0.37 0.69
1dk1 2.32 2.58 9 8 7.66 89 97 7660 0.61 0.82
1e7k 0.67 1.33 2 1 3.36 11 16 3359 0.50 0.53
1ec6 0.31 0.88 1 0 1.73 3 14 1730 0.44 0.60
1efw 0.41 2.90 0 10 6.37 0 96 6366 0.33 0.79
1ekz 0.95 0.81 4 1 1.77 18 20 1768 0.52 0.52
1g1x 3.32 0.54 2 6 8.76 85 82 8764 0.59 0.51
1hc8 1.56 3.63 10 10 9.43 94 100 9433 0.49 0.79
1hvu 0.77 1.93 2 2 4.37 42 48 4366 0.50 0.70
1jbr 3.56 0.02 9 9 9.23 71 86 9229 0.45 0.65
1kog 0.95 1.14 3 1 1.53 11 23 1532 0.49 0.54
1kq2 0.09 5.40 0 9 2.60 0 89 2602 0.31 0.74
1m5o 1.06 1.33 6 5 4.75 6 78 4748 0.24 0.83
1m8w 1.79 1.27 4 10 8.34 80 97 8343 0.37 0.74
1mfq 1.36 2.35 10 3 7.76 91 52 7757 0.62 0.59
1mms 2.52 3.31 10 9 8.86 85 96 8859 0.50 0.86
1msw 0.00 8.84 0 10 0.84 0 98 841 0.08 1.00
1ob2 0.78 3.38 7 10 4.63 12 97 4625 0.41 0.83
1t4l 0.56 1.64 10 10 7.85 98 95 7852 0.52 0.61
1ttt 0.76 3.25 6 10 4.69 11 97 4691 0.39 0.78
1u63 3.14 1.13 7 10 8.34 72 100 8338 0.44 0.86
1wne 0.01 4.41 0 7 2.21 0 96 2213 0.17 0.99
1zbi 0.37 2.95 0 8 2.23 0 69 2231 0.34 0.75
2ad9 1.99 2.53 10 10 9.18 84 100 9179 0.31 0.90
2adb 1.03 3.37 10 10 9.18 75 100 9180 0.25 0.89
2adc 3.38 2.61 3 10 6.94 40 100 6940 0.44 0.86
2b6g 1.73 0.02 9 6 5.23 93 62 5228 0.58 0.42
2c0b 0.00 2.98 0 8 3.94 0 91 3937 0.26 0.86
2dra 0.03 6.16 0 8 1.42 0 88 1419 0.32 0.91
2err 1.27 2.48 8 10 8.26 20 100 8263 0.15 0.92
2ez6 1.42 2.92 10 9 5.24 87 67 5235 0.58 0.62
2hgh 0.74 1.03 0 4 5.39 0 69 5387 0.25 0.82
2i91 0.47 7.35 0 10 1.73 0 95 1726 0.28 0.98
2ix1 0.02 2.14 0 4 1.80 0 55 1795 0.17 0.94
2py9 4.28 2.95 9 10 8.01 89 98 8014 0.50 0.83
3bo2 0.66 2.73 4 6 3.66 4 82 3663 0.31 0.80
3bsb 1.60 1.55 7 10 8.35 81 100 8348 0.36 0.80
3bsx 1.60 1.20 3 10 8.45 83 100 8448 0.32 0.82
3bx2 1.83 3.09 8 10 8.60 75 100 8595 0.33 0.84
TABLE S5 – Resultats pour les 40 complexes utilis ´ es des ´ Benchmarks I et II : score
d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de presquenatifs
attendus en moyenne par un tri aleatoire, nombre de presque-natifs dans le ´
top100, nombre de presque-natifs sur les 10 000 structures et aire sous la courbe ROC
(ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
151pdb ES Top10 Top100 # presque-natifs ROC-AUC
ROS POS ROS POS Attendu ROS POS ROS POS
1m5o 0.43 4.75 0 4 4.79 3 66 4790 0.25 0.79
1qtq 0.00 6.09 0 10 2.80 0 98 2798 0.24 0.91
1wpu 1.60 3.15 9 10 8.72 71 100 8723 0.47 0.70
1yvp 0.93 0.20 6 10 9.36 61 100 9362 0.29 0.81
1zbh 0.88 0.00 5 10 9.83 82 100 9834 0.12 0.96
2ad9 0.00 6.06 0 0 0.00 0 0 1 0.02 0.98
TABLE S6 – Resultats pour les 6 complexes dans le cas de la prot ´ eine non li ´ ee des ´
Benchmarks I et II : score d’enrichissement (ES), nombre de presque-natifs dans le
top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´
presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et
aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
152pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
1asy 2.35 0 0.008 0 8 0.59
1av6 2.43 5 0.654 19 654 0.71
1b23 1.67 0 0.024 1 24 0.72
1c0a 1.89 0 0.001 0 1 0.77
1ddl 1.21 0 0.327 1 327 0.61
1dfu 1.20 2 0.743 9 743 0.66
1di2 0.93 0 0.114 0 114 0.52
1e8o 1.43 0 0.743 10 743 0.60
1f7u 2.56 0 0.007 1 7 0.86
1feu 1.97 2 0.378 17 378 0.69
1ffy 2.30 0 0.008 2 8 0.88
1fxl 4.43 8 0.589 64 589 0.85
1gtf 1.55 10 6.307 99 6307 0.70
1h3e 1.98 0 0.024 1 24 0.75
1h4s 1.73 0 0.036 1 36 0.67
1hq1 1.27 0 0.684 9 684 0.60
1j1u 1.66 0 0.112 1 112 0.54
1j2b 2.15 0 0.001 0 1 0.72
1jbs 2.57 0 0.499 20 499 0.71
1jid 1.91 1 0.377 11 377 0.65
1k8w 3.16 2 0.151 16 151 0.84
1knz 3.26 10 1.136 90 1136 0.73
1lng 1.80 2 0.13 6 130 0.65
1m8v 1.70 10 6.192 92 6192 0.61
1m8x 1.91 4 0.899 25 899 0.67
1mzp 1.85 2 0.148 8 148 0.69
1n35 4.40 2 0.017 17 17 1.00
1n78 2.08 0 0.01 1 10 0.83
1ooa 2.92 0 0.497 21 497 0.76
1pgl 1.85 2 0.898 26 898 0.63
1q2r 1.62 0 0.043 0 43 0.51
1qf6 2.06 0 0.005 1 5 0.85
1qtq 2.05 0 0.007 3 7 0.93
1r3e 1.78 0 0.028 0 28 0.59
1r9f 1.77 0 0.2 2 200 0.71
1sds 1.47 2 2.19 36 2190 0.67
1ser 1.95 0 0.008 1 8 0.88
1si3 2.33 4 0.547 23 547 0.69
1t0k 1.08 0 0.382 1 382 0.56
1tfw 2.99 0 0.004 0 4 0.98
1u0b 2.24 1 0.014 3 14 0.83
1un6 3.44 1 0.129 20 129 0.85
1uvj 5.06 8 0.357 62 357 0.94
1vfg 2.02 1 0.248 7 248 0.68
1wpu 1.53 1 1.162 21 1162 0.65
1wsu 1.26 0 2.288 20 2288 0.59
1wz2 2.18 0 0 0 0 1.00
Resultats de la fonction de score gros-grain VOR pour les 120 complexes de la P ´ RIDB :
score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de
presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´
dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la
courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
153pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
1yvp 1.72 1 0.13 4 130 0.64
1zbh 2.07 4 0.967 30 967 0.62
2a8v 2.22 10 5.018 90 5018 0.67
2anr 1.52 3 0.929 22 929 0.59
2asb 2.80 3 0.186 9 186 0.80
2az0 2.83 1 0.2 3 200 0.69
2azx 2.00 0 0.011 0 11 0.70
2b3j 2.39 2 0.426 29 426 0.71
2bgg 2.13 2 0.131 8 131 0.63
2bh2 3.23 0 0.051 12 51 0.84
2bte 2.46 0 0.002 1 2 0.98
2bu1 1.88 2 1.291 22 1291 0.65
2bx2 1.74 3 0.31 9 310 0.62
2ct8 1.92 0 0.029 1 29 0.64
2czj 2.69 2 0.207 9 207 0.76
2d6f 1.58 0 0.087 2 87 0.55
2der 1.10 0 0.029 0 29 0.72
2du3 1.20 0 0.186 1 186 0.56
2e9t 2.75 1 0.06 16 60 0.80
2f8k 1.33 3 3.82 52 3820 0.53
2f8s 1.21 0 0.076 0 76 0.39
2fk6 2.18 0 0.092 5 92 0.70
2fmt 1.82 0 0.018 0 18 0.67
2gic 4.48 7 0.103 38 103 0.94
2gje 2.11 0 0.079 3 79 0.72
2gjw 1.98 0 0.078 3 78 0.70
2gtt 3.91 5 0.069 24 69 0.91
2gxb 1.99 7 3.404 65 3404 0.64
2hw8 2.10 1 0.149 13 149 0.75
2i82 2.80 2 0.159 19 159 0.83
2iy5 1.22 0 0.001 0 1 0.51
2jlv 4.63 8 0.416 59 416 0.90
2nqp 2.10 1 0.296 15 296 0.70
2nug 2.19 0 0.001 0 1 0.97
2ozb 2.20 2 0.078 4 78 0.74
2pjp 2.14 1 0.576 15 576 0.65
2po1 1.91 1 0.19 4 190 0.65
2qux 2.53 1 0.26 7 260 0.74
2r7r 3.19 3 0.074 25 74 0.95
2r8s 1.31 0 0.039 0 39 0.56
2vnu 5.79 8 0.123 38 123 0.98
2voo 4.88 10 3.261 97 3261 0.77
2w2h 1.30 0 0.018 0 18 0.46
2wj8 3.08 3 0.43 29 430 0.79
2z2q 1.73 3 0.863 20 863 0.57
2zi0 0.86 3 1.278 15 1278 0.49
2zko 3.61 1 0.181 11 181 0.80
Resultats de la fonction de score gros-grain VOR pour les 120 complexes de la P ´ RIDB :
score d’enrichissement (ES), nombre de presque-natifs dans le top10, nombre de
presque-natifs attendus en moyenne par un tri aleatoire, nombre de presque-natifs ´
dans le top100, nombre de presque-natifs sur les 10 000 structures et aire sous la
courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
154pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
2zni 1.91 1 0.017 2 17 0.83
2zue 2.77 0 0.004 0 4 0.95
2zzm 3.59 2 0.009 4 9 0.93
3a6p 2.19 0 0.001 1 1 0.99
3bso 2.74 2 0.038 12 38 0.85
3bt7 3.59 6 0.192 36 192 0.87
3ciy 1.43 0 0.01 2 10 0.79
3d2s 1.63 10 5.557 93 5557 0.62
3dd2 1.95 1 0.232 6 232 0.74
3egz 1.41 0 0.235 5 235 0.57
3eph 2.01 0 0.001 0 1 0.99
3eqt 3.87 2 0.405 24 405 0.80
3ex7 2.03 1 0.239 12 239 0.71
3fht 2.05 2 0.513 8 513 0.65
3foz 1.81 0 0.019 4 19 0.89
3gib 1.67 1 0.641 13 641 0.63
3hax 2.07 0 0.008 0 8 0.62
3hl2 2.07 0 0.015 1 15 0.67
3htx 1.59 0 0.014 0 14 0.65
3i5x 2.48 0 0.175 3 175 0.74
3iab 3.35 0 0.03 3 30 0.82
3icq 2.64 0 0.002 0 2 0.91
3iev 1.90 1 0.227 8 227 0.68
3k62 2.34 4 0.486 19 486 0.69
3l25 7.94 3 0.247 26 247 0.97
3snp 2.68 0 0.041 8 41 0.85
TABLE S7 – Resultats de la fonction de score gros-grain VOR pour les 120 com- ´
plexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le
top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´
presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et
aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
155pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
1asy 0.43 0 0.008 0 8 0.35
1av6 0.46 0 0.654 0 654 0.37
1b23 1.16 0 0.024 0 24 0.60
1c0a 0.79 0 0.001 0 1 0.04
1ddl 1.12 0 0.327 0 327 0.53
1dfu 0.31 1 0.743 2 743 0.31
1di2 0.82 0 0.114 1 114 0.39
1e8o 0.88 0 0.743 0 743 0.54
1f7u 0.38 0 0.007 0 7 0.16
1feu 0.23 0 0.378 1 378 0.38
1ffy 0.65 0 0.008 0 8 0.15
1fxl 0.46 0 0.589 2 589 0.38
1gtf 1.27 7 6.307 53 6307 0.48
1h3e 0.51 0 0.024 0 24 0.36
1h4s 0.73 0 0.036 0 36 0.34
1hq1 0.50 0 0.684 0 684 0.41
1j1u 0.65 0 0.112 0 112 0.43
1j2b 0.16 0 0.001 0 1 0.12
1jbs 0.92 0 0.499 2 499 0.56
1jid 0.38 0 0.377 0 377 0.32
1k8w 1.58 0 0.151 0 151 0.47
1knz 0.10 0 1.136 1 1136 0.26
1lng 0.32 0 0.13 0 130 0.34
1m8v 0.48 0 6.192 34 6192 0.44
1m8x 0.40 0 0.899 6 899 0.41
1mzp 0.60 0 0.148 0 148 0.40
1n35 0.12 0 0.017 0 17 0.01
1n78 0.46 0 0.01 0 10 0.13
1ooa 0.15 0 0.497 2 497 0.27
1pgl 0.35 0 0.898 0 898 0.30
1q2r 1.00 0 0.043 1 43 0.46
1qf6 0.81 0 0.005 0 5 0.18
1qtq 0.59 0 0.007 0 7 0.09
1r3e 0.73 0 0.028 0 28 0.39
1r9f 0.49 0 0.2 0 200 0.38
1sds 0.69 4 2.19 15 2190 0.52
1ser 0.33 0 0.008 0 8 0.12
1si3 0.18 0 0.547 0 547 0.25
1t0k 0.19 0 0.382 1 382 0.33
1tfw 0.27 0 0.004 0 4 0.13
1u0b 0.37 0 0.014 0 14 0.14
1un6 0.21 0 0.129 0 129 0.20
1uvj 0.02 0 0.357 0 357 0.09
1vfg 0.51 0 0.248 0 248 0.40
1wpu 0.62 0 1.162 5 1162 0.48
1wsu 0.71 0 2.288 7 2288 0.50
1wz2 0.29 0 0 0 0 1.00
Resultats de la fonction de score gros-grain avec poids positifs pour les 120 com- ´
plexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le
top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´
presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et
aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
156pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
1yvp 0.89 0 0.13 1 130 0.33
1zbh 0.23 0 0.967 0 967 0.29
2a8v 0.69 5 5.018 54 5018 0.46
2anr 0.35 0 0.929 1 929 0.38
2asb 0.32 0 0.186 0 186 0.27
2az0 0.64 0 0.2 0 200 0.32
2azx 0.76 0 0.011 0 11 0.33
2b3j 0.34 0 0.426 0 426 0.28
2bgg 0.52 0 0.131 0 131 0.50
2bh2 0.84 0 0.051 0 51 0.40
2bte 0.33 0 0.002 0 2 0.02
2bu1 0.35 1 1.291 4 1291 0.38
2bx2 0.90 0 0.31 0 310 0.35
2ct8 0.84 0 0.029 0 29 0.39
2czj 0.63 0 0.207 0 207 0.34
2d6f 0.53 0 0.087 0 87 0.49
2der 1.27 0 0.029 0 29 0.45
2du3 0.78 0 0.186 2 186 0.44
2e9t 0.40 0 0.06 0 60 0.27
2f8k 0.66 0 3.82 14 3820 0.47
2f8s 0.87 0 0.076 3 76 0.62
2fk6 0.48 0 0.092 0 92 0.34
2fmt 0.15 0 0.018 0 18 0.25
2gic 0.18 0 0.103 0 103 0.07
2gje 0.26 0 0.079 0 79 0.28
2gjw 0.45 0 0.078 0 78 0.54
2gtt 0.01 0 0.069 0 69 0.07
2gxb 0.16 1 3.404 8 3404 0.32
2hw8 0.27 0 0.149 0 149 0.21
2i82 0.49 0 0.159 0 159 0.21
2iy5 0.47 0 0.001 0 1 0.51
2jlv 0.54 0 0.416 1 416 0.17
2nqp 0.27 0 0.296 0 296 0.34
2nug 0.34 0 0.001 0 1 0.28
2ozb 1.10 0 0.078 2 78 0.52
2pjp 0.70 0 0.576 1 576 0.40
2po1 0.16 0 0.19 0 190 0.35
2qux 0.06 0 0.26 0 260 0.20
2r7r 0.48 0 0.074 0 74 0.45
2r8s 0.62 0 0.039 0 39 0.50
2vnu 0.21 0 0.123 0 123 0.18
2voo 0.00 0 3.261 3 3261 0.34
2w2h 0.81 0 0.018 0 18 0.52
2wj8 0.01 0 0.43 0 430 0.17
2z2q 0.71 0 0.863 2 863 0.45
2zi0 1.07 1 1.278 14 1278 0.51
2zko 0.32 0 0.181 0 181 0.17
Resultats de la fonction de score gros-grain avec poids positifs pour les 120 com- ´
plexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans le
top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre de ´
presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures et
aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
157pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
2zni 0.45 0 0.017 0 17 0.16
2zue 0.18 0 0.004 0 4 0.15
2zzm 0.37 0 0.009 0 9 0.11
3a6p 0.34 0 0.001 0 1 0.31
3bso 0.57 0 0.038 0 38 0.22
3bt7 0.63 0 0.192 0 192 0.17
3ciy 0.89 0 0.01 0 10 0.23
3d2s 1.00 5 5.557 47 5557 0.49
3dd2 0.68 0 0.232 0 232 0.36
3egz 0.67 0 0.235 1 235 0.38
3eph 0.18 0 0.001 0 1 0.01
3eqt 0.21 0 0.405 0 405 0.22
3ex7 1.09 0 0.239 1 239 0.46
3fht 0.88 0 0.513 2 513 0.51
3foz 0.82 0 0.019 0 19 0.20
3gib 0.62 0 0.641 2 641 0.41
3hax 0.83 0 0.008 0 8 0.40
3hl2 0.48 0 0.015 0 15 0.42
3htx 0.77 0 0.014 0 14 0.36
3i5x 0.19 0 0.175 0 175 0.21
3iab 0.05 0 0.03 0 30 0.15
3icq 0.20 0 0.002 0 2 0.08
3iev 0.31 0 0.227 0 227 0.19
3k62 0.34 0 0.486 1 486 0.31
3l25 0.04 0 0.247 0 247 0.08
3snp 0.63 0 0.041 0 41 0.31
TABLE S8 – Resultats de la fonction de score gros-grain avec poids positifs pour les 120 ´
complexes de la PRIDB : score d’enrichissement (ES), nombre de presque-natifs dans
le top10, nombre de presque-natifs attendus en moyenne par un tri aleatoire, nombre ´
de presque-natifs dans le top100, nombre de presque-natifs sur les 10 000 structures
et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb evalu ´ e.´
158pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
1asy 0.69 0 0.008 0 8 0.46
1av6 0.93 0 0.654 2 654 0.48
1b23 0.77 0 0.024 0 24 0.48
1c0a 0.81 0 0.001 0 1 0.48
1ddl 1.04 0 0.327 1 327 0.48
1dfu 1.08 2 0.743 14 743 0.52
1di2 1.06 1 0.114 1 114 0.45
1e8o 0.80 0 0.743 5 743 0.49
1f7u 0.52 0 0.007 0 7 0.38
1feu 1.07 1 0.378 4 378 0.48
1ffy 0.65 0 0.008 0 8 0.46
1fxl 0.63 0 0.589 0 589 0.45
1gtf 1.12 8 6.307 65 6307 0.51
1h3e 0.80 0 0.024 0 24 0.39
1h4s 0.86 0 0.036 0 36 0.46
1hq1 0.96 1 0.684 7 684 0.50
1j1u 0.98 1 0.112 3 112 0.55
1j2b 0.73 0 0.001 0 1 0.51
1jbs 0.86 0 0.499 1 499 0.49
1jid 1.04 0 0.377 4 377 0.48
1k8w 0.71 0 0.151 0 151 0.47
1knz 0.81 1 1.136 11 1136 0.50
1lng 0.97 0 0.13 0 130 0.45
1m8v 1.07 5 6.192 57 6192 0.49
1m8x 1.04 1 0.899 7 899 0.51
1mzp 0.93 0 0.148 0 148 0.44
1n35 0.73 0 0.017 0 17 0.27
1n78 0.71 0 0.01 0 10 0.45
1ooa 0.74 1 0.497 3 497 0.46
1pgl 1.04 2 0.898 6 898 0.50
1q2r 1.07 0 0.043 0 43 0.53
1qf6 0.85 0 0.005 0 5 0.52
1qtq 0.69 0 0.007 0 7 0.34
1r3e 1.07 0 0.028 0 28 0.45
1r9f 0.98 0 0.2 2 200 0.43
1sds 1.04 1 2.19 16 2190 0.50
1ser 0.82 0 0.008 0 8 0.41
1si3 0.80 0 0.547 3 547 0.46
1t0k 0.88 0 0.382 3 382 0.50
1tfw 0.95 0 0.004 0 4 0.61
1u0b 0.71 0 0.014 1 14 0.55
1un6 0.34 0 0.129 0 129 0.36
1uvj 0.94 1 0.357 5 357 0.51
1vfg 0.81 0 0.248 1 248 0.44
1wpu 0.96 2 1.162 6 1162 0.49
1wsu 1.02 4 2.288 29 2288 0.51
1wz2 0.60 0 0 0 0 1.00
Resultats de la fonction de score gros-grain non lin ´ eaire avec valeurs de centrage ´
pour les 120 complexes de la PRIDB : score d’enrichissement (ES), nombre de
presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un
tri aleatoire, nombre de presque-natifs dans le top100, nombre de presque-natifs sur ´
les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par
pdb evalu ´ e. ´
159pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
1yvp 0.99 0 0.13 3 130 0.48
1zbh 0.87 0 0.967 4 967 0.48
2a8v 0.77 3 5.018 43 5018 0.49
2anr 0.71 0 0.929 4 929 0.47
2asb 0.86 0 0.186 0 186 0.46
2az0 1.40 1 0.2 5 200 0.51
2azx 0.83 0 0.011 1 11 0.52
2b3j 0.66 0 0.426 1 426 0.49
2bgg 0.92 0 0.131 2 131 0.53
2bh2 0.65 0 0.051 1 51 0.39
2bte 0.55 0 0.002 0 2 0.17
2bu1 0.96 1 1.291 8 1291 0.49
2bx2 1.09 0 0.31 0 310 0.48
2ct8 0.75 0 0.029 0 29 0.39
2czj 0.75 0 0.207 1 207 0.49
2d6f 1.00 0 0.087 3 87 0.53
2der 0.94 0 0.029 0 29 0.48
2du3 0.91 0 0.186 3 186 0.47
2e9t 0.91 1 0.06 2 60 0.49
2f8k 1.06 5 3.82 43 3820 0.49
2f8s 1.04 0 0.076 2 76 0.53
2fk6 0.65 0 0.092 0 92 0.41
2fmt 0.89 0 0.018 0 18 0.41
2gic 0.40 0 0.103 0 103 0.42
2gje 0.69 0 0.079 0 79 0.49
2gjw 0.89 0 0.078 0 78 0.47
2gtt 0.40 0 0.069 0 69 0.34
2gxb 0.96 4 3.404 39 3404 0.49
2hw8 0.59 0 0.149 0 149 0.39
2i82 0.86 0 0.159 2 159 0.46
2iy5 0.87 0 0.001 0 1 0.02
2jlv 1.01 1 0.416 6 416 0.50
2nqp 0.84 0 0.296 1 296 0.51
2nug 1.09 0 0.001 0 1 0.42
2ozb 0.64 0 0.078 0 78 0.47
2pjp 0.86 0 0.576 1 576 0.49
2po1 0.86 0 0.19 1 190 0.48
2qux 0.79 0 0.26 1 260 0.46
2r7r 0.73 0 0.074 0 74 0.40
2r8s 0.85 0 0.039 0 39 0.52
2vnu 0.49 0 0.123 0 123 0.27
2voo 1.07 3 3.261 27 3261 0.49
2w2h 1.14 0 0.018 0 18 0.47
2wj8 0.74 0 0.43 2 430 0.47
2z2q 0.97 2 0.863 10 863 0.49
2zi0 1.09 1 1.278 13 1278 0.51
2zko 1.37 1 0.181 6 181 0.53
Resultats de la fonction de score gros-grain non lin ´ eaire avec valeurs de centrage ´
pour les 120 complexes de la PRIDB : score d’enrichissement (ES), nombre de
presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par un
tri aleatoire, nombre de presque-natifs dans le top100, nombre de presque-natifs sur ´
les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par
pdb evalu ´ e. ´
160pdb ES Top10 Attendu Top100 # presque-natifs ROC-AUC
2zni 0.75 0 0.017 0 17 0.47
2zue 0.64 0 0.004 0 4 0.26
2zzm 0.67 0 0.009 0 9 0.36
3a6p 1.16 0 0.001 0 1 0.11
3bso 0.66 0 0.038 0 38 0.38
3bt7 0.47 0 0.192 0 192 0.45
3ciy 1.07 0 0.01 0 10 0.62
3d2s 0.91 3 5.557 49 5557 0.48
3dd2 0.87 1 0.232 6 232 0.50
3egz 0.98 0 0.235 0 235 0.47
3eph 0.83 0 0.001 0 1 0.59
3eqt 0.40 0 0.405 1 405 0.45
3ex7 0.85 0 0.239 1 239 0.47
3fht 0.99 0 0.513 3 513 0.49
3foz 0.72 0 0.019 0 19 0.30
3gib 0.84 0 0.641 3 641 0.49
3hax 0.86 0 0.008 0 8 0.39
3hl2 0.76 0 0.015 0 15 0.51
3htx 0.99 0 0.014 0 14 0.54
3i5x 0.90 0 0.175 1 175 0.52
3iab 0.67 0 0.03 0 30 0.52
3icq 0.71 0 0.002 0 2 0.46
3iev 0.82 0 0.227 0 227 0.45
3k62 0.87 0 0.486 3 486 0.48
3l25 0.35 0 0.247 0 247 0.42
3snp 0.70 0 0.041 0 41 0.50
TABLE S9 – Resultats de la fonction de score gros-grain non lin ´ eaire avec valeurs de ´
centrage pour les 120 complexes de la PRIDB : score d’enrichissement (ES), nombre
de presque-natifs dans le top10, nombre de presque-natifs attendus en moyenne par
un tri aleatoire, nombre de presque-natifs dans le top100, nombre de presque-natifs ´
sur les 10 000 structures et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats
par pdb evalu ´ e. ´
161pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type
2zi0 Tomato aspermy virus protein 2b 60 siRNA 40 dsRNA
2gxb H. sapiens dsRNA-specific adenosine deaminase 62 dsRNA 5’-UCGCGCG-3’ and 5’-CGCGCG-3’ 13 dsRNA
1hq1 E. coli signal recognition particle protein 76 4.5S RNA domain IV 49 dsRNA
2f8k S. cerevisiae VTS1 protein SAM domain 84 5’-UAAUCUUUGACAGAUU-3’ 16 dsRNA
1lng M. jannaschii signal recognition particle 19 kDa protein 87 7S.S signal recognition particle RNA 97 dsRNA
3egz H. sapiens U1 small nuclear ribonucleoprotein A 91 Tetracyclin haptamer and artificial riboswitch 65 dsRNA
1dfu E. coli ribosomal protein L25 94 5S rRNA fragment 38 dsRNA
1jid H. sapiens signal recognition particle 19 kDa protein 114 signal recognition particle RNA helix 6 29 dsRNA
2pjp E. coli selenocysteine-specific elongation factor selB 121 SECIS RNA 23 dsRNA
1r9f Tomato bushy stunt virus core protein 19 121 siRNA 40 dsRNA
2czj T. thermophilus SsrA-binding protein 122 tmRNA tRNA domain 62 dsRNA
1wsu M. thermoacetica selenocystein-specific elongation factor 124 5’-GGCGUUGCCGGUCGGCAACGCC-3’ 22 dsRNA
2bu1 E. phage MS2 coat protein 129 5’-CAUGAGGAUUACCCAUG-3’ 17 dsRNA
1di2 X. laevis protein A dsRNA-binding domain 129 dsRNA 5’-GGCGCGCGCC-3’ tetramer 40 dsRNA
2zko Influenza A virus non-structural protein 1 (NS1) 140 dsRNA 42 dsRNA
2az0 Flock house virus B2 protein 141 dsRNA 5’-GCAUGGACGCGUCCAUGC-3’ dimer 36 dsRNA
1jbs A. restrictus restrictocin 142 29-mer sarcin/ricin domain RNA analog 29 dsRNA
1un6 X. laevis transcription factor IIIA 145 5S rRNA fragment 61 dsRNA
1e8o H. sapiens signal recognition particle 9 kDa and 14 kDa protein 149 7SL RNA 49 dsRNA
2anr H. sapiens neuro-oncological ventral antigen 1 (NOVA 1) 155 5’-CUCGCGGAUCAGUCACCCAAGCGAG-3’ 25 dsRNA
1feu T. thermophilus 50S ribosomal protein L25 185 5S rRNA fragment 40 dsRNA
2i82 E. coli ribosomal large subunit pseudouridine synthase A 217 5’-GAGGGGAAUGAAAAUCCCCUC-3’ 21 dsRNA
1mzp S. acidocaldarius 50S ribosomal protein L1P 217 23S rRNA fragment 55 dsRNA
1zbh H. sapiens 3’-5’ exonuclease ERI1 224 histone mRNA stem-loop 16 dsRNA
2hw8 T. thermophilus 50S ribosomal protein L1 228 mRNA 36 dsRNA
2qux P. phage coat protein 244 dsRNA 25 dsRNA
3iab S. cerevisiae ribonuclease P/MRP protein subunit POP6 255 Ribonuclease MRP RNA component P3 domain 46 dsRNA and POP7
3eqt H. sapiens ATP-dependent RNA helicase DHX58 269 5’-GCGCGCGC-3’ 8 dsRNA
3dd2 H. sapiens thrombine 288 dsRNA 26 dsRNA
2b3j S. aureus tRNA adenosine deaminase (tAdA) 302 tRNA-ARG2 anticodon stem-loop 15 dsRNA
1k8w E. coli tRNA-PseudoU synthase B 304 T stem-loop RNA 22 dsRNA
Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description de la prot´eine
et de l’ARN, ainsi que le nombre d’acides amin´es #aa et d’acides nucl´eiques #an dans la structure 3D. Le type d’ARN est
aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA).
162pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type
1r3e T. maritima tRNA-PseudoU synthase B 305 tRNA-PseudoU T-arm 51 dsRNA
1ooa M. musculus nuclear factor NF-kappa-B p105 subunit 313 RNA aptamer 29 dsRNA
1vfg A. aeolicus tRNA nucleotidyltransferase 342 Primer tRNA 31 dsRNA
2ozb H. sapiens U4/U6 small nuclear ribonucleoprotein Prp31 365 U4snRNA 5’ stem-loop 33 dsRNA
3bt7 E. coli tRNA (uracile-5)-methyltransferase 369 19 nucleotide T-arm analogue 19 dsRNA
2bgg A. fulgidus piwi AF1318 protein 395 dsRNA 5’-UUCGACGC-3’ and 5’-GUCGAAUU-3’ 16 dsRNA
2r8s M. musculus synthetic FAB 433 P4-P6 RNA ribozyme domain 159 dsRNA
2nug A. aeolicus ribonuclease III 434 dsRNA 44 dsRNA
1t0k E. coli maltose-binding periplasmic-protein 462 mRNA 3’ consensus 5’-UGACC-3’ 27 dsRNA and S. cerevisiae 60S ribosomal protein L30
2e9t Foot-and-mouth disease virus RNA-dependent RNA polymerase 474 dsRNA 5’-UAGGGCCC-3’ and 5’-GGGCCCU-3’ 15 dsRNA
3bso Norwalk virus RNA-dependent RNA polymerase 479 primer-template RNA 16 dsRNA
3l25 Ebola virus polymerase cofactor VP35 492 dsRNA 5’-CGCAUGCG-3’ dimer 16 dsRNA
1yvp X. laevis 60 kDa SS-A Ro ribonucleoprotein 529 Both strands of the Y RNA sequence 20 dsRNA
2w2h Equine infectious anemia virus protein TAT 581 TAR RNA 44 dsRNA and E. caballus cyclin-T1
2gjw A. fulgidus tRNA-splicing endonuclease 612 dsRNA 37 dsRNA
3ciy M. musculus toll-like receptor 3 661 dsRNA 92 dsRNA
1q2r Z. mobilis queunine tRNA ribosyltransferase 748 dsRNA 5’-AGCACGGCUNUAAACCGUGC-3’ dimer 40 dsRNA
3htx A. thaliana RNA methyltransferase HEN1 780 dsRNA 44 dsRNA
3snp O. cuniculus cytoplasmic aconitate hydratase 850 Ferritin H IRE RNA 30 dsRNA
1tfw A. fulgidus tRNA nucleotidyltransferase 874 Immature tRNA 26 dsRNA
3icq S. cerevisiae GTP-binding nuclear protein GSP1/CNR1 1116 dsRNA 62 dsRNA and S. pombe exportin-T
3a6p H. sapiens exportin-5 1242 pre-miRNA 46 dsRNA
1n35 M. orthoreovirus minor core protein lambda 3 1264 dsRNA 5’-GGGGG-3’ and 5’-UAGCCCCC-3’ 13 dsRNA
2f8s A. aeolicus argonaute protein 1408 dsRNA 5’-AGACAGCAUAUAUGCUGUCUUU-3’ dimer 44 dsRNA
1m8v P. abyssi putative snRNP sm-like protein 72 5’-UUUUUU-3’ 6 ssRNA
1sds M. jannaschii 50S ribosomal protein L7Ae 112 Archeal box H/ACA sRNA K-turn 15 ssRNA
2a8v E. coli rho-dependent transcription termination 118 5’-CCC-3’ 3 ssRNA factor RNA-binding domain
1si3 H. sapiens eukaryotic translation initiation factor 2C 1 120 5’-CGUGACUCU-3’ 9 ssRNA
Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description de la prot´eine
et de l’ARN, ainsi que le nombre d’acides amin´es #aa et d’acides nucl´eiques #an dans la structure 3D. Le type d’ARN est
aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA).
163pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type
3d2s H. sapiens musculeblind-like protein 1 (MBNL1) 135 5’-GCUGU-3’ 5 ssRNA
1gtf G. staerothermophilus TRP RNA-binding attenuation protein 142 5’-GAGU-3’ 4 ssRNA
1wpu B. subtilis hut operon positive regulatory protein 148 5’-UUGAGUU-3’ 7 ssRNA
1fxl P. encephalomyelitis antigen hud 167 5’-UUUUAUUUU-3’ 9 ssRNA
2voo H. sapiens lupus LA protein 179 5’-UUU-3’ 3 ssRNA
3gib E. coli protein Hfq 191 5’-AAAAAAAAA-3’ 9 ssRNA
2asb M. tuberculosis transcription elongation protein nusA 226 5’-GAACUCAAUAG-3’ 11 ssRNA
1av6 Vaccinia cap-specific mRNA methyltransferase VP39 290 M7G Capped RNA 5’-GAAAAA-3’ 7 ssRNA
1knz S. rotavirus nonstructural RNA-binding protein 34 292 mRNA 3’ consensus 5’-UGACC-3’ 5 ssRNA
2gje T. brucei mRNA-binding protein bBP 292 Guide-RNA fragment 18 ssRNA
3iev A. aeolicus GTP-binding protein ERA 302 16S rRNA 3’ end 11 ssRNA
1m8x H. sapiens pumilio 1 homology domain 341 5’-UUGUAUAU-3’ 8 ssRNA
2wj8 Human respiratory syncytial virus nucleoprotein 374 5’-CCCCCCC-3’ 7 ssRNA
3fht H. sapiens ATP-dependent RNA helicase DDX19B 392 5’-UUUUUU-3’ 6 ssRNA
3k62 C. elegans Fem-3 mRNA-binding factor 2 400 5’-UGUGUUAUC-3’ 9 ssRNA
2gtt Rabies virus nucleoprotein 401 ssRNA 17 ssRNA
2gic Vesicular stomatitis Indiana virus nucleocapsid protein 416 ssRNA fragment 15 ssRNA
2bh2 E. coli 23S ribosomal RNA (uracil-5)-methyltransferase RUMA 419 23S rRNA fragment 29 ssRNA
2jlv Dengue virus serine protease subunit NS3 451 5’-AGACUAA-3’ 7 ssRNA
2bx2 E. coli ribonuclease E 500 5’-UUUACAGUAUUUGU-3’ 14 ssRNA
2po1 P. abyssi probable exosome complex exonuclease 503 5’-AAAAAAA-3’ 7 ssRNA
3i5x S. cerevisiae ATP-dependent RNA helicase MSS116 509 5’-UUUUUUUUUU-3’ 10 ssRNA
1ddl Desmodium yellow mottle tymovirus 551 5’-UUUUUUU-3’ 7 ssRNA
1pgl Bean pod mottle virus 555 5’-AGUCUC-3’ 6 ssRNA
1uvj P. phage P2 protein 664 5’-UUCC-3’ 4 ssRNA
3ex7 H. sapiens CASC3 and mago nashi homolog 687 5’-UUUUUU-3’ 6 ssRNA and RNA-binding protein 8 and eukaryotic initiation factor 4A-III
2vnu S. cerevisiae exosome complex exonuclease RRP44 694 5’-AAAAAAAAA-3’ 9 ssRNA
2z2q Flock house viruse capsid protein 980 Flock house virus genomic RNA 12 ssRNA
2r7r Simian rotavirus RNA-dependent RNA polymerase 1073 5’-UGUGACC-3’ 7 ssRNA
1j1u M. jannaschii tRNA-TYR synthetase 300 tRNA-TYR 74 tRNA
3foz E. coli isopentenyl-tRNA transferase 303 tRNA-PHE 69 tRNA
Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description de la prot´eine
et de l’ARN, ainsi que le nombre d’acides amin´es #aa et d’acides nucl´eiques #an dans la structure 3D. Le type d’ARN est
aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA).
164pdb Description prot´eine Nombre d’acides amin´es Description ARN Nombre d’acides nucl´eiques Type
2fk6 B. subtilis ribonuclease Z 307 tRNA-THR 53 tRNA
2fmt E. coli tRNA-FMET formyltransferase 314 Formyl-methionyl-tRNA-FMET2 77 tRNA
2zzm M. jannaschii uncharacterized protein MJ0883 329 tRNA-LEU 84 tRNA
2der E. coli tRNA-specific 2-thiouridylase mnmA 348 tRNA-GLU 74 tRNA
3eph S. cerevisiae tRNA isopentenyltransferase 402 tRNA 69 tRNA
1b23 T. aquaticus elongation factor EF-TU 405 E. coli tRNA-CYS 74 tRNA
1h3e T. thermophilus tRNA-TYR synthetase 427 Wild type tRNA-TYR (GUA) 84 tRNA
1u0b E. coli tRNA-CYS 461 tRNA-CYS 74 tRNA
2ct8 A. aeolicus tRNA-MET synthetase 465 tRNA-MET 74 tRNA
1n78 T. thermophilus tRNA-GLU synthetase 468 tRNA-GLU 75 tRNA
2d6f M. thermautotrophicus tRNA-GLN amidotransferase 485 tRNA-GLN 72 tRNA
1asy Yeast tRNA-ASP synthetase 490 tRNA-ASP 75 tRNA
3hax
P. furiosus probable tRNA-PseudoU synthase B
503 H/ACA RNA 74 tRNA and ribosome biogenesis protein Nop10
and 50S ribosomal protein L7Ae
2nqp E. coli tRNA-PseudoU synthase A 528 tRNA-LEU 71 tRNA
1qtq E. coli tRNA-GLN synthetase 529 tRNA-GLN II 74 tRNA
2zni D. hafniense tRNA-PYL synthetase 558 tRNA-PYL 72 tRNA
1c0a E. coli tRNA-ASP synthetase 585 tRNA-ASP 77 tRNA
1f7u S. cerevisiae tRNA-ARG synthetase 607 tRNA-ARG 76 tRNA
2zue P. horikoshii tRNA-ARG synthetase 628 tRNA-ARG 76 tRNA
1qf6 E. coli tRNA-THR synthetase 641 tRNA-THR 76 tRNA
2azx H. sapiens tRNA-TRP synthetase 778 tRNA-TRP 72 tRNA
1ser T. thermophilus tRNA-SER synthetase 793 tRNA-SER 65 tRNA
2bte T. thermophilus aminoacyl-tRNA synthetase 877 tRNA-LEU transcript with anticodon CAG 78 tRNA
3hl2 H. sapiens O-phosphoseryl-tRNA-SEC selenium transferase 886 tRNA-SEC 82 tRNA
1ffy S. aureus tRNA-ILE synthetase 917 tRNA-ILE 75 tRNA
1h4s T. thermophilus tRNA-PRO synthetase 946 tRNA-PRO (CGG) 67 tRNA
1wz2 P. horikoshii tRNA-LEU synthetase 948 tRNA-LEU 88 tRNA
2du3 A. fulgidus O-phosphoseryl-tRNA synthetase 1001 tRNA-CYS 71 tRNA
2iy5 T. thermophilus tRNA-PHE synthetase 1117 tRNA-PHE 76 tRNA
1j2b P. horikoshii archaeosine tRNA-GUA transglycosylase 1152 tRNA-VAL 77 tRNA
TABLE S10 – Codes PDB des complexes prot´eine-ARN utilis´es dans la PRIDB non redondante RB199, avec une description
de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es et d’acides nucl´eiques dans la structure 3D. Le type d’ARN
est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN de transfert (tRNA).
165D pdb pdb aa Description prot´eine Nombre d’acides amin´es pdb na Description ARN Nombre d’acides nucl´eiques Type
R 2b6g 2d3d S. cerevisiae VTS1 protein SAM domain 81 2b7g 5’-GGAGGCUCUGGCAGCUUUC-3’ 19 dsRNA
R 1ec6 1dtj H. sapiens neuro-oncological ventral antigen 2 (NOVA 2) 87 – dsRNA 20 dsRNA
R 1t4l 1t4o S. cerevisiae ribonuclease III 90 – snRNA 47 precursor 5’ terminal hairpin 32 dsRNA
R 1m5o 1nu4 H. sapiens U1 small nuclear ribonucleoprotein A 92 – RNA substrate and RNA hairpin ribozyme 113 dsRNA
R 3bo2 1nu4 H. sapiens U1 small nuclear ribonucleoprotein A 95 – Group I intron P9 and mRNA 221 dsRNA
R 1g1x 1ris T. thermophilus 30S ribosomal protein S6 98 – 16S rRNA fragment 84 dsRNA
R 1zbi 1zbf B. halodurans Ribonuclease H-related protein 135 – RNA-DNA hydrid 24 dsRNA
R 1jbr 1aqz A. restrictus restrictocin 149 – 31-mer SRD RNA analog 31 dsRNA
R 1u63 1l2a M. jannaschii 50S ribosomal protein L1P 214 – mRNA 49 dsRNA
R 2ez6 1jfz A. aeolicus ribonuclease III 218 – dsRNA 56 dsRNA
R 1kog 1evl E. coli tRNA-THR synthetase 401 – tRNA-THR synthetase mRNA 37 dsRNA operator essential domain
R 2dra 1r89 A. fulgidus CCA-adding enzyme 437 1vfg tRNA mini DCC 34 dsRNA
R 1wne 1u09 Foot-and-mouth disease virus 476 – dsRNA 5’-CAUGGGCC-3’ 13 dsRNA RNA-dependent RNA polymerase and 5’-GGCCC-3’ dimer
R 1c9s 1qaw G. staerothermopilus TRP RNA-binding attenuation protein 67 – 5’-GAUGAGA-3’ 7 ssRNA
R 1m8w 1mz8 H. sapiens pumilio 1 homology domain 340 – 5’-UUGUAUAU-3’ 8 ssRNA
R 3bsb 1m8z H. sapiens pumilio 1 homology domain 341 – 5’-UUUAAUGUU-3’ 9 ssRNA
R 3bsx 1m8z H. sapiens pumilio 1 homology domain 341 – 5’-UUGUAAUAUU-3’ 10 ssRNA
R 1kq2 1kq1 S. aureus host factor protein for Q beta 365 – 5’-AUUUUUG-3’ 7 ssRNA
R 2i91 1yvr S. laevis 60 kDa SS-A Ro ribonucleoprotein 526 – misfolded RNA fragment 23 ssRNA
Codes PDB des 40 complexes prot´eine-ARN utilis´es dans les benchmarks I et II, par difficult´e (D, avec R pour corps rigide,
S pour semi-flexible et X pour flexible), avec une description de la prot´eine et de l’ARN, ainsi que le nombre d’acides amin´es
#aa et d’acides nucl´eiques #an dans la structure 3D et le code PDB de la structure 3D de la prot´eine (pdb aa) et de l’ARN
(pdb na) non li´es si disponibles. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et ARN
de transfert (tRNA).
166D pdb pdb aa Description prot´eine Nombre d’acides amin´es pdb na Description ARN Nombre d’acides nucl´eiques Type
R 2ix1 2id0 E. coli exoribonuclease II 643 – 5’-AAAAAAAAAAAAA-3’ 13 ssRNA
R 1ttt 1eft T. aquaticus elongation factor EF-TU 405 4tna Yeast tRNA-PHE 76 tRNA
R 1efw 1l0w T. thermophilus tRNA-ASP synthetase 580 1c0a tRNA-ASP 73 tRNA
S 1hc8 1foy G. staerothermopilus ribosomal protein L11 74 – 23S rRNA fragment 57 dsRNA
S 1dk1 2fkx T. thermophilus 30S ribosomal protein S15 86 – 30S rRNA fragment 57 dsRNA
S 1mfq 1qb2 H. sapiens signal recognition particle 54 kDa protein 108 1l9a 7S RNA of Human signal recognition particle 128 dsRNA
S 1e7k 2jnb H. sapiens 15.5 kDa RNA-binding protein 125 – 5’-GCCAAUGAGGCCGAGGC-3’ 17 dsRNA
S 1mms 2k3f T. maritima ribosomal protein L11 133 – 23S rRNA fragment 58 dsRNA
S 2err 2cq3 H. sapiens ataxin-2-binding protein 1 (Fox 1) 88 – 5’-UGCAUGU-3’ 7 ssRNA
S 2ad9 1sjq H. sapiens polypyrimidine tract-binding protein RBD1 98 – 5’-CUCUCU-3’ 6 ssRNA
S 2adb 1sjr H. sapiens polypyrimidine tract-binding protein RBD2 127 – 5’-CUCUCU-3’ 6 ssRNA
S 2py9 2jzx H. sapiens poly(rC)-binding protein 2 141 – Human telomeric RNA 12 ssRNA
S 2adc 2evz H. sapiens polypyrimidine tract-binding protein RBD3 and 4 208 – 5’-CUCUCU-3’ 6 ssRNA
S 3bx2 1m8z H. sapiens pumilio 1 homology domain 328 – 5’-UGUAUAUUA-3’ 9 ssRNA
X 1ekz 1stu D. melanogaster maternal effect protein 76 – RNA hairpin 30 dsRNA
X 2hgh 2j7j S. laevis transcription factor IIIA 87 – 5S rRNA fragment 55 dsRNA
X 1hvu 2vg5 Human immunodeficiency virus HIV1 reverse transcriptase 954 – RNA pseudoknot 30 dsRNA
X 1b7f 3sxl D. melanogaster SXL-lethal protein 167 – 5’-GUUGUUUUUUUU-3’ 12 ssRNA
X 2c0b 2vmk E. coli ribonuclease E 488 – 5’-UUUACAGUAUU-3’ 11 ssRNA
X 1msw 1aro E. phage DNA-directed T7 RNA polymerase 863 – mRNA 47 ssRNA
X 1ob2 1efc E. coli elongation factor EF-TU 393 1ehz tRNA-PHE 76 tRNA
TABLE S11 – Codes PDB des 40 complexes prot´eine-ARN utilis´es dans les benchmarks I et II, par difficult´e (D, avec R pour
corps rigide, S pour semi-flexible et X pour flexible), avec une description de la prot´eine et de l’ARN, ainsi que le nombre
d’acides amin´es et d’acides nucl´eiques dans la structure 3D et le code PDB de la structure 3D de la prot´eine (pdb aa) et de
l’ARN (pdb na) non li´es si disponibles. Le type d’ARN est aussi indiqu´e entre simple brin (ssRNA), double brin (dsRNA) et
ARN de transfert (tRNA).
167ES TOP10 TOP100 ROC-AUC
pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG
1asy 0.49 3.69 0.88 0.87 7 8 7 7 7.195 28 95 92 92 0.43 0.74 0.58 0.57
1av6 3.15 1.53 0.00 0.00 5 10 10 10 8.815 77 100 97 97 0.38 0.88 0.62 0.62
1b23 1.47 2.87 0.94 0.94 4 10 9 9 5.037 4 99 88 88 0.39 0.81 0.61 0.61
1c0a 0.46 5.89 2.82 2.76 1 10 9 9 2.568 11 99 75 75 0.30 0.91 0.70 0.70
1ddl 0.52 2.64 1.24 1.24 2 3 1 1 2.789 18 35 28 28 0.48 0.64 0.53 0.52
1dfu 2.11 5.07 0.22 0.22 4 10 10 10 9.24 47 100 99 99 0.28 0.93 0.74 0.73
1di2 0.59 4.05 0.92 0.92 10 10 8 8 7.553 99 98 90 89 0.41 0.91 0.60 0.60
1e8o 1.18 2.08 1.48 1.48 6 2 8 8 3.376 23 37 62 62 0.44 0.63 0.56 0.56
1f7u 0.17 4.46 2.58 2.55 4 10 10 10 4.105 4 94 75 75 0.21 0.89 0.80 0.80
1feu 1.16 1.72 0.11 0.11 4 10 9 9 9.081 65 99 96 96 0.34 0.81 0.67 0.67
1ffy 0.02 7.09 1.11 1.10 0 10 4 4 3.121 0 100 17 17 0.42 0.93 0.58 0.58
1fxl 0.08 6.26 0.26 0.24 0 10 10 10 5.104 0 100 98 98 0.18 0.79 0.83 0.82
1gtf 4.28 1.61 0.00 0.00 10 10 10 10 9.628 97 100 100 100 0.49 0.72 0.51 0.51
1h3e 0.41 5.02 0.96 0.95 0 10 4 4 5.918 11 100 65 65 0.35 0.77 0.65 0.65
1h4s 0.81 1.90 1.72 1.75 1 4 4 4 1.19 2 34 35 35 0.42 0.63 0.58 0.58
1hq1 1.43 2.42 0.68 0.67 6 3 0 0 2.624 31 40 6 6 0.57 0.67 0.43 0.43
1j1u 1.56 1.40 0.15 0.15 10 9 10 10 8.331 96 92 97 97 0.53 0.67 0.47 0.47
1j2b 0.02 6.25 4.17 4.14 0 10 9 9 1.317 0 100 75 75 0.13 0.87 0.87 0.87
1jbs 0.58 0.79 0.59 0.59 0 0 3 3 2.528 1 5 25 26 0.44 0.61 0.56 0.56
1jid 2.52 0.05 0.00 0.00 2 10 10 10 9.357 63 98 95 95 0.37 0.65 0.64 0.63
1k8w 0.59 7.73 2.78 2.70 1 10 10 10 3.916 5 100 86 86 0.35 0.94 0.67 0.65
1knz 0.00 5.68 0.19 0.19 0 10 3 3 3.11 0 100 62 63 0.15 0.93 0.86 0.85
1lng 2.74 3.91 0.77 0.77 6 10 5 5 7.299 70 95 58 58 0.61 0.65 0.39 0.39
1m8v 0.85 1.70 0.51 0.50 10 3 10 10 7.017 90 51 81 81 0.44 0.54 0.56 0.56
1m8x 1.68 4.61 0.26 0.26 7 10 9 9 8.413 86 100 90 90 0.43 0.75 0.58 0.58
1mzp 0.76 3.15 1.96 1.95 0 6 4 4 1.592 11 51 39 38 0.40 0.71 0.60 0.60
1n35 0.10 7.27 2.62 2.62 0 8 0 0 0.732 0 85 13 13 0.34 0.99 0.67 0.67
1n78 0.33 3.67 0.53 0.53 0 10 4 4 4.39 0 98 62 62 0.30 0.92 0.71 0.71
1ooa 3.45 2.56 0.00 0.00 6 10 10 10 8.662 75 100 95 95 0.44 0.91 0.57 0.57
1pgl 3.13 0.00 0.00 0.00 10 9 9 9 9.344 80 98 99 99 0.24 0.85 0.76 0.76
1q2r 0.00 6.33 1.13 1.11 0 10 9 9 4.585 0 100 93 93 0.24 0.82 0.77 0.77
1qf6 0.09 7.30 2.92 2.92 0 10 7 7 1.154 0 99 52 52 0.23 0.90 0.77 0.77
R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS), n´egative (NEG)
et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presque-natifs dans le top10,
nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le top100 et aire sous
la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e.
168ES TOP10 TOP100 ROC-AUC
pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG
1qtq 0.05 6.36 2.57 2.54 0 10 9 9 2.971 4 100 80 80 0.30 0.89 0.70 0.70
1r3e 0.66 6.89 2.65 2.65 0 10 6 6 3.356 10 100 75 75 0.41 0.90 0.60 0.60
1r9f 1.55 3.19 0.28 0.28 10 10 10 10 9.359 99 100 98 98 0.38 0.87 0.63 0.62
1sds 0.80 1.51 0.47 0.47 5 6 2 2 4.183 41 37 32 32 0.55 0.59 0.45 0.45
1ser 0.10 4.35 0.51 0.51 0 9 7 7 2.999 0 95 41 39 0.29 0.96 0.72 0.71
1si3 0.27 4.66 0.11 0.09 0 10 10 10 7.681 0 100 100 100 0.08 0.75 0.92 0.92
1t0k 1.53 1.34 0.73 0.73 8 0 4 4 3.725 59 14 27 27 0.55 0.51 0.45 0.45
1tfw 0.02 4.38 3.33 3.31 0 10 1 1 0.225 0 97 14 14 0.22 1.00 0.79 0.78
1u0b 0.02 6.33 3.44 3.41 0 10 7 7 2.616 0 97 69 69 0.21 0.87 0.79 0.79
1un6 0.66 2.93 1.29 1.30 0 9 7 7 3.952 1 93 87 86 0.30 0.83 0.71 0.71
1uvj 0.51 3.20 0.66 0.66 0 6 2 2 2.066 0 73 47 46 0.31 0.80 0.69 0.69
1vfg 2.96 0.32 0.11 0.11 9 10 10 10 9.313 87 99 98 98 0.42 0.74 0.59 0.59
1wpu 2.16 3.48 0.14 0.13 10 10 9 9 8.746 78 100 95 95 0.51 0.62 0.49 0.49
1wsu 0.50 1.72 1.50 1.48 0 2 6 6 4.816 14 32 72 72 0.36 0.52 0.64 0.64
1wz2 0.25 5.18 1.81 1.72 0 10 5 4 2.451 0 98 55 53 0.31 0.79 0.70 0.69
1yvp 2.26 2.69 0.00 0.00 8 10 10 10 9.384 84 100 99 99 0.37 0.84 0.63 0.63
1zbh 0.15 1.74 1.33 1.33 2 8 7 7 3.809 4 69 62 62 0.34 0.68 0.66 0.66
2a8v 0.14 2.20 1.81 1.83 2 8 6 6 4.775 14 84 64 65 0.34 0.53 0.66 0.66
2anr 0.55 2.06 2.14 2.15 7 0 3 3 2.927 23 18 48 48 0.38 0.57 0.62 0.62
2asb 1.18 5.26 0.13 0.13 2 10 6 6 5.475 3 100 60 60 0.46 0.92 0.55 0.55
2az0 0.22 4.33 1.36 1.34 0 10 1 1 1.351 1 77 12 12 0.40 0.84 0.61 0.61
2azx 0.13 2.29 1.85 1.81 0 9 9 9 7.22 10 90 90 89 0.29 0.63 0.72 0.71
2b3j 1.56 3.18 0.11 0.11 0 10 10 10 7.172 7 100 100 100 0.24 0.93 0.76 0.76
2bgg 0.30 4.89 2.25 2.21 0 10 10 10 5.42 4 100 98 97 0.28 0.88 0.73 0.73
2bh2 0.29 7.08 1.75 1.74 0 10 8 8 2.34 0 100 82 82 0.32 0.89 0.68 0.68
2bte 0.98 2.15 0.23 0.23 7 10 6 6 7.251 76 98 83 82 0.42 0.82 0.59 0.58
2bu1 0.18 2.41 1.75 1.73 5 3 2 2 3.909 17 54 43 43 0.38 0.60 0.62 0.62
2bx2 0.07 2.08 0.98 0.96 0 5 3 2 3.441 0 42 21 20 0.36 0.81 0.64 0.64
2ct8 0.68 3.09 0.87 0.87 3 10 4 4 5.817 37 87 69 69 0.35 0.79 0.65 0.65
2czj 3.12 3.51 0.06 0.05 10 10 10 10 9.135 94 100 97 97 0.51 0.78 0.49 0.49
2d6f 2.30 2.75 0.00 0.00 10 10 1 1 8.458 81 96 64 64 0.63 0.67 0.37 0.37
2der 0.88 4.52 0.88 0.87 0 10 5 5 3.535 0 100 84 84 0.26 0.96 0.75 0.74
R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS), n´egative (NEG)
et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presque-natifs dans le top10,
nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le top100 et aire sous
la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e.
169ES TOP10 TOP100 ROC-AUC
pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG
2du3 2.14 2.11 0.05 0.05 9 6 10 10 9.16 65 84 95 95 0.48 0.52 0.52 0.52
2e9t 0.00 7.70 1.83 1.80 0 10 4 4 1.688 0 100 75 73 0.19 1.00 0.83 0.82
2f8k 1.37 1.47 0.92 0.92 9 1 4 4 4.993 78 32 63 62 0.51 0.57 0.49 0.49
2f8s 1.27 2.19 0.62 0.62 6 10 10 10 6.802 53 100 93 93 0.40 0.67 0.60 0.60
2fk6 0.84 2.93 0.61 0.61 10 10 9 9 8.17 78 98 94 94 0.46 0.86 0.54 0.54
2fmt 0.59 5.99 1.07 1.06 0 10 7 7 2.675 10 100 44 43 0.40 0.90 0.61 0.61
2gic 1.11 3.06 0.13 0.13 0 8 3 3 3.956 0 87 36 35 0.38 0.92 0.63 0.63
2gje 1.11 2.60 0.27 0.26 6 9 10 10 7.233 74 95 93 93 0.30 0.83 0.70 0.70
2gjw 0.11 4.25 0.18 0.18 8 10 10 10 7.806 28 100 100 100 0.22 0.89 0.79 0.79
2gtt 1.03 3.38 0.41 0.38 0 9 0 0 2.419 0 88 12 12 0.43 0.88 0.57 0.57
2gxb 0.54 1.87 0.98 0.95 0 3 3 3 4.715 16 45 37 37 0.49 0.59 0.51 0.51
2hw8 1.89 3.72 0.14 0.14 9 10 9 9 7.302 23 99 91 90 0.52 0.93 0.49 0.48
2i82 3.45 7.14 0.05 0.05 6 10 10 10 6.908 60 100 96 96 0.41 0.84 0.60 0.60
2iy5 0.07 6.69 2.12 2.10 0 4 0 0 0.92 0 79 3 3 0.31 0.96 0.70 0.70
2jlv 0.53 0.74 0.00 0.00 0 1 0 0 4.519 0 13 7 7 0.33 0.81 0.67 0.67
2nqp 0.74 3.02 0.77 0.77 0 5 1 1 2.642 5 58 25 25 0.43 0.74 0.57 0.57
2nug 0.29 6.56 5.83 5.82 0 10 0 0 0.365 0 100 1 1 0.66 1.00 0.40 0.37
2ozb 1.10 6.82 2.24 2.23 1 10 10 10 3.716 3 100 95 95 0.37 0.84 0.63 0.63
2pjp 0.01 1.75 2.16 2.17 1 1 6 6 2.983 1 33 53 53 0.31 0.60 0.69 0.69
2po1 1.98 1.35 0.00 0.00 10 10 1 1 9.139 97 100 55 55 0.45 0.75 0.56 0.56
2qux 0.16 3.18 1.63 1.61 1 4 0 0 1.94 1 56 16 17 0.40 0.70 0.60 0.60
2r7r 0.03 4.54 0.16 0.16 0 10 6 6 4.231 0 98 74 73 0.18 0.91 0.83 0.83
2r8s 1.35 1.96 0.28 0.28 8 10 9 9 7.263 42 90 83 82 0.46 0.59 0.54 0.54
2vnu 0.09 2.20 1.13 1.13 0 2 0 0 2.481 0 58 30 30 0.24 0.93 0.76 0.76
2voo 0.08 1.69 0.13 0.13 10 10 10 10 7.556 96 100 97 97 0.43 0.85 0.58 0.57
2w2h 0.50 3.96 2.71 2.70 2 10 10 10 5.472 20 99 97 97 0.36 0.81 0.64 0.64
2wj8 0.06 6.11 0.66 0.65 0 10 5 5 2.429 0 99 52 52 0.22 0.91 0.79 0.79
2z2q 0.49 2.64 1.36 1.36 3 9 5 5 5.908 26 89 76 76 0.41 0.60 0.59 0.59
2zi0 3.01 0.48 0.01 0.01 0 9 4 4 7.917 10 88 58 58 0.27 0.80 0.74 0.74
2zko 1.15 4.04 0.99 1.00 0 7 0 0 1.338 9 83 9 9 0.57 0.83 0.44 0.43
2zni 0.30 6.44 1.70 1.64 0 10 9 9 2.671 0 100 48 46 0.40 0.76 0.61 0.61
2zue 0.30 4.53 1.50 1.49 0 10 9 9 4.929 0 99 82 82 0.22 0.89 0.79 0.78
R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS), n´egative (NEG)
et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presque-natifs dans le top10,
nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le top100 et aire sous
la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e.
170ES TOP10 TOP100 ROC-AUC
pdb ROS POS ALL NEG ROS POS ALL NEG Attendu ROS POS ALL NEG ROS POS ALL NEG
2zzm 0.11 8.06 3.62 3.57 0 10 6 6 1.256 0 100 67 67 0.18 0.93 0.83 0.83
3a6p 6.30 7.17 0.00 0.00 0 7 0 0 1.972 54 96 0 0 0.80 0.99 0.21 0.20
3bso 0.94 5.84 0.08 0.08 0 10 0 0 2.472 1 100 0 0 0.43 0.99 0.58 0.58
3bt7 0.57 4.98 0.75 0.72 1 10 10 10 5.376 20 100 90 90 0.33 0.79 0.68 0.68
3ciy 1.71 2.79 0.19 0.18 4 10 2 2 5.629 44 82 54 53 0.59 0.69 0.41 0.41
3d2s 0.04 0.79 0.56 0.56 6 10 9 9 8.929 62 97 97 97 0.32 0.71 0.69 0.69
3dd2 0.74 2.00 1.21 1.21 0 3 2 2 2.468 4 43 34 35 0.44 0.66 0.56 0.56
3egz 1.05 3.05 0.41 0.39 6 10 7 7 5.223 6 97 91 90 0.16 0.79 0.84 0.84
3eph 0.19 8.81 5.65 5.61 0 10 10 10 1.002 0 100 90 90 0.13 0.99 0.88 0.87
3eqt 0.40 7.19 0.50 0.48 2 10 8 8 5.188 54 100 85 85 0.38 0.94 0.62 0.62
3ex7 0.05 4.06 0.55 0.53 0 10 10 10 7.516 0 96 99 99 0.18 0.75 0.83 0.82
3fht 2.19 3.66 0.01 0.01 0 10 10 10 8.25 0 100 100 100 0.18 0.84 0.83 0.83
3foz 0.48 8.00 2.67 2.66 0 10 8 8 1.341 0 100 48 48 0.21 0.98 0.80 0.79
3gib 0.37 1.80 1.78 1.78 0 6 6 6 2.324 0 48 56 57 0.31 0.49 0.69 0.69
3hax 0.04 6.51 4.73 4.71 1 10 9 9 1.027 1 100 81 80 0.19 0.88 0.81 0.81
3hl2 2.67 3.66 0.00 0.00 0 10 10 10 9.062 56 100 100 100 0.48 0.99 0.54 0.53
3htx 0.02 8.04 3.70 3.69 0 10 6 6 1.045 0 100 52 51 0.22 0.96 0.79 0.78
3i5x 0.31 3.55 1.20 1.19 0 10 8 8 6.791 4 100 80 79 0.35 0.80 0.65 0.65
3iab 0.59 5.28 1.17 1.13 0 10 10 10 4.77 7 92 100 100 0.24 0.73 0.77 0.77
3icq 0.14 2.83 1.12 1.12 0 10 7 8 5.14 10 88 80 80 0.35 0.81 0.65 0.65
3iev 1.30 5.64 0.94 0.92 8 10 10 10 7.914 67 100 99 99 0.61 0.65 0.40 0.40
3k62 2.51 3.40 0.15 0.15 9 10 9 9 8.482 86 100 96 96 0.35 0.78 0.65 0.65
3l25 0.35 7.02 1.09 1.07 0 7 2 2 1.205 0 79 35 33 0.38 0.99 0.64 0.62
3snp 0.02 6.63 2.80 2.77 1 10 10 10 3.201 1 100 86 86 0.25 0.84 0.75 0.75
TABLE S12 – R´esultats des fonctions de score atomiqes de la fonction par d´efaut de RosettaDock (ROS), positive (POS),
n
´egative (NEG) et sans contrainte (ALL) pour les complexes de la PRIDB : score d’enrichissement, nombre de presquenatifs
dans le top10, nombre de presque-natifs attendus en moyenne par un tri al´eatoire, nombre de presque-natifs dans le
top100 et aire sous la courbe ROC (ROC-AUC) sur 10 000 candidats par pdb ´evalu´e.
171
https://hal.archives-ouvertes.fr/tel-01081605/document
Une approche agile, fiable et minimale pour le maintien
de la qualit´e de service lors de l’´evolution d’applications
`a base de processus m´etiers
Alexandre Feugas
To cite this version:
Alexandre Feugas. Une approche agile, fiable et minimale pour le maintien de la qualit´e de
service lors de l’´evolution d’applications `a base de processus m´etiers. Software Engineering.
Universit´e des Sciences et Technologie de Lille - Lille I, 2014. French.
HAL Id: tel-01073193
https://tel.archives-ouvertes.fr/tel-01073193
Submitted on 9 Oct 2014
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific
research documents, whether they are published
or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destin´ee au d´epˆot et `a la diffusion de documents
scientifiques de niveau recherche, publi´es ou non,
´emanant des ´etablissements d’enseignement et de
recherche fran¸cais ou ´etrangers, des laboratoires
publics ou priv´es.Universit´e Lille 1 Sciences et Technologies
D´epartement de formation doctorale en informatique Ecole doctorale SPI Lille ´
UFR IEEA
Une Approche Agile, Fiable et
Minimale pour le Maintien de la
Qualit´e de Service lors de l’Evolution
´
d’Applications `a Base de Processus
M´etiers
THESE `
pr´esent´ee et soutenue publiquement le 8 octobre 2014
pour l’obtention du
Doctorat de l’Universit´e Lille 1 Sciences et Technologies
Sp´ecialit´e Informatique
par
Alexandre Feugas
Composition du jury
Rapporteurs : Marie-Pierre Gervais, Universit´e Paris Ouest Nanterre La D´efense
Jean-Michel Bruel, Universit´e de Toulouse
Directeur de th`ese : Laurence Duchien, Universit´e Lille 1
Examinateurs : Jean-Luc Dekeyser, Universit´e Lille 1
S´ebastien Mosser, Universit´e Nice - Sophia Antipolis
Laboratoire d’Informatique Fondamentale de Lille — UMR CNRS 8022
INRIA Lille - Nord EuropeUne Approche Agile, Fiable et Minimale pour le Maintien de la Qualité de
Service lors de l’Évolution d’Applications à Base de Processus Métiers
Les logiciels actuels adoptent une méthodologie de développement dite "agile" pour
mieux prendre en compte la nécessité de s’adapter constamment aux nouveaux besoins des
utilisateurs. Les concepteurs et développeurs se rapprochent alors des futurs utilisateurs
du logiciel en proposant des cycles courts d’itération, où le futur utilisateur fait un retour
rapide sur l’incrément apporté au logiciel, et fait part de nouveaux besoins à prendre en
compte dans les incréments à venir. Ces itérations peuvent être vues comme des évolutions,
faisant suite à la définition d’un nouveau besoin de l’utilisateur, à un changement de l’environnement
d’exécution, ou encore à une remise en question de l’architecture du logiciel.
Dans l’écosystème des architectures orientées services, la conception d’applications passe
par la chorégraphie ou l’orchestration de services par des processus métiers. Concevoir ces
applications consiste alors à mettre en relation les flots de contrôle et de données de ces
services. La phase d’évolution devient une phase complexe, où une simple modification localisée
à une sous-partie d’un processus métier peut avoir des conséquences sur l’ensemble
du système logiciel, causant par exemple son ralentissement lors de l’exécution. Du point
de vue de la qualité de service (QoS), la maîtrise de la fiabilité du processus d’évolution
pour maintenir la qualité de service d’un logiciel est alors critique.
Il est donc nécessaire de pouvoir proposer des mécanismes d’évolution agiles et fiables
permettant le maintien de la QoS lors de l’évolution d’applications à base de processus
métiers. En d’autres termes, il s’agit de s’assurer qu’une évolution ne viole pas les contrats
de QoS définis initialement. Cette garantie doit être établie en fonction du contrat soit lors
de la conception soit lors de l’exécution. Dans ce dernier cas, le processus de vérification
doit être minimal et localisé, afin de ne pas dégrader les performances du système logiciel.
Pour cela, nous proposons de mettre en œuvre un cycle de développement agile, centré
sur le maintien de la QoS lors de l’évolution. Il s’agit de prendre l’aspect évolutif du système,
ceci dès l’étape de conception initiale, en identifiant les informations requises pour déterminer
si la QoS est correcte et si elle est non violée par une évolution. Ces informations
étant détenues par plusieurs intervenants, il est également nécessaire d’établir les points
d’interaction au cours du cycle de développement, au cours desquels les informations seront
partagées de façon à ce que le logiciel qui en est issu reste syntaxiquement et sémantiquement
cohérent et que les contrats de QoS soient (re)vérifiés a minima. Les contributions de
cette thèse sont donc mises en œuvre dans Blink, un cycle de développement pour l’évolution,
et Smile, un canevas de développement pour le maintien de la qualité de service lors de
l’évolution d’applications orientées service définies à base de processus métiers. Tandis que
le cycle de développement Blink vise à identifier les différents rôles présents dans l’équipe
de développement et à expliciter leurs interactions, le canevas Smile propose la réalisation
d’une boucle d’évolution. Cette boucle permet de concevoir, d’analyser et d’appliquer une
évolution, en détectant les potentielles violations de contrat de QoS. Pour cela, l’analyse
de l’évolution détermine son effet sur la QoS du logiciel, en établissant des relations de
causalité entre les différentes variables, opérations, services et autres parties du système.
Ainsi, en identifiant les éléments causalement affectés par l’évolution et en écartant ceux
qui ne le sont pas, notre approche permet de limiter le nombre d’éléments à (re)vérifier,
garantissant ainsi une étape d’évolution fiable, avec une étape de (re)vérification minimale.
Nous montrons sur un cas concret de système de gestion de crises, constitué de onze
processus métiers et de dix scénarios, que l’utilisation conjointe de Blink et de Smile
permet d’identifier, pour chaque évolution, quel sera son effet sur le reste du système, et si
la qualité de service sera maintenue ou non.An Agile, Reliable and Minimalist Approach to Preserve the QoS of
Business-Processes Based Applications during their Evolutions
Current softwares are built using "agile" development methods, to better consider the need
to adapt to new user requirements. Developers and designers are getting closer to future
software users by making short iterative cycles, where the future user gives a fast feedback
on the increment made to the software and emits new user requirement to be fulfilled in
future increments. These iterations can be seen as evolutions, as an answer to the definition
of a new user requirement, or due to a change in the execution environment or in the
architecture of the software. In the Service-Oriented Architecture (SOA) world, the design
of software is composed of service choreography, or service orchestration using business
processes. The design of these applications is equivalent to connecting the services control
flow and data flow. As a result, the evolution step becomes a complex step, where a simple
modification on a sub-part of a business process can have consequences on the entire system,
causing for example its slowing down at runtime. From the Quality of Service (QoS) point
of view, ensuring the fiability of the evolution process to maintain software QoS is critical.
As a result, it is necessary to propose agile, reliable evolution mecanisms ensuring QoS
preservation during the evolution of software made of business processes. In other words,
we need to control that an evolution does not violate any QoS contract initially set up.
Depending of the contract, this garanty must be established either at design time or at
runtime. In the latter case, the verification process must be minimal and local, in order to
not degrade the software performance.
To achieve this goal, we propose to realise an agile development cycle, centered on the
QoS preservation during the evolution. It is necessary to care about the evolutive concern
of a system from the initial design step, by identifying required information to determine
if the QoS continues to be correct and not violated by an evolution. Considering that this
information is known by many stakeholders, it is also necessary to set up interaction points
during the development cycle, during which information is shared in order to keep building a
syntactically and semantically coherent software and to minimally (re)check QoS contracts.
The contributions of this thesis are applied in Blink, a development cycle for evolution,
and Smile, a framework to maintain QoS during the evolution of a service-oriented software
made of business processes. While Blink is intended to identify the different actors and to
make their interactions explicit, Smile proposes the realisation of an evolution loop. This
loop enables the design, analysis and application of an evolution, by detecting the potential
QoS contract violation. The evolution analysis determines its effect on the software QoS,
by defining causal relations among variables, operations, services and other parts of the
system. In this way, by identifying elements that are causally affected by the evolution, and
by avoiding the elements that are not, our approach enables the limitation of the number of
elements to (re)check in order to assure a reliable evolution step, with a minimal (re)check
step.
We show on the concrete case of a crisis management system, composed of eleven business
processes and ten scenarios, that the combined use of Blink and Smile enables for
each evolution the identification of its effect on the system, and the QoS preservation of the
system.Remerciements
La thèse est une aventure, une expérience humaine qui vous marque profondément tant
elle change vos habitudes,votre façon de penser. J’ai vécu au cours de ces quatre dernières
années quelque chose de beau, d’intense, de douloureux et de décourageant aussi. Mais
c’est avant tout l’ensemble des rencontres faites durant ce laps de temps qui ont fait de
cette thèse un moment fort à mes yeux. Dans cette page, je n’aurai pas la prétention d’être
exhaustif, j’oublierai sûrement quelques personnes qui, je l’espère, ne m’en voudront pas.
Mais sachez juste que, qui que vous soyez, que je vous ai croisé de près ou de loin, merci à
vous d’avoir joué un rôle dans mon aventure doctorante.
Je voudrais remercier en premier lieu mes encadrants, Laurence et Seb, qui ont dû avoir
quelques cheveux blancs à cause de moi. Merci de vous être impliqué dans ces travaux,
d’avoir su garder patience avec moi. J’espère que vous ne m’en voulez pas trop de vous
avoir mené la vie dure. A titre postume, j’ai également une pensée profonde pour AnneFrançoise,
qui a su croire en moi ; qui m’a encouragé et qui a été derrière moi à mes débuts.
Merci à toi. J’aurais aimé que tu sois présente, auprès de nous.
Plus généralement, je voudrais remercier l’équipe Adam/Spirals, qui a été ma deuxième
famille. Merci aux permanents, avec leurs remarques, leurs discussions passionnantes, ou
leurs reculs. Merci enfin aux doctorants et ingénieurs de l’équipe, qui ont partagé avec moi
le stress des différentes présentations et autres deadlines d’articles. On ne le dit jamais
assez, une thèse, c’est pas une sinécure... Et puis merci à tous les collègues embarqués dans
la même galère : bravo, merci et courage au 4 autres compagnons ayant démarré cette folle
aventure avec moi : Adel, Nico, Rémi et Rémi. Bonne continuation à vous, en espérant que
vous garderez le même souvenir d’Inria que moi.
Un clin d’œil pour Clément, frère de thèse, qui a su m’accueillir à Lille malgré son accent
sudiste, qui m’a fait découvrir de nombreux endroits sympathiques. J’ai beaucoup apprécié
nos longues conversations, autant scientifiques que footballistiques. J’espère que tu mèneras
une longue et brillante carrière académique, en démarrant par Milan. Obrigado également
à Antonio, mon frère de bière, compagnon de nuit et de braderie, qui m’a fait découvrir sa
culture, son pays, et bien plus encore. J’ai été heureux de faire ta connaissance, en espérant
te re-croiser un jour, ou dans une vie future. Je ne pourrai pas écrire ces remerciements sans
penser à mes camarades de l’association des doctorants, Tilda. Tout particulièrement, je
voudrais saluer Fabien et sa bonne humeur, avec qui j’ai eu le plaisir de travailler. Enfin, un
immense merci à Julie, voisine de thèse, compagnon de pause café et motivatrice intarissable.
Merci de m’avoir épaulé autant dans ma thèse que dans ma vie perso.
Enfin, merci à ma famille, qui m’a soutenu tout au long de ces quatre dernières années,
dans les bons et les mauvais moments. Merci d’avoir été auprès de moi, d’avoir cru en moi,
lorsque moi-même je n’y croyais plus. Encore une fois, merci à vous. Merci également à
tous mes amis sudistes, qui ont sû rester en contact avec moi, malgré la grande distance
séparant mon sud natal de cette terre d’accueil qu’a été le Nord. Je ne citerai personne
de peur d’oublier quelqu’un, exception faite bien sûr de Laetitia, qui a été mon accroche
immuable tout au long du doctorat. Tu as su rester auprès de moi malgré la distance, l’eau
qui coulait sur les ponts, et nos chemins qui tendaient à bifurquer. Tu as été présente au
bout du téléphone lorsque j’allais bien, lorsque j’allais mal, quand j’avais envie de parler
politique, ou simplement de la pluie et du beau temps pour oublier les difficultés de la
journée passée. Plus encore, c’est sans nul doute grâce à toi si aujourd’hui, je suis docteur...
(le 13ème ?) C’est toi qui, au moment où j’avais envie de baisser les bras, là où je ne voyais
plus aucun espoir ni réconfort, a réussi non seulement à me donner la force de terminer
ma thèse, mais qui m’a en plus redonné l’envie de sourire, et qui m’a donné un but en
m’attendant patiemment dans notre nouvelle contrée toulousaine. Merci, merci infiniment.
iiiTable des matières
Table des matières
1 Introduction 1
1.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Défis pour maintenir la qualité de service lors de l’évolution . . . . . . . . . 2
1.3 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Organisation du document . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Liste des publications liées à cette thèse . . . . . . . . . . . . . . . . . . . . 5
I Contexte et Motivations 7
2 Contexte 9
2.1 Les architectures orientées services . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.2 Organisation des architectures orientées services . . . . . . . . . . . 10
2.2 La Qualité de Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1 Qualité du logiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2 Méthodes de détermination de la qualité de service . . . . . . . . . . 14
2.2.3 Contrats de Qualité de Service . . . . . . . . . . . . . . . . . . . . . 17
2.3 Évolution des systèmes logiciels . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.1 Définition de l’évolution . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2 Caractéristiques d’une évolution . . . . . . . . . . . . . . . . . . . . 18
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 État de l’art 25
3.1 Processus de développement . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.1 Les processus de développement généralistes . . . . . . . . . . . . . . 26
3.1.2 Les processus de développement spécialisés SOA . . . . . . . . . . . 27
3.1.3 Prise en compte de la Qualité de Service . . . . . . . . . . . . . . . . 28
3.1.4 Prise en compte de l’évolution . . . . . . . . . . . . . . . . . . . . . 28
3.1.5 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Analyse d’impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1 Fondements de la causalité . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.2 Application de la causalité : les analyses d’impact . . . . . . . . . . 30
3.2.3 Analyse d’impact pour la qualité de service . . . . . . . . . . . . . . 32
3.2.4 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Conclusion de l’état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4 Présentation du cas d’étude 37
4.1 Séduite, un système de diffusion d’informations à base de processus métiers 37
4.2 PicWeb, un processus métier de recherche d’images . . . . . . . . . . . . . 39
4.2.1 Description de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 Évolution de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . . 40Table des matières
II Contributions 41
5 Un processus de développement pour le maintien de la qualité de service 43
5.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Définition des acteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.3 Description du processus de développement . . . . . . . . . . . . . . . . . . 44
5.4 Coopération entre acteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6 Modélisation d’un système à base de processus métiers 51
6.1 Défis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2 Modélisation du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2.2 Variables et types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2.3 Messages et Opérations . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2.4 Services . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.2.5 Activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.6 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.2.7 Processus métier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2.8 Système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3 Causalité de l’exécution d’un système . . . . . . . . . . . . . . . . . . . . . 58
6.3.1 Mise en œuvre de la causalité . . . . . . . . . . . . . . . . . . . . . . 59
6.3.2 Relations causales fonctionnelles . . . . . . . . . . . . . . . . . . . . 59
6.3.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.4 Déduction des relations causales d’un système . . . . . . . . . . . . . . . . . 61
6.4.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4.2 Expression des règles causales . . . . . . . . . . . . . . . . . . . . . . 62
6.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7 Modélisation de la qualité de service pour l’évolution 65
7.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.2 Modélisation de la qualité de service d’un système . . . . . . . . . . . . . . 66
7.2.1 Propriété, unité et critère de comparaison . . . . . . . . . . . . . . . 67
7.2.2 Domaine d’application . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2.3 Valeur de propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.2.4 Influence et ressource . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.2.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.3 Définition des relations causales de propriété . . . . . . . . . . . . . . . . . 69
7.3.1 Relations d’environnement . . . . . . . . . . . . . . . . . . . . . . . . 71
7.3.2 Relations de dérivation de propriétés . . . . . . . . . . . . . . . . . . 71
7.3.3 Relations d’agrégation de valeurs . . . . . . . . . . . . . . . . . . . . 73
7.3.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.4 QoS4Evol, un langage de description de la qualité de service . . . . . . . . . 74
7.4.1 Présentation de QoS4Evol . . . . . . . . . . . . . . . . . . . . . . . . 75
7.4.2 Définition du langage . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.4.3 Caractéristiques du langage . . . . . . . . . . . . . . . . . . . . . . . 76
7.5 Déduction des règles causales d’une propriété . . . . . . . . . . . . . . . . . 77
7.5.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.5.2 Obtention des relations causales d’environnement . . . . . . . . . . . 78
7.5.3 Obtention des relations causales de dérivation . . . . . . . . . . . . . 79
viTable des matières
7.5.4 Obtention des relations causales d’agrégation . . . . . . . . . . . . . 79
7.5.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8 Analyse de l’évolution du logiciel orientée QoS 83
8.1 Présentation générale du processus d’évolution . . . . . . . . . . . . . . . . 84
8.1.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.1.2 Spécification du processus d’évolution . . . . . . . . . . . . . . . . . 84
8.1.3 Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2 Un langage pour l’évolution des processus métier . . . . . . . . . . . . . . . 86
8.3 Spécification de l’analyse de l’évolution . . . . . . . . . . . . . . . . . . . . . 87
8.3.1 Aperçu des différentes étapes . . . . . . . . . . . . . . . . . . . . . . 88
8.3.2 Étape 1 : mise à jour du modèle causal . . . . . . . . . . . . . . . . . 89
8.3.3 Étape 2 : analyse causale . . . . . . . . . . . . . . . . . . . . . . . . 92
8.3.4 Étape 3 : re-vérification . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.3.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.4 Résultat de l’analyse et prise de décision . . . . . . . . . . . . . . . . . . . . 96
8.4.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
8.4.2 Vérification des contrats . . . . . . . . . . . . . . . . . . . . . . . . . 97
8.4.3 Détermination des causes racines . . . . . . . . . . . . . . . . . . . . 98
8.4.4 Déploiement et retour en arrière (roll-back) . . . . . . . . . . . . . . 99
8.4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
III Validation 103
9 Mise en œuvre et utilisation de Smile 105
9.1 Réalisation de Smile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.1.1 Présentation du canevas . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.1.2 Besoins des utilisateurs de Smile . . . . . . . . . . . . . . . . . . . . 106
9.1.3 Architecture de Smile . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.2 Smile pour la description du système . . . . . . . . . . . . . . . . . . . . . 109
9.2.1 Import de système . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9.2.2 Description des règles causales . . . . . . . . . . . . . . . . . . . . . 111
9.3 Smile pour la qualité de service . . . . . . . . . . . . . . . . . . . . . . . . 113
9.3.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
9.3.2 Description d’une propriété . . . . . . . . . . . . . . . . . . . . . . . 113
9.3.3 Gestion des règles causales de propriété . . . . . . . . . . . . . . . . 114
9.3.4 Collecte des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
9.3.5 Description d’un contrat . . . . . . . . . . . . . . . . . . . . . . . . . 116
9.4 Smile pour l’évolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
9.4.1 Description d’une évolution . . . . . . . . . . . . . . . . . . . . . . . 117
9.4.2 Analyse causale de l’évolution . . . . . . . . . . . . . . . . . . . . . . 118
9.4.3 Contrôle à l’exécution . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.5 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
viiTable des matières
10 Evaluation 121
10.1 Défis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
10.2 Cas d’étude : le Système de gestion de crises . . . . . . . . . . . . . . . . . . 122
10.2.1 Contexte du cas d’étude . . . . . . . . . . . . . . . . . . . . . . . . . 122
10.2.2 Description du scénario . . . . . . . . . . . . . . . . . . . . . . . . . 123
10.2.3 Cas d’utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
10.3 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
10.4 Évolutions du scénario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
10.4.1 Évolutions pour la construction du système . . . . . . . . . . . . . . 128
10.4.2 Évolutions du processus Gestion de la Mission . . . . . . . . . . . . 129
10.5 Évaluation quantitative des contributions . . . . . . . . . . . . . . . . . . . 132
10.5.1 Comparaison des éléments à re-vérifier . . . . . . . . . . . . . . . . . 132
10.6 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
10.7 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
IV Conclusion 137
11 Conclusion et Travaux Futurs 139
11.1 Résumé des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
11.2 Perspectives à court terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
11.3 Perspectives à long terme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
viiiTable des figures
Table des figures
2.1 Exemple de détermination par dérivation. . . . . . . . . . . . . . . . . . . . 16
2.2 Exemple de détermination par agrégation. . . . . . . . . . . . . . . . . . . . 16
4.1 Utilisation de Séduite au cours de la nuit de l’info. . . . . . . . . . . . . . . 38
4.2 Architecture de Séduite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Évolutions de PicWeb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.1 Schéma du processus de développement Blink. . . . . . . . . . . . . . . . . 46
6.1 Extrait du méta-modèle de Smile : variables et types. . . . . . . . . . . . . 53
6.2 modélisation du service Helper. . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.3 Extrait du méta-modèle de Smile : services, opérations et messages. . . . . 55
6.4 Extrait du méta-modèle de Smile : activités. . . . . . . . . . . . . . . . . . 55
6.5 Extrait du modèle de PicWeb : activité receive. . . . . . . . . . . . . . . . 55
6.6 Extrait du modèle de PicWeb : relations d’ordre. . . . . . . . . . . . . . . 57
6.7 Extrait du méta-modèle : relations d’ordre. . . . . . . . . . . . . . . . . . . 57
6.8 Extrait du méta-modèle : processus métier. . . . . . . . . . . . . . . . . . . 58
6.9 Modèle causal fonctionnel de PicWeb. . . . . . . . . . . . . . . . . . . . . . 60
6.10 Procédé de déduction des relations causales. . . . . . . . . . . . . . . . . . . 62
7.1 Modèle et méta-modèle d’une propriété. . . . . . . . . . . . . . . . . . . . . 67
7.2 Modèle et méta-modèle du domaine d’application. . . . . . . . . . . . . . . 68
7.3 Méta-Modèle de propriété : Valeurs de propriété. . . . . . . . . . . . . . . . 69
7.4 Modèle du temps de réponse : Valeurs de propriété. . . . . . . . . . . . . . . 70
7.5 Modèle et méta-modèle des facteurs d’influence. . . . . . . . . . . . . . . . . 71
7.6 Modèle causal enrichi avec les relations d’environnement. . . . . . . . . . . 72
7.7 Modèle causal enrichi avec les relations de dérivation. . . . . . . . . . . . . 72
7.8 Modèle causal enrichi avec les relations d’agrégation. . . . . . . . . . . . . . 73
7.9 Définition du Temps de Réponse. . . . . . . . . . . . . . . . . . . . . . . . . 75
7.10 Chaîne de déduction des relations causales de propriété. . . . . . . . . . . . 78
8.1 Processus d’évolution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2 Évolution de PicWeb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.3 Étapes de l’analyse de l’évolution. . . . . . . . . . . . . . . . . . . . . . . . 88
8.4 Traduction de l’évolution en actions sur le modèle causal. . . . . . . . . . . 90
8.5 Application à PicWeb de l’analyse causale. . . . . . . . . . . . . . . . . . . 93
8.6 Application à PicWeb de l’analyse causale. . . . . . . . . . . . . . . . . . . 94
8.7 Obtention des données brutes. . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.8 Contrat de QoS qualifiant le temps de réponse de PicWeb. . . . . . . . . . 98
8.9 Détermination des causes racines de la violation du contrat de PicWeb. . . 100
9.1 Diagramme des cas d’utilisation de Smile. . . . . . . . . . . . . . . . . . . . 107
9.2 Architecture de Smile. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
9.3 Procédé dirigé par les modèles de l’approche Smile. . . . . . . . . . . . . . 109
9.4 Import de PicWeb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
9.5 Extrait de fichier composite. . . . . . . . . . . . . . . . . . . . . . . . . . . . 111Table des figures
9.6 Méta-modèle du modèle causal. . . . . . . . . . . . . . . . . . . . . . . . . . 112
9.7 Extrait d’une règle causale écrite en ATL. . . . . . . . . . . . . . . . . . . . 112
9.8 Processus de la partie QoS de Smile. . . . . . . . . . . . . . . . . . . . . . . 114
9.9 Chaîne d’outillage pour la description d’une propriété. . . . . . . . . . . . . 115
9.10 Méta-Modèle de traces de Smile. . . . . . . . . . . . . . . . . . . . . . . . . 115
9.11 Modélisation des contrat de qualité de service. . . . . . . . . . . . . . . . . 116
9.12 Méta-Modèle d’évolution de Smile. . . . . . . . . . . . . . . . . . . . . . . . 117
9.13 Utilisation de l’éditeur d’évolutions de Smile. . . . . . . . . . . . . . . . . . 118
10.1 Description des différents rôles opérationnels. . . . . . . . . . . . . . . . . . 123
10.2 Description des différents rôles d’observation. . . . . . . . . . . . . . . . . . 124
10.3 Description des différents rôles stratégiques. . . . . . . . . . . . . . . . . . . 124
10.4 Architecture du système de gestion de crises. . . . . . . . . . . . . . . . . . 127
10.5 Graphe de dépendance des processus métiers du système de gestion de crises. 127
10.6 Évolution de la taille du modèle causal au cours de la construction du système.128
10.7 Processus métier du cas d’utilisation "Exécution de la mission". . . . . . . . 129
10.8 Évolution du processus métier Gestion de la mission : UnavailableIntRes. . 130
10.9 Évolution du processus métier Gestion de la mission : UnavailableExtRes. . 131
10.10Évolution du processus métier Gestion de la mission : RehandleOnChange. 132
10.11Extrait du modèle causal du processus métier Gestion de la mission après
l’évolution RehandleOnChange. . . . . . . . . . . . . . . . . . . . . . . . . . 133
xListe des tableaux
Liste des tableaux
2.1 Taxonomie d’une évolution : la dimension "Où". . . . . . . . . . . . . . . . 19
2.2 Taxonomie d’une évolution : la dimension "Quoi". . . . . . . . . . . . . . . 20
2.3 Taxonomie d’une évolution : la dimension "Quand". . . . . . . . . . . . . . 21
2.4 Taxonomie d’une évolution : la dimension "Comment". . . . . . . . . . . . . 22
2.5 Récapitulatif des hypothèses de travail. . . . . . . . . . . . . . . . . . . . . . 23
3.1 Comparatif des différents processus de développement. . . . . . . . . . . . . 29
3.2 Comparatif des différentes analyses d’impact. . . . . . . . . . . . . . . . . . 35
5.1 Rôles intervenants dans la réalisation d’un système. . . . . . . . . . . . . . . 45
5.2 Description des étapes 0 à 2 du processus de développement (Blink). . . . 47
5.3 Description des étapes 3 à 5 du processus de développement (Blink). . . . 48
5.4 Description de l’étape 6 du processus de développement (Blink). . . . . . . 49
6.1 Règle causale pour les relations causales de paramètre d’entrée. . . . . . . . 62
6.2 Règle causale pour les relations causales de paramètre de sortie. . . . . . . . 63
7.1 Formules d’agrégation du temps de réponse. . . . . . . . . . . . . . . . . . . 76
7.2 Règle de production des relations causales d’environnement. . . . . . . . . . 78
7.3 Règle causale d’environnement générée. . . . . . . . . . . . . . . . . . . . . 78
7.4 Règle de production des relations causales de dérivation. . . . . . . . . . . . 79
7.5 Règle causale de dérivation générée. . . . . . . . . . . . . . . . . . . . . . . 79
7.6 Règle de production des relations causales d’agrégation. . . . . . . . . . . . 80
7.7 Règle causale d’agrégation générée. . . . . . . . . . . . . . . . . . . . . . . . 80
8.1 Liste des opérations d’évolution. . . . . . . . . . . . . . . . . . . . . . . . . 86
8.2 Correspondance entre opérations d’évolution et actions du modèle causal. . 90
8.3 Génération de la mise à jour du modèle causal de PicWeb. . . . . . . . . . 91
8.4 Description de l’opération collecte. . . . . . . . . . . . . . . . . . . . . . . . 92
9.1 Description des fonctionnalités par module. . . . . . . . . . . . . . . . . . . 108
10.1 Nombre de valeurs de propriété à re-vérifier pour chaque méthode d’analyse. 134Chapitre 1
Introduction
Sommaire
1.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Défis pour maintenir la qualité de service lors de l’évolution . . 2
1.3 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Organisation du document . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Liste des publications liées à cette thèse . . . . . . . . . . . . . . . 5
L
’informatique prend aujourd’hui une place de plus en plus grande dans le quotidien des
personnes, et dans le quotidien des entreprises. L’outil numérique développé au cours
du dernier siècle est aujourd’hui omniprésent dans la société. Cela se traduit par l’existence
de nombreux systèmes logiciels, allant du simple jeu sur un téléphone portable au moteur de
recherche utilisé massivement. Ces systèmes, qui autrefois étaient monolithiques et centralisés,
sont devenus avec l’apogée de l’Internet et l’augmentation de la taille des organisations
des entreprises des systèmes distribués, de taille conséquente, et à la complexité croissante.
Les architectures orientées services (SOA) constituent une solution permettant de maî-
triser cette complexité. La conception d’applications se matérialise par le biais de la chorégraphie
ou de l’orchestration de services à l’aide de processus métiers, offrant ainsi un
mécanisme de composition permettant de gagner en abstraction et de réduire la complexité.
En ce sens, concevoir une application reposant sur les principes des architectures orientées
services consiste à mettre en relation les flots de contrôle et de données de ces services.
Au delà de la nécessité de produire des systèmes correspondant aux besoins des utilisateurs,
la qualité de service (QoS), définie par Crnkovic et al. comme "une caractérisation
de tout ou d’une partie du système, selon une préoccupation particulière" [Crnkovic 2005],
constitue une préoccupation à gérer au cours du développement de logiciels. L’analyse et le
maintien de la QoS d’un système sont des opérations critiques, car la QoS sert de base à
l’établissement de contrats de service entre fournisseurs et utilisateurs, et un non-maintien
de la QoS entrainerait une rupture de contrat. De par la composition des services, la dé-
termination de la QoS d’une orchestration s’effectue par calcul, dépendant ainsi de la QoS
des services la constituant. C’est ce que l’on appelle l’agrégation [Cardoso 2004].
Les logiciels que nous considérons ici, dont la taille et la complexité échappent à la
compréhension d’une seule personne, sont amenés à être modifiés tout au long de leur cycle
de vie. Les modifications opérées, que l’on appelle dans ce document évolutions, sont la
conséquence/réaction d’un changement de besoins de la part des utilisateurs, d’un changement
survenu dans l’environnement d’exécution ou encore dans l’architecture du système.
Ces évolutions, de par la modification du comportement du système qu’elles entraînent,
impliquent de s’assurer que la QoS n’a pas été détériorée. Ainsi, lors de chaque évolution,
les changements effectués sur le logiciel impliquent de re-vérifier la QoS de l’ensemble du
système.1.1. Problématique
1.1 Problématique
Dans un contexte où les attentes en termes de fonctionnalités et de qualités du logiciel
sont fortes, faire évoluer ce dernier est un processus critique, tant par l’effet que l’évolution
peut avoir que par la nécessité d’un processus court permettant d’être réactif à l’égard des
utilisateurs. Il est parfois même nécessaire d’appliquer l’évolution au cours même de leur
exécution. Dans ce cas, il est vital d’établir un processus d’évolution court et minimal, pour
ne pas parasiter ou ralentir son fonctionnement. Il s’agit ici d’un problème complexe, où
la nécessité d’effectuer une évolution maintenant les propriétés de QoS implique une collaboration
proche entre les différentes expertises de l’équipe de développement, notamment
entre l’expertise de la QoS et celle de l’évolution. Le processus d’évolution nécessite d’être
court dans sa réalisation, tout en s’assurant du maintien de la QoS du logiciel. L’objectif est
donc ici de minimiser la re-vérification des propriétés de QoS, en déterminant de manière
précise quelles parties du logiciel ont été réellement affectées par l’évolution.
Dans le cadre de cette thèse, nous nous intéressons tout particulièrement aux systèmes
reposant sur une architecture orientée services, pour lesquels le comportement est représenté
à l’aide de processus métiers. Les mécanismes d’évolution à définir doivent permettre d’établir
l’effet d’une évolution sur le reste du système, afin d’éviter un ensemble de dépendances
cachées entre les éléments. De plus, le processus d’évolution devra garantir le maintien des
contrats de qualité de service. Il s’agit donc non seulement de comprendre l’effet d’une évolution
sur le reste du système, mais également sur les différentes propriétés de QoS ayant
un intérêt pour l’équipe de développement ou pour la communauté d’utilisateurs. Enfin,
ces mécanismes d’évolution devront prendre en compte la répartition des compétences et
des expertises de l’équipe de développement, en définissant les différents rôles nécessaires à
un processus d’évolution fiable en termes de QoS, et en identifiant les points d’interaction
entre ces différents rôles pour partager leurs expertises propres.
1.2 Défis pour maintenir la qualité de service lors de
l’évolution
L’objectif de cette thèse est de fournir à l’équipe de développement et de maintenance les
outils permettant de s’assurer que la qualité de service est maintenue au cours des différentes
évolutions du logiciel, tout au long de son cycle de vie. Le maintien de la QoS lors d’une
évolution est une tâche complexe, nécessitant la collaboration de différentes expertises telles
que l’expertise du métier, de l’environnement d’exécution, ou encore de la propriété de QoS
considérée.
De plus, le contexte des architectures orientées services positionne notre travail dans un
environnement où l’agilité du développement est pré-dominante. En effet, avec des changements
fréquents des besoins des utilisateurs, mais également des services externes utilisés,
la fiabilité de la QoS et son maintien dans de tels systèmes sont des valeurs importantes.
Nous énumérons dans cette section les différents défis liés à l’évolution d’un logiciel en
terme de qualité de service :
1. Collaboration entre acteurs : pour gérer une évolution et assurer le maintien de la
qualité de service d’un système, la connaissance et la coopération des acteurs œuvrant
au niveau du système développé, des propriétés de qualité de service étudiées, et des
évolutions sont nécessaires. En effet, effectuer une évolution tout en s’assurant du
maintien de la qualité de service requiert une connaissance transversale à ces différents
domaines, que seule la coopération peut apporter. L’identification des différents rôles
et des différentes expertises au sein de l’organisation permettront de concevoir et de
21.3. Proposition
faire évoluer un système où la qualité de service est l’une des préoccupations. Cette
identification est nécessaire dans le but de responsabiliser et de définir les différentes
collaborations à mettre en place.
2. Interactions entre les différentes parties d’un logiciel : le logiciel réalisé par
l’équipe de développement est bien souvent constitué de sous-parties, qui interagissent
pour proposer des fonctionnalités attendues par les utilisateurs. Ces interactions in-
fluent sur la qualité du service du système, et sont bien souvent implicites. L’identi-
fication explicite des interactions entre les éléments d’un système permet d’améliorer
la compréhension du système dans son ensemble, notamment lors d’une évolution.
3. Minimisation de la vérification : afin de s’assurer du maintien de la qualité de
service, l’étape de l’évolution est accompagnée d’une étape de vérification, où chaque
propriété de QoS est contrôlée pour l’ensemble du système. Toutefois, avec l’augmentation
de la taille des systèmes, cette phase peut devenir chronophage. Ce phénomène
s’accentue si l’on considère des systèmes développés de manière agile, où les évolutions
sont fréquentes. Dans ces conditions, l’étape de vérification doit être la plus rapide
possible afin de ne pas interférer avec le bon fonctionnement du système et de ne pas
dégrader ses performances. Nous devons rendre l’étape de vérification la plus rapide
possible, en minimisant le nombre d’éléments à re-vérifier.
4. Identification de la cause de la violation d’un contrat : lorsqu’une évolution
viole un contrat de QoS, l’équipe de développement a pour tâche de détecter l’origine
de cette violation, dans le but de pouvoir corriger l’évolution. Partant du contrat
violé, il s’agit donc d’identifier l’ensemble des interactions du logiciel impliquées dans
la dégradation de la QoS, afin de cibler au plus près son origine. Pour cela, nous
cherchons à établir les dépendances existant entre l’exécution du logiciel et sa qualité
de service.
1.3 Proposition
Pour répondre à ces défis, nous présentons dans cette thèse un ensemble de contributions
constituant un mécanisme d’évolution à la fois agile dans la réaction aux besoins de
l’utilisateur, fiable dans le maintien de la qualité de service une fois l’évolution réalisée, et
minimale, dans le sens où le processus de vérification de la qualité de service doit être le
plus court possible dans le cas où l’évolution s’opèrerait à l’exécution.
Ces contributions s’articulent autour d’un cycle de développement agile, nommé Blink,
portant une attention particulière sur le maintien de la QoS lors de l’évolution. Notre cycle
de développement met au centre des préoccupations la notion d’évolution comme élément
à prendre en compte dès les premières étapes de conception du logiciel. En identifiant les
différents rôles nécessaires au maintien de la QoS de l’évolution, Blink permet d’identifier
l’ensemble des informations devant être fourni, et de délimiter les points d’interaction dans
le but d’échanger ces informations.
En complément du processus de développement, nous présentons Smile, un canevas
de développement mettant en œuvre Blink. Celui-ci implémente une boucle d’évolution,
permettant de concevoir, d’analyser et d’appliquer une évolution, en portant une attention
particulière au maintien de la qualité de service. Le but de cette boucle est de déterminer au
plus tôt l’effet que peut avoir une évolution sur le reste du système et sur sa QoS. Pour cela,
notre analyse de l’évolution consiste à déterminer les relations de causalité qu’une évolution
a sur le reste du système. Il s’agit ici d’utiliser ces relations causales, dans le but d’identifier
les différents éléments affectés et de re-vérifier par la suite si la qualité de service de ces
éléments a été affectée. Cela permet ainsi de pouvoir identifier dans un premier temps la
31.4. Organisation du document
portée d’une évolution, afin de pouvoir dans un second temps minimiser le processus de
re-vérification.
En résumé, les contributions de la thèse sont les suivantes :
– Blink, un processus de développement collaboratif pour le maintien de la
QoS lors de l’évolution : nous définissons dans ce document un processus de développement
pour lequel la problématique du maintien de la QoS lors de l’évolution est
au centre des préoccupations. Pour cela, nous définissons un ensemble d’acteurs, devant
collaborer tout au long du cycle de développement en partageant les informations
propres à leur expertise qui pourraient être utile au maintien.
– Une méthode de détermination des interactions entre les différentes parties
du système : nous définissons dans un premier temps quels types d’influence nous
pouvons retrouver dans un système et au niveau de la qualité de service. Puis, nous
présentons une méthode permettant, à partir d’un système et de la description d’une
propriété de qualité de service, de déterminer de manière automatique ces influences.
– Une analyse d’évolution permettant de déterminer l’effet d’une évolution
sur la QoS du système : en réutilisant les modèles représentant les interactions
existantes au sein d’un système, nous présentons une analyse permettant, à partir
d’une évolution, de savoir l’effet de cette dernière au sein du système, mais également
de déterminer si un contrat de QoS a été violé ou non, gage du maintien de la QoS.
– Smile, un canevas de développement automatisant les différents traitements
nécessaires à Blink : nous introduisons dans ce document notre canevas
supportant les différents points abordés ci-dessus, et montrons ce que ce canevas de
développement apporte lors de l’évolution.
Afin de valider l’apport de notre approche dans le maintien de la QoS lors de l’évolution,
nous appliquons Blink et Smile sur un cas d’étude nommé Système de gestion de crises.
Lors de cette validation, nous vérifions notamment si notre outil est en mesure de détecter
le non-maintien de la QoS lors de l’évolution du cas d’étude.
1.4 Organisation du document
Ce document est organisé en trois parties :
1. La première partie se concentre sur le contexte et les motivations de la thèse. Dans
le chapitre 2, nous posons le contexte de travail, d’un point de vue conceptuel et
technologique. Nous définissons ici les notions liées aux architectures orientées services,
à la qualité de service, et à l’évolution des systèmes logiciels. Dans le chapitre 3, nous
dressons l’état de l’art des travaux de recherche sur ce domaine. Pour cela, nous
nous focalisons sur deux axes, à savoir les cycles de développement d’un logiciel,
et les différentes analyses d’impact pouvant déterminer l’effet d’une évolution, ou
d’un changement en général. Enfin, dans le chapitre 4, nous décrivons PicWeb, que
nous utilisons comme exemple fil rouge nous permettant d’illustrer les différentes
contributions de la thèse. Après avoir présenté l’exemple, nous expliquons comment
un problème de qualité de service est survenu lors de son évolution.
2. La deuxième partie regroupe les contributions de la thèse, réparties en quatre chapitres.
Dans le chapitre 5, nous présentons Blink, un processus de développement
orienté pour le maintien de la qualité de service au cours des différentes évolutions.
Nous mettons notamment en évidence les différents acteurs nécessaires au maintien
de la QoS. Les chapitres 6 à 8 se focalisent alors successivement sur chaque acteur
41.5. Liste des publications liées à cette thèse
impliqué dans Blink. Le chapitre 6 se centre sur la réalisation d’un système, et
sur le rôle de l’architecte du système. Nous définissons un méta-modèle permettant
de représenter un système à base de processus métiers. Puis, nous introduisons la
notion de causalité dans un système, permettant de représenter les interactions entre
ses différentes parties, et dressons une liste de causalités que l’on peut retrouver. Le
chapitre 7 est focalisé sur le rôle de l’expert en qualité de service. Nous présentons
ici notre méta-modèle pour représenter une propriété, ainsi que QoS4Evol, un langage
permettant à l’expert en QoS de la définir de manière textuelle. De manière similaire
au chapitre précédent, nous définissons ensuite la notion de causalité pour les propriétés
de qualité de service. Nous listons les différents types de relation causale que
nous pouvons retrouver pour une propriété de QoS, et les illustrons sur PicWeb.
Enfin, nous présentons une méthode permettant d’extraire automatiquement les relations
causales de la description d’une propriété. Le chapitre 8 porte sur l’architecte
de l’évolution. Nous introduisons un langage d’évolution des processus métiers, permettant
d’ajouter ou de supprimer des fonctionnalités. Puis, nous nous focalisons sur
l’étape d’analyse d’une évolution, où nous utilisons les relations causales présentées
dans les chapitres précédents pour déterminer l’effet d’une évolution sur la qualité de
service d’un système, et ainsi qualifier si une évolution permet le maintien de la QoS
ou non.
3. La troisième partie du document s’intéresse à l’évaluation de notre approche. Le chapitre
9 détaille la mise en œuvre des différentes contributions au travers de notre
canevas, Smile, tandis que le chapitre 10 est une évaluation de notre approche sur un
autre cas d’étude, le système de gestion de crise. Ce cas d’étude a l’avantage d’être de
taille plus importante que PicWeb, d’être constitué de plusieurs processus métiers,
et d’être doté d’une base d’évolutions conséquentes. Enfin, nous terminons avec le
chapitre 11, où nous faisons le bilan des différents chapitres de la thèse, et présentons
quelques pistes à explorer dans de futurs travaux.
1.5 Liste des publications liées à cette thèse
Les communications mentionnées ci-dessous ont été réalisées dans des manifestations
avec comité de sélection.
Communications internationales
– A Causal Model to predict the Effect of Business Process Evolution on
Quality of Service. Alexandre Feugas, Sébastien Mosser et Laurence Duchien.
Dans International Conference on the Quality of Software Architectures (QoSA’13),
pages 143-152, Vancouver, Canada, juin 2013. (Rang A selon le classement CORE
Austalian)
Communications nationales
– Déterminer l’impact d’une évolution dans les processus métiers. Alexandre
Feugas, Sébastien Mosser, Anne-Françoise Le Meur et Laurence Duchien. Dans IDM,
pages 71-76, Lille, France, juin 2011.
51.5. Liste des publications liées à cette thèse
Posters
– Un processus de développement pour contrôler l’évolution des processus
métiers en termes de QoS. Alexandre Feugas, Sébastien Mosser et Laurence Duchien.
Poster dans GDR GPL, pages 237-238, Rennes, France, Juin 2012.
6Première partie
Contexte et MotivationsChapitre 2
Contexte
Sommaire
2.1 Les architectures orientées services . . . . . . . . . . . . . . . . . . 9
2.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.2 Organisation des architectures orientées services . . . . . . . . . . . 10
2.2 La Qualité de Service . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1 Qualité du logiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2 Méthodes de détermination de la qualité de service . . . . . . . . . . 14
2.2.3 Contrats de Qualité de Service . . . . . . . . . . . . . . . . . . . . . 17
2.3 Évolution des systèmes logiciels . . . . . . . . . . . . . . . . . . . . 17
2.3.1 Définition de l’évolution . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2 Caractéristiques d’une évolution . . . . . . . . . . . . . . . . . . . . 18
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
N
ous avons présenté dans l’introduction l’objectif de cette thèse. Dans ce chapitre,
nous présentons ses enjeux d’un point de vue conceptuel et technologique : nous abordons
dans un premier temps les architectures orientées services. Puis, nous présentons la
notion de qualité de service, ainsi que les approches existantes permettant de l’étudier.
Nous introduisons enfin la définition de l’évolution : quelles notions se trouvent derrière ce
concept, comment l’équipe de développement s’y prend pour faire évoluer un logiciel.
2.1 Les architectures orientées services
2.1.1 Définitions
Les architectures orientées services (SOA) sont un nouveau paradigme de conception apparu
dans la fin des années 90. Il existe différentes définitions pour caractériser les architectures
orientées service. Parmi elles, nous pouvons retenir la définition du W3C [Haas 2004] :
Définition 1
Architecture Orientée Services (W3C) : "une architecture orientée services regroupe
un ensemble de composants qui peuvent être invoqués, et pour lesquels les descriptions
de leurs interfaces peuvent être publiées et découvertes".
Cette définition peut être complétée par une autre définition, d’IBM :
Définition 2
Architecture Orientée Services (IBM) : "une architecture orientée services est un
canevas d’information qui considère les applications métiers de tous les jours pour les
fragmenter en fonctions et processus métiers individuels, appelés services. Une architecture
orientée service permet la construction, le déploiement et l’intégration de ces2.1. Les architectures orientées services
services indépendamment des applications et des plate-formes d’exécution".
De ces deux définitions, nous pouvons comprendre que la notion de service, comme entité
de calcul invocable, et pour lequel une interface est définie, est principale. Ces services sont
indépendants, ils sont déployés pour pouvoir par la suite être publiés, découverts et invoqués.
Il existe différentes technologies dites orientées services, reprenant les principes des architectures
orientées services plus ou moins fidèlement. Parmi elle, nous retiendrons notamment
les web-services [Kuebler 2001], où l’on considère que les services sont définis et exposés en
utilisant les standards du Web.
Propriétés remarquables
Les architectures orientées service ont été définies pour concevoir des systèmes logiciels
pour lesquels les entités de première classe sont les services, des entités autonomes,
invocables, dont l’interface est clairement explicitée. Plusieurs travaux ont proposé la caractérisation
des architectures orientées services [Papazoglou 2003, Huhns 2005, Breivold 2007,
Papazoglou 2007]. Dans la suite, nous recensons les propriétés suivantes :
– Couplage lâche des éléments : afin de pouvoir faciliter la reconfiguration d’un
service, e.g., son remplacement, les éléments d’un système doivent bénéficier d’un
couplage lâche, c’est-à-dire qu’il n’est pas nécessaire pour un appelant à un service
de connaître la structure ou l’implémentation de ce dernier pour pouvoir l’utiliser.
De même, une façon de permettre un couplage lâche au niveau d’un service consiste
à séparer l’interface de l’opération et son implémentation. Cela offre la possibilité de
pouvoir modifier l’implémentation, ou de pouvoir exposer facilement l’interface du
service.
– Neutralité technologique : pour permettre à tout système d’interagir avec un
service, la dépendance à un contexte technologique donné est à proscrire. Cette propriété
s’inscrit dans un contexte d’inter-opérabilité, facilitant ainsi l’établissement de
partenariats entre différentes organisations.
– Transparence de la localisation : un service doit être explicitement atteignable,
de façon à permettre à tout client de pouvoir l’invoquer, dans son périmètre de disponibilité.
Dans le cas des web-services, un service doit être disponible à n’importe
quel point de l’Internet.
– Modularité et Composabilité : les architectures orientées services mettent en
avant le côté réutilisable des services. Par le biais d’une interface exposée et de l’interopérabilité
des services, le concept de service a été conçu pour facilité la modularité, la
réutilisabilité et la composabilité d’une application. Ainsi, il est possible de délimiter
le cadre de modification d’un service par son aspect modulaire, l’exposition de son
interface permet de réutiliser le service dans une autre application, et, partant de différents
services, il est possible de composer un nouveau service avec une fonctionnalité
différente, en utilisant d’autres services par le biais d’invocations.
Pour atteindre cet ensemble de propriétés, un éco-système des architectures orientées services
a été défini par Papazoglou [Papazoglou 2003] comme étant constitué de trois couches.
Dans la suite de cette section, nous détaillons cette organisation en trois couches.
2.1.2 Organisation des architectures orientées services
Dans son travail sur la définition des architectures orientées service, Papazoglou a imaginé
l’éco-système des SOA comme étant constitué de trois couches, où chaque couche s’appuie
sur les définitions des couches précédentes. La première couche concerne les services à
102.1. Les architectures orientées services
leur niveau le plus simple. Ici, on s’intéressera aux notions d’interface, de publication et de
sélection d’un service. La seconde couche s’appuie sur les services basiques pour définir de
nouveaux services par composition. On appelle composition de services la réalisation d’un
service en réutilisant d’autres services, le plus souvent pour construire une fonctionnalité
de complexité supérieure. Ici, on attachera plus d’importance à la sémantique du nouveau
service composé, mais également à des caractéristiques non fonctionnelles d’un service telles
que les propriétés de qualité de service. Enfin, le dernière couche considère la gestion des
services. Ici, il s’agit en fait de considérer l’infrastructure dans son ensemble, en ayant en
tête des préoccupations telles que le cycle de vie du service, son contrôle, et la gestion du
changement d’un service.
2.1.2.1 Services simples
Définition d’un service
Comme introduit dans les propriétés des SOA, une opération d’un service, ou par abus
de langage un service, a une interface explicitement définie. Cette interface définit a minima
la signature de l’opération. Concrètement, il peut s’agir d’une structure écrite dans un Language
de Description d’Interface (IDL) [Bachmann 2002]. Dans le cadre des web-services, le
langage adopté est le Langage de Description des Web Services (WSDL) [Chinnici 2007]. Il
est ainsi possible d’y décrire des types de données, les signatures des différentes opérations,
tout comme consigner la localisation du service par le biais d’un identifiant de ressource
(Uniform Resource Identifier, URI en abbrégé) [Coates 2001]. Un service est en soi autonome
et indépendant. C’est cette caractéristique qui permet aux architectures orientées
services d’offrir un couplage lâche entre les éléments.
Interactions d’un service
Au niveau des interactions entre les services, il est important de différencier deux acteurs
différents. Ces acteurs auront des préoccupations différentes :
– Fournisseur de Service : il est en charge de l’implémentation des différentes opé-
rations du service. Il doit notamment prendre en compte la qualité de service, en
adoptant une politique, cette police pouvant aller d’une politique de "meilleur effort"
(où aucun niveau minimal de qualité est à atteindre), jusqu’à mettre la qualité de
service au rang de préoccupation majeure. Ce dernier scénario se rencontre fréquemment
dans les logiciels à base de services. En effet, dans un système où les services
sont publiés et disponibles pour tous, le critère de différenciation et de choix entre
deux services implémentant les mêmes fonctionnalités portera sur le niveau de qualité
de service garanti pour l’opération. Il est important dans ce cas de fournir le service
le plus efficient possible. Afin de pouvoir établir ces contraintes et ces attentes
en termes de qualité de service, il est nécessaire pour le fournisseur du service et
pour l’utilisateur du service d’établir un contrat, nommé Service Level Agreement
(SLA) [Ludwig 2003], où chacune des parties s’engagent respectivement à fournir un
certain niveau de qualité de service et à utiliser le service dans certaines conditions.
Nous reviendrons sur ce point dans la section 2.2.3.
– Utilisateur du service : il s’agit de l’entité faisant appel à l’opération proposée par
le fournisseur. Si l’utilisateur n’a a priori aucun engagement auprès du fournisseur de
service, ce dernier doit être en mesure d’établir des limites dans l’utilisation du service
invoqué, afin de pouvoir garantir un niveau de qualité de service satisfaisant. En
effet, invoquer un service de façon disproportionnée (trop fréquemment par exemple)
pourrait notamment détériorer les performances de ce dernier [Menasce 2002]. De
112.2. La Qualité de Service
plus, l’utilisateur du service doit être le garant de la bonne intégration du service
dans l’éco-système du logiciel qu’il réalise, notamment dans le cadre de transactions.
2.1.2.2 Composition de Services
La notion de service est enrichie avec le concept de composition, où l’on va chercher ici à
réutiliser des services existants pour, en les combinant, produire un nouveau service ayant
une fonctionnalité différente.
Dans les architectures orientées services, il existe principalement deux types de composition
: la composition par orchestration et la composition par chorégraphie. Nous appelons
orchestration de services un processus métier exécutable, pouvant interagir avec des services
internes et externes [Peltz 2003]. Il s’agit en fait de la combinaison d’un flot de contrôle et
d’un flot de données pour décrire la séquence des opérations à effectuer pour aboutir à
un but donné. L’orchestration d’un service diffère de la chorégraphie dans le sens où cette
dernière a un rôle de vision globale des interactions d’un système, là où l’orchestration
représente le comportement d’une seule opération, et ses échanges avec d’autres services.
2.1.2.3 Gestion de services
Le dernier niveau organisationnel consiste à gérer les différents services existants. Dans
cette partie, il s’agit de gérer le cycle de vie d’un service (marche/arrêt) ainsi que le contrôle
de son exécution. Dans certains cas, il pourra également s’agir de gérer le remplacement
à chaud de services par un autre, en cas de défaillance par exemple. Ces techniques sont
implémentées dans les Bus de Services pour les Entreprises (ESB), véritable plate-forme
d’exécution gérant entre autres l’exécution des services et leurs communication.
La modularité présente dans les architectures orientées services, associée à la notion
d’inter-opérabilité, permet notamment de faciliter la sélection ou le remplacement d’un
service par un autre aux fonctionnalités similaires. Dès lors, le concepteur a face à lui un
panel de services équivalents parmi lesquels il devra en choisir un. Pour effectuer son choix,
il peut désormais prendre en compte un nouveau critère de sélection : la qualité de service.
2.2 La Qualité de Service
Dans cette section, nous présentons la notion de qualité de service. Nous introduisons
dans un premier temps le domaine de qualité du logiciel, avant de nous concentrer sur
ce qu’est la qualité de service, quelles sont les différentes méthodes de détermination, et
comment il est possible de la maintenir dans les SOA.
2.2.1 Qualité du logiciel
La notion de qualité du logiciel regroupe l’ensemble des caractéristiques visant à évaluer
la manière dont le logiciel a été réalisé. Derrière ce terme, on retrouve un ensemble
de caractéristiques ; certaines sont quantifiables, tandis que d’autres sont totalement à l’appréciation
de l’humain. Afin de pouvoir caractériser les caractéristiques d’un logiciel qui ne
sont pas propres à son exécution ou à sa logique métier, la notion de qualité du logiciel a
été introduite dans le milieu des années 70 pour définir une classification d’un ensemble de
propriétés de qualité du logiciel [Boehm 1976]. Cette notion fut normalisée par la norme
ISO/CEI9126 [ISO 2001] et est régulièrement ré-actualisée [ISO 2004], pour s’inscrire désormais
dans une démarche d’établissement des besoins de qualité et de son évaluation. Cette
122.2. La Qualité de Service
démarche se nomme Square. On retrouve notamment dans cette norme une classification
regroupant l’ensemble des propriétés de qualité autour de 5 catégories :
– La capacité fonctionnelle : il s’agit de la manière dont les fonctionnalités développées
correspondent au cahier des charges. On s’intéresse notamment ici aux souscaractéristiques
d’aptitude, d’exactitude et d’interopérabilité [Brownsword 2004].
– La fiabilité : il s’agit de la faculté du logiciel à continuer d’être digne de confiance.
Pour cela, on s’intéresse aux sous-caractéristiques de maturité, de tolérance aux fautes
et de capacité de récupération [Ucla 2001, Clements 2003].
– La facilité d’usage : cette catégorie qualifie la capacité d’un utilisateur quelconque à
utiliser le logiciel développé. On s’intéresse ici aux sous-caractéristiques d’exploitabilité,
de facilité d’apprentissage et de facilité de compréhension
– L’efficacité : cette caractéristique étudie l’adéquation entre les moyens financiers et
humains mis en œuvre pour réaliser le logiciel, et les besoins effectifs. On s’intéresse
ici à l’efficacité en parlant des ressources employées, et des temps de réalisation
– La maintenabilité : cette catégorie regroupe toutes les caractéristiques propres à la
faculté de modifier le logiciel pour ,par exemple, corriger un bogue. On s’intéresse ici
aux sous-caractéristiques de stabilité, de facilité de modification, de facilité d’analyse,
et de facilité à être testé.
– La portabilité : enfin, une dernière caractéristique propre à la qualité se centre sur la
capacité à déployer une application sur une machine quelconque. On s’intéresse ici aux
sous-caractéristiques de facilité d’installation, de facilité de migration, d’adaptabilité
et d’interchangeabilité.
De toutes ces sous-caractéristiques, certaines sont mesurables et quantifiables, tandis
que d’autres sont subjectives. Dans le cadre de cette thèse, nous considérons que les propriétés
de qualité de service sont quantifiables, et dont un changement de valeur démontre
un changement dans le comportement du système. À noter qu’il est important pour les différentes
personnes gravitant autour du logiciel développé de prendre en compte la qualité
du logiciel. Pour le client, il s’agit du gage d’un système performant. Pour les développeurs,
développer un système de qualité permet de s’assurer que l’entreprise engrangera du profit
au lieu d’essuyer des pertes.
Qualité de Service
Il existe de nombreuses définitions de la qualité de service. Parmi elles, nous retenons
dans ce document la définition de Crnkovic et al. [Crnkovic 2005] :
Définition 3
Qualité de Service : On appelle propriété de qualité de service "une caractérisation
de tout ou d’une partie du système, selon une préoccupation particulière".
Il s’agit ici de propriétés portant directement sur le comportement du logiciel. Elles sont
le plus souvent quantifiables. Dans le cadre de cette thèse, nous restreignons notre étude
des propriétés de QoS aux propriétés quantifiables de manière non équivoque. Un exemple
de propriétés de qualité de service correspondant à notre définition est les propriétés de
performance telles que la sécurité, le temps de réponse ou la disponibilité [O’Brien 2007,
Rosenberg 2006], pour lesquelles il existe bien souvent des outils d’analyse ou de contrôle à
l’exécution permettant d’obtenir une valeur numérique. Tout particulièrement, on regardera
du côté de [Lelli 2007, Fakhfakh 2012] pour des exemples de propriétés de qualité de service
que l’on rencontre dans les SOA.
132.2. La Qualité de Service
Il existe de nombreux langages de modélisation de la qualité de service. Les travaux les
plus proche de notre thématique sont CQML [Rottger 2003], WQSDL [Newcomer 2002] et
MARTE [OMG 2009b]. Dans ces langages, une propriété est définie par son nom. À ce nom
est associé a minima une unité de grandeur et un critère de comparaison permettant de
savoir si une valeur est meilleure qu’une autre. Par exemple, on cherchera le plus souvent
à minimiser des durées (le plus petit est meilleur), mais on cherchera à augmenter un
pourcentage dans le cas de la disponibilité (le plus grand est meilleur).
Outre ces informations, les langages de QoS décrivent une, ou plusieurs manières de
déterminer la valeur de qualité de service. Nous discutons des différentes méthodes de
détermination dans la section suivante.
2.2.2 Méthodes de détermination de la qualité de service
Dans le contexte de la thèse, les propriétés de qualité de service sont des grandeurs
quantifiables caractérisant un spécimen donné, à savoir le service. Nous présentons dans
cette section les différentes méthodes de détermination de la qualité de service existantes.
Détermination par analyse statique
Une manière de déterminer les valeurs des propriétés de qualité de service consiste à
effectuer une analyse statique du logiciel. Cette méthode s’opère le plus souvent au cours
de la phase de conception, et peut s’appuyer sur des informations provenant de l’exécution
du logiciel. De nombreuses techniques existent pour analyser un logiciel. Par exemple, de
nombreux travaux transforment le logiciel/processus métier en réseau de Pétri [Reisig 1998]
pour effectuer des analyses formelles. On retiendra notamment les travaux de van der Aalst
et de Massuthe qui cherchent à déterminer si un logiciel est correct [Van der Aalst 2008,
Massuthe 2005].
Dans le domaine de l’ingénierie des performances, l’établissement de modèles tels que
les réseaux de file d’attente ("queuing network" en anglais) ou les modèles d’utilisation permettent
de simuler l’exécution du système. Il est également possible de traduire un processus
métier dans une logique temporelle linéaire (LTL) [Pnueli 1977, Giannakopoulou 2001] ou
dans un langage de Pi-Calcul [Milner 1999]. Cela permet par exemple de déterminer des
propriétés de sûreté et de correction (justesse). [Havelund 2002, Ferrara 2004].
La détermination par analyse est particulièrement adaptée pour des propriétés portant
sur la structure ou l’architecture du système, et qui ne dépendent pas de l’état des éléments
du système à l’exécution. Cette technique s’applique hors-ligne, à un moment où on peut se
permettre de prendre plus de temps pour exécuter les analyses. Toutefois, dans certains cas,
comme lorsqu’on souhaite déterminer la taille d’un message où la taille de certaines variables
n’est pas fixe, l’analyse n’est pas déterminable hors ligne. Dans ce cas, l’analyse raffine en
déterminant tout ce qui est possible à la conception, pour aller chercher uniquement les
informations nécessaires à l’exécution. On parle alors d’analyse dynamique.
Détermination par analyse dynamique
Dans le cas où certaines informations ne sont pas disponibles hors ligne, la détermination
d’une valeur de propriété s’effectue à l’exécution. C’est le cas notamment pour des
propriétés telles que le temps de transmission d’un message ou le temps de réparation d’un
service [OASIS 2010], qui ont une forte dépendance au contexte d’exécution. Pour cela, la
détermination s’effectue à l’aide d’un moniteur. Un moniteur a pour rôle d’observer un
142.2. La Qualité de Service
ou plusieurs événements survenant au cours de l’exécution d’un logiciel, en capturant des
informations sur l’état du logiciel avant, après, ou en parallèle de ces événements.
Outre la propriété qu’il observe, il est possible de qualifier un moniteur selon différents
critères. Nous retiendrons ici le type de moniteur. Wetzstein et al. classifient dans leurs
travaux trois types de moniteurs : moniteur externe au moteur d’exécution, instrumentation
du moteur d’exécution et instrumentation du processus métier [Wetzstein 2009]. Selon
la solution choisie, l’insertion de code lié à la capture des informations à l’exécution engendrera
un sur-coût en terme de performance pouvant influer sur le bon fonctionnement
du système et sur sa qualité de service. On dit que le contrôle à l’exécution est intrusif
[Cheng 2009]. L’intrusion du moniteur ainsi que son niveau d’interopérabilité seront plus ou
moins grands. Par exemple, un moniteur instrumentant le moteur d’exécution sera optimisé
pour que son intrusion soit moindre, mais il ne sera par compatible avec un autre moteur
d’exécution.
Nous retiendrons également la granularité de l’observation d’un moniteur : il s’agit
du degré de détail auquel le moniteur est sensible [Ghezzi 2007]. À titre d’exemple, une
mesure peut être effectuée au niveau du processus pour avoir une vision d’ensemble, au
niveau de l’activité, ou encore basé sur des événements bas niveau tels que le changement
d’état d’une activité en passe d’être exécutée [De Pauw 2005]. Ici encore, cette finesse dans
la granularité a un coût : plus le contrôle sera fin, et plus de données seront collectées et
précises. C’est autant de données qu’il faut par la suite analyser et interpréter. En revanche,
rester à niveau d’abstraction trop élevé empêchera l’observation de certains phénomènes.
Détermination par dérivation de propriétés
Il est également possible de définir la détermination d’une propriété comme étant une
fonction mathématique dépendant de valeurs d’autres propriétés. On parle de propriété
dérivée de sous-propriétés. La valeur de propriété pour un élément du système (tel qu’un
service) est définie en fonction de valeurs d’autres propriétés pour le même élément du
système. Par exemple, le temps de réponse d’un service peut être défini comme étant la
somme du temps de transmission et du temps d’exécution. Cette définition est opérée à
l’aide d’une formule mathématique, nommée formule de dérivation. La Figure 2.1 est un
exemple de dérivation où le temps de réponse est calculé en se basant sur les valeurs des
propriétés dont il dérive.
La détermination des valeurs de propriétés par dérivation a pour avantage d’être lé-
gère, les formules définies utilisant le plus souvent des opérateurs arithmétiques simples.
Toutefois, il est nécessaire de déterminer les opérandes utilisés dans la formule ; ces valeurs
étant d’autres valeurs de propriétés, la détermination par dérivation nécessitera au préalable
d’effectuer des analyses à la conception et/ou des mesures à l’exécution.
Détermination par agrégation de valeurs
Nous avons restreint dans le cadre de cette thèse le champ des propriétés étudiées aux
propriétés composables. Cela veut dire que pour un élément de composition (tels que les
processus métiers, les séquences, ou les appels en parallèle), il existe une formule mathématique
permettant de déduire la valeur de propriété de la composition, à partir des valeurs
de propriétés des activités contenues. Il suffit donc d’observer ces activités (par analyse
statique ou par mesure), et de composer une valeur de propriété pour la composition en
utilisant une formule mathématique nommée formule d’agrégation. Il est important de noter
qu’ici, contrairement à la détermination par dérivation de propriétés, la détermination
par agrégation de valeurs ne repose pas sur plusieurs propriétés différentes. Ici, il s’agit de
152.2. La Qualité de Service
Activity act
Monitor Report
Transmission Time = 30 ms
Monitor Report
Computation Time = 19 ms
Derivation Report
Response Time = 30 + 19 = 49 ms
Figure 2.1 – Exemple de détermination par dérivation.
déduire une valeur de propriété pour un élément de composition à partir des valeurs de la
même propriété, pour les éléments le constituant.
La Figure 2.2 illustre la détermination par agrégation sur un processus métier quelconque.
Ici, le temps de réponse du processus est la somme des temps de réponse des
activités qu’il contient. De nombreux travaux ont porté sur l’établissement de ces formules
d’agrégation. Les premiers à les avoir formalisées sont Cardoso [Cardoso 2004] et Jaeger
[Jaeger 2004]. Ces travaux furent repris par Mukherjee [Mukherjee 2008], et par Dumas pour
permettre leur établissement dans le cadre de processus métiers mal formés [Dumas 2010].
Canfora a même étendu le concept d’agrégation à des propriétés non fonctionnelles, mais
spécifiques au domaine du logiciel étudié [Canfora 2006].
a1
a2
a4
a3
Derivation Report
Response Time = 9 ms
Derivation Report
Response Time = 30 ms
Derivation Report
Response Time = 55 ms
Derivation Report
Response Time = 6 ms
Aggregation Report
Response Time = 9 + 30 + 55 + 6 = 100 ms Figure 2.2 – Exemple de détermination par agrégation.
De manière similaire à la détermination par dérivation, la méthode par agrégation est
peu coûteuse en elle-même en termes de ressources. Toutefois, elle nécessitera également
une phase préliminaire de détermination à la conception et/ou à l’exécution.
162.3. Évolution des systèmes logiciels
2.2.3 Contrats de Qualité de Service
Dans l’éco-système d’un service, différentes parties œuvrant pour sa réalisation et son
utilisation doivent collaborer. Il s’agit notamment du fournisseur du service, responsable de
son implémentation et de sa disponibilité, et du consommateur du service, qui l’utilise. Afin
de pouvoir garantir que le service proposé reste stable au niveau de sa qualité de service,
les différentes parties impliquées doivent se mettre d’accord.
Pour pouvoir établir cet engagement, il est nécessaire d’établir des contrats entre ces
différentes parties. Il existe différents supports pour pouvoir établir ces contrats. Le plus
utilisé se nomme Web Service Level Agreement (WSLA) [Keller 2003]. Un contrat est un
accord liant deux ou plusieurs parties sur certaines conditions, telles que les responsabilités
de chaque partie ou les engagements à respecter. Dans le cadre des WSLA, un contrat est
constitué de trois sections. D’abord, il s’agit d’établir l’identité de chaque partie impliquée.
Puis, le contrat se poursuit par la désignation du service pour lequel les parties se mettent
d’accord. Enfin, la dernière section du contrat établit les différentes clauses d’engagement.
On parle alors d’objectifs de niveau de service (SLO). Un objectif est constitué d’une partie
engagée par l’objectif (l’Obligee en anglais), d’une période de validité de l’objectif, et
d’une condition à respecter. Cette condition prend la forme d’une expression, indiquant un
ensemble d’opérateurs sur des métriques. Par exemple, on pourra décrire que la métrique
de disponibilité doit être supérieur ou égale à 80%, ce qui signifie que le service en question
doit être accessible pour le consommateur au minimum 80% du temps.
Une fois que le contrat est mis en place, il est nécessaire de s’assurer que tous les objectifs
sont bien respectés. Une approche possible pour cela consiste à utiliser un contrôleur, qui
vérifie bien qu’aucun objectif n’est violé. On retiendra notamment les travaux de Oriol et
al., qui ont développé un système nommé SALMon pour l’analyse et le contrôle de SLA
[Oriol 2008].
Nous venons de présenter dans cette section les travaux existants autour de la qualité
de service dans les architectures orientées services. Nous avons vu différentes manières de
déterminer une valeur de propriété de QoS permettent de qualifier un service, avant de
s’intéresser à la manière dont la QoS peut être conservée en définissant un contrat entre
le fournisseur du service et son consommateur. Si ce dernier point est facilement vérifiable
au moment du contrat, il convient de s’intéresser à l’étape de l’évolution, au cours de
laquelle les changements opérés peuvent interférer la validité du contrat. Pour cela, nous
nous intéressons dans la section suivante aux différentes caractéristiques de l’évolution des
systèmes logiciels.
2.3 Évolution des systèmes logiciels
2.3.1 Définition de l’évolution
Le domaine de cette thèse se concentre sur la manière de faire évoluer un logiciel au
fil du temps. Cela veut dire par exemple d’ajouter des fonctionnalités, ou de maintenir le
code pour effectuer les mêmes fonctionnalités. Traditionnellement, les logiciels ont besoin
de changer pour correspondre aux besoins des utilisateurs, pour corriger un bug ou pour
supporter l’évolution technologique.
La notion d’évolution est apparue dans la fin des années 60 [Lehman 1969]. Lehman et
al. ont été les premiers à en donner une définition [Lehman 1985] :
Définition 4
Évolution du logiciel : "La satisfaction [des besoins] continue demande des change-
172.3. Évolution des systèmes logiciels
ments continus. Le système aura à être adapté en fonction d’un environnement changeant
et des besoins changeants, en développant des concepts et en faisant progresser
les technologies. L’application et le système doivent évoluer. "
Ce genre de logiciel est appelé un logiciel de type-E.
Pour accompagner cette définition, les auteurs ont érigé une série de lois de l’évolution,
établies de manière empirique suite à l’étude de plusieurs systèmes industriels monolithiques
[Lehman 1997, Lehman 2006]. Parmi elles, nous retenons les suivantes, car elles s’inscrivent
tout particulièrement dans notre contexte :
Définition 5
Lois de l’évolution du logiciel :
– Continuité du changement : Un système satisfera progressivement de moins
en moins les besoins des utilisateurs au fil du temps, à moins qu’il s’adapte de
manière continue pour satisfaire les nouveaux besoins.
– Croissance de la complexité : Un système deviendra progressivement de plus
en plus complexe, à moins qu’un travail soit effectué pour réduire la complexité.
– Déclin de la qualité : Un système sera perçu comme perdant en qualité au fil
du temps, à moins que sa conception soit maintenue avec précaution et adaptée à
de nouvelles contraintes opérationnelles.
En s’appuyant sur des expériences industrielles concrètes, ces trois lois renforcent notre
position sur le besoin de faire évoluer un logiciel, et du besoin de s’assurer que la qualité
du système continue à être maintenue au fil du temps. Il est important de noter ici que
la notion de changement est au centre de ces définitions. Ce changement peut s’opérer
de plusieurs manières : si l’on considère l’éco-système d’un système logiciel comme étant
constitué du code source du système, de l’environnement dans lequel il est exécuté, des
besoins utilisateurs desquels le système a émané, le changement peut s’opérer sur chacun
de ces éléments.
Pour nous positionner dans cet éco-système, nous nous appuyons sur les travaux de
Godfrey et al. [Godfrey 2008]. Dans leur papier, les auteurs dressent un état des lieux du
vocabulaire utilisé et des différentes catégories d’opérations que l’on peut qualifier de "changement".
Ils se positionnent sur l’utilisation des mots maintenance et évolution. Dans le
contexte de la thèse, nous considérons que la maintenance est une phase au cours de laquelle
le logiciel est modifié pour corriger des bugs. Nous appelons adaptation la modification du
logiciel pendant son exécution pour réagir à un changement de son environnement. En-
fin, nous appelons évolution la modification d’un système logiciel suite à l’apparition de
nouveaux besoins des utilisateurs.
2.3.2 Caractéristiques d’une évolution
Cette section s’intéresse aux différents facteurs permettant de caractériser une évolution.
Nous présentons dans un premier temps les différentes catégories, avant de positionner nos
travaux pour chaque catégorie, dessinant ainsi le type d’évolution que nous traitons dans
cette thèse.
Afin de pouvoir décrire les caractéristiques d’une évolution, Mens et al. ont dressé une
taxonomie de l’évolution du logiciel [Mens 2003]. Dans ces travaux, les auteurs ont défini
quatre dimensions pour caractériser une évolution : le Où, le Quoi, le Quand et le Comment
de l’évolution. Sous chaque dimension, un ensemble de caractéristiques caractérise
182.3. Évolution des systèmes logiciels
cette dimension, proposant parfois diverses alternatives. Nous reprenons chacune de ces caractéristiques
dans la suite pour positionner les travaux de cette thèse, en définissant quel
type d’évolution nous traitons.
Le "Où" de l’évolution :
Cette dimension cherche à caractériser la localisation de l’application d’une évolution.
Pour cela, les auteurs se sont intéressés à différents facteurs :
– le type d’artéfact logiciel modifié : une évolution va consister en la modification d’un
élément du système au sens large. Ici, il peut s’agir bien évidemment du code source de
l’application ; mais on peut également considérer l’évolution comme un changement au
niveau des besoins de l’utilisateur, de l’architecture, ou encore de la documentation.
– la granularité de l’évolution : ce facteur est un ordre de grandeur évaluant à quel
niveau de finesse l’évolution opère. Il peut s’agir d’une granularité fine, telle qu’un
changement d’instruction ou de paramètre, jusqu’à un changement opéré à l’échelle
du fichier, du package, du service, ou même du système dans son ensemble.
– l’impact de l’évolution : le facteur d’impact est un critère d’importance pour qualifier
une évolution. Il a pour but de caractériser la portée de l’effet du changement sur le
reste du système. Il s’agit ici également d’un ordre de grandeur, allant d’un impact
local, jusqu’à un impact à l’échelle du système.
– la propagation du changement : ce facteur reprend la notion d’impact, en l’appliquant
à l’échelle du processus de développement. Là où le facteur d’impact d’une évolution
se concentre sur l’effet de l’évolution sur le comportement du système, la propagation
du changement s’intéresse aux effets sur d’autres éléments tels que la documentation
ou le modèle conceptuel.
Nous résumons l’ensemble des facteurs de la dimension "Où" dans la Table 2.1, où
les éléments notés en gras sont ceux que nous traitons dans le cadre de la thèse. Comptetenu
de la définition de l’évolution que nous avons choisie, nous traitons des évolutions
portant sur une partie du code source de l’application, à savoir les processus métiers. Ces
évolutions ont une granularité fine : nous souhaitons pouvoir caractériser tout changement
dans un processus métier, et un impact pouvant être local comme global. Enfin, nous nous
intéressons uniquement à son effet sur le comportement du système, nous ne traitons pas
la propagation du changement sur d’autres documents de conception.
Table 2.1 – Taxonomie d’une évolution : la dimension "Où".
Où
Type d’artéfact Granularité Impact Propagation du changement
Documentation Paramètre Local Documentation
Conception Instruction Système Conception
Implémentation Fichier Implémentation
Tests Package Tests
Le "Quoi" de l’évolution :
Cette dimension s’intéresse aux caractéristiques du système sur lequel l’évolution est
appliquée.
– Disponibilité : la disponibilité du système peut être définie comme la capacité du
système à répondre à une requête dans un laps de temps donné. Ici, il est important de
192.3. Évolution des systèmes logiciels
savoir quelles contraintes sont définies sur le système pour pouvoir prévoir l’application
d’une évolution. On considère qu’il peut être requis d’un système qu’il soit tout le
temps disponible, qu’il peut y avoir des périodes d’arrêt du système sur des périodes
courtes, ou simplement que le critère de disponibilité n’a pas d’importance.
– Dynamisme : ce facteur détermine si les changements à opérer sur le système sont
guidés de l’extérieur (système réactif), ou si les changements proviennent d’une observation
faites par des contrôleurs propres à l’application (système proactif). Pour ce
dernier cas, on parle de système autonome, et le changement est opéré à l’exécution.
– Exposition : les auteurs parlent d’ouverture du système pour désigner sa faculté à
autoriser son extension. On parle de système ouvert lorsque l’architecture et l’environnement
d’exécution sont constitués de mécanismes d’extension.
– Sûreté : la sûreté de l’évolution désigne la propriété du système à s’assurer que
l’évolution ne met pas le système dans un état erroné. Il peut s’agir de mécanismes
à la compilation, ou de contrôles effectués à l’exécution. On parle de sûreté statique
lorsque le contrôle de sûreté est effectué hors ligne. À l’inverse, la sûreté dynamique
consiste à vérifier l’évolution au cours de l’exécution du système.
Nous résumons l’ensemble des facteurs de la dimension "Quoi" dans la Table 2.2. Pour
cette dimension, nous nous positionnons dans un cadre où les systèmes doivent être réactifs
(le client pouvant potentiellement poser des contraintes fortes de disponibilité d’un service),
mais pour lesquels un temps d’arrêt pour effectuer de l’évolution est prévisible. Nous traitons
des évolutions réactives, dans le sens où elles sont déclenchées par un changement dans les
besoins du client, et ne sont pas le fruit d’une adaptation à l’environnement. De part le
contexte technologique des SOA, l’exposition du système est ouverte, donnant de par le
couplage lâche et l’aspect modulaire des services la possibilité de l’étendre. Enfin, nous nous
positionnons dans un contexte d’évolution dont nous assurons la sûreté à la conception, par
le biais d’une analyse.
Table 2.2 – Taxonomie d’une évolution : la dimension "Quoi".
Quoi
Disponibilité Dynamisme Exposition Sûreté
Toujours disponible Réactif Ouvert Statique
Temps d’arrêt acceptable Proactif Fermé Dynamique
Indifférent
Le "Quand" de l’évolution :
Cette dimension s’intéresse aux caractéristiques temporelles d’une évolution. Plus particulièrement,
les auteurs étudient dans cette dimension les propriétés suivantes :
– le moment au cours duquel une évolution peut survenir (à la conception, à la compilation,
ou à l’exécution)
– l’historique des évolutions. Cette caractéristique permet de savoir s’il est possible
d’appliquer plusieurs évolutions en concurrence. En effet, avec l’augmentation de la
taille des systèmes, la taille des équipes de développement a également augmenté,
décentralisant ainsi le développement et de fait les évolutions. On distingue ici trois
cas : les évolutions peuvent être prises de manière séquentielle, c’est à dire qu’il n’est
pas possible d’appliquer une évolution tant qu’une autre évolution est en cours, de
manière parallèle synchrone, où ici, le développement des évolutions peut être effectué
202.3. Évolution des systèmes logiciels
indépendamment, mais leur application concrète est réalisée à un point précis dans le
temps, ou encore de manière parallèle asynchrone, où le développement et l’application
des évolutions sont indépendants. Ce dernier cas est complexe à gérer, dans le sens
où l’aboutissement à un système incohérent est possible, sans pouvoir effectuer une
analyse lors du point de synchronisation, comme cela est possible dans la deuxième
méthode.
– la fréquence de l’évolution, à savoir si le système étudié évolue fréquemment de sorte
que des périodes de temps d’arrêt du système sont à prévoir, ou non. On distingue
ici une évolution continue, où le système est en perpétuel changement, une évolution
périodique, où les évolutions sont appliquées de manière régulière, ou encore arbitraire,
où les évolutions sont effectuées à un rythme irrégulier et peu soutenu.
Nous résumons l’ensemble des facteurs de la dimension "Quand" dans la Table 2.3.
Nous traitons dans cette thèse des évolutions subvenant au moment de la conception. De
part l’ensemble des problématiques liées à l’historique d’une évolution, nous nous focalisons
sur des évolutions entrant dans une logique d’application séquentielle. Enfin, la fréquence
n’influençant pas la nécessité du maintien de la qualité de service, nous traitons les évolutions
qu’elles soient à fréquence soutenue, ou plus disparates dans le temps.
Table 2.3 – Taxonomie d’une évolution : la dimension "Quand".
Quand
Moment Historique Fréquence
Conception Séquentiel Continue
Compilation Parallèle synchrone Périodique
Exécution Parallèle asynchrone Arbitraire
Chargement
Le "Comment" de l’évolution :
Cette dimension s’intéresse à la manière dont l’évolution est opérée. Pour cela, les auteurs
étudient les facteurs suivants :
– le degré d’automatisation de la mise en œuvre de l’évolution. Une évolution peut être
complètement automatisée, notamment dans le cadre des systèmes auto-adaptatifs,
partiellement automatisée, où l’équipe de développement décrit les modifications à
apporter dans un langage d’évolution, laissant au moteur d’évolution la tâche d’appliquer
ces modifications sur les différents documents formant le système, ou manuelle,
entraînant l’équipe de développement à modifier à la main tous les documents, en
prenant à bien garde à garder un système cohérent.
– le degré de formalité de la mise en œuvre de l’évolution. Ici, il s’agit de caractériser à
quel degré de formalisme est exprimée une évolution. Par exemple, une évolution peut
être effectuée de manière ad-hoc (i.e., sans aucun support), ou dans un formalisme
mathématique tel que la réécriture de graphe, permettant ainsi de pouvoir s’intéresser
à des propriétés de propagation de changement ou de re-factoring.
– le support du processus d’évolution. Il s’agit de savoir ici si l’évolution s’effectue de
manière manuelle, ou bien si un ou plusieurs outils viennent accompagner le développeur
de l’évolution pour automatiser certaines tâches.
– le type de changement, à savoir s’il s’agit d’un changement structurel ou comportemental.
Dans le premier cas, on modifiera les fonctionnalités par un ajout ou une
212.4. Conclusion
Table 2.4 – Taxonomie d’une évolution : la dimension "Comment".
Comment
Degré d’automatisation
Formalisme Support du processus Type de changement
Automatisé Ad-hoc Aucun Structurel
Partiellement automatisé
Formalisme mathématique
Re-factoring Sémantique
Manuel Analyse d’impact
suppression de paramètres ou de fonctions. Dans le deuxième, il s’agit de la modifi-
cation de la logique fonctionnelle du programme. À noter ici que ces deux critères ne
sont pas mutuellement exclusifs : une évolution est le plus souvent à la fois structurelle
et comportementale.
Nous résumons l’ensemble des facteurs de la dimension "Comment" dans la Table 2.4.
Nous traitons dans cette thèse des évolutions partiellement automatisées, dans le sens où
elle ne sont pas le fruit d’une auto-adaptation. Nous cherchons à faire évoluer des processus
métiers, en nous appuyant sur un langage pour exprimer ces évolutions. Ce langage nous
permettra de raisonner dans une logique des graphes. Enfin, nos évolutions, à la fois structurelles
et comportementales, seront analysées dans le but de déterminer son impact sur la
qualité de service.
2.4 Conclusion
Dans ce chapitre, nous avons présenté le contexte de cette thèse, en étudiant successivement
les architectures orientées services, la qualité de service et la notion d’évolution. Lors
de l’étude de ces domaines, nous avons émis un certain nombres d’hypothèses, que nous
récapitulons dans la Table 2.5. Cette thèse s’inscrit dans un contexte de développement
d’applications orientées services. Ici, les logiciels développés sont notamment modulaires et
autonomes. Afin de pouvoir différencier plusieurs services aux fonctionnalités similaires, la
notion de qualité de service peut être utilisée comme indicateur de comparaison. Enfin, ces
systèmes répondants à des besoins changeants de la part de l’utilisateur, il est nécessaire de
prévoir des évolutions semi-automatisées, subvenant à la conception, dans le but de pouvoir
les analyser pour savoir si, après leur application, la qualité de service est maintenue dans
le système.
222.4. Conclusion
Table 2.5 – Récapitulatif des hypothèses de travail.
Architectures Orientées Services
Hypothèse 1 Nous étudions l’évolution dans le contexte des services. Les entités étudiées,
nommées services, peuvent être distribuées. Nous considérons
qu’ils sont modulaires, que leur localisation est transparente vis-à-
vis de l’équipe de développement, et que leur couplage est lâche.
Qualité de Service
Hypothèse 2 Pour toutes les propriétés que nous étudions, il existe au moins une
méthode permettant de déterminer la valeur de propriété d’un service.
Hypothèse 3 Dans un système, les besoins en terme de qualité de service sont définis
à l’aide d’un contrat de qualité de service. Le plus souvent, ils sont
représentés sous la forme d’une SLA.
Évolution
Hypothèse 4 Les évolutions que nous considérons dans cette thèse s’opèrent au niveau
de l’implémentation du système. Elles sont définies au niveau
de granularité de la réalisation d’un processus métier, c’est-à-dire au
niveau des activités qui le constitue.
Hypothèse 5 Lorsqu’une évolution est appliquée, nous considérons qu’un temps
d’arrêt du système est acceptable. Cette évolution est réalisée en ré-
action à un changement dans les besoins de l’utilisateur. L’analyse de
la validité de l’évolution est effectuée de manière statique.
Hypothèse 6 Le processus d’évolution est effectué au moment de la conception.
Nous considérons dans notre cas que les évolutions sont appliquées de
manière séquentielle, i.e., qu’à tout moment du cycle de vie, il y a
au plus une évolution en train d’être appliquée. La fréquence de ces
évolutions, elle, n’importe peu.
Hypothèse 7 Une évolution, si elle est appliquée de manière automatique sur le
système, est déclenchée par un acteur humain. Il peut s’agir de changements
structurels, ou sémantiques. Pour supporter ce processus
d’évolution, nous cherchons à effectuer une analyse d’impact de son
effet sur le reste du système.
23Chapitre 3
État de l’art
Sommaire
3.1 Processus de développement . . . . . . . . . . . . . . . . . . . . . . 25
3.1.1 Les processus de développement généralistes . . . . . . . . . . . . . . 26
3.1.2 Les processus de développement spécialisés SOA . . . . . . . . . . . 27
3.1.3 Prise en compte de la Qualité de Service . . . . . . . . . . . . . . . . 28
3.1.4 Prise en compte de l’évolution . . . . . . . . . . . . . . . . . . . . . 28
3.1.5 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Analyse d’impact . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1 Fondements de la causalité . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.2 Application de la causalité : les analyses d’impact . . . . . . . . . . 30
3.2.3 Analyse d’impact pour la qualité de service . . . . . . . . . . . . . . 32
3.2.4 Comparatif et limitations . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Conclusion de l’état de l’art . . . . . . . . . . . . . . . . . . . . . . 33
N
ous avons vu dans le chapitre 2 que les applications à base de services avaient pour
particularité de devoir être réactives face aux changements des besoins des utilisateurs,
tout en ayant une préoccupation particulière pour la QoS. Dans ce contexte, l’équipe en
charge du système doit mettre en place une stratégie pour faire évoluer le logiciel, tout en
prenant en compte le maintien de la qualité de service. Dans ce chapitre, nous dressons
dans un premier temps l’état de l’art des processus de développement logiciel. Puis, nous
étudions la notion d’analyse d’impact comme possibilité d’établir l’effet d’une évolution sur
le reste du système.
3.1 Processus de développement
Nous présentons dans cette section l’état de l’art concernant les processus de développement.
Pour étudier les différents travaux, nous nous focalisons sur les critères suivants :
– Agilité : le critère d’agilité est le minimum requis pour pouvoir effectuer des évolutions
de manière continue. On considèrera ainsi que dans un processus de développement
agile, le côté itératif et incrémental peut être vu comme une évolution.
– Collaboration : nous étudions ici des systèmes complexes où plusieurs expertises au
niveau de l’élaboration de services, de processus métiers, d’évolution ou de qualité de
service sont requises. Il est donc important qu’une place soit accordée à ces rôles dans
le processus de développement.
– Prise en compte de la QoS : le but d’une équipe de développement est de produire
un logiciel fonctionnel. La qualité de service n’est pas forcément considérée comme
une préoccupation principale ; il s’agira de voir si elle est intégrée au sein du processus
de développement.3.1. Processus de développement
Dans la suite, nous considérons dans un premier temps les processus de développement
généralistes. Puis, nous nous centrons sur les processus orientés SOA, et étudions ceux qui
prennent en compte la qualité de service et l’évolution. Enfin, nous effectuons un comparatif
des différentes approches.
3.1.1 Les processus de développement généralistes
Les processus de développement ont pour rôle de guider l’équipe de développement dans
la réalisation de logiciels. Il existe de nombreux processus de développement, chacun ayant
ses avantages et ses inconvénients. Pour la plupart, ils sont construits autour des mêmes
grandes étapes, comme référencées dans l’ISO 12207 [IEEE 2008] :
– Analyse des besoins : au cours de cette étape, les besoins du client sont identifiés
(par exemple à l’aide d’un diagramme de cas d’utilisation UML) et consignés dans un
cahier des charges.
– Conception : l’architecte logiciel conçoit une solution en se basant sur les besoins
collectés précédemment. Ici, il s’agit d’une solution à haut niveau d’abstraction. L’architecte
décrit ce qui doit être réalisé, sans donner les détails de comment le réaliser.
– Implémentation : l’équipe de développement se base sur la conception de l’architecte
pour écrire le code du logiciel.
– Vérification et validation : une fois la solution logicielle développée, l’étape suivante
consiste à vérifier que l’on a bien implémenté le logiciel, i.e., que le logiciel ne
présente pas de bogue. Cette phase se nomme "vérification" du logiciel. On s’assure
également que l’on a implémenté le bon logiciel, i.e., que le comportement du logiciel
correspond aux besoins du client. Dans ce cas, on parle de validation du logiciel.
– Déploiement : enfin, l’étape de déploiement consiste à installer le logiciel sur la
machine de production, pour pouvoir être utilisé.
Parmi les processus de développement les plus utilisés, nous retenons le modèle en cascade
[Royce 1970], comme étant le déroulement séquentiel des étapes listées ci-dessus. Un
autre processus est le modèle en V [IABG 1997], développé dans les années 80 par la République
Fédérale d’Allemagne, qui est une extension du modèle en V. Ici, au lieu de considérer
les étapes de manière séquentielle, une association est faite entre les étapes de réalisation, et
les étapes de test, afin de pouvoir les mener en parallèle, et de renforcer leur cohérence. Ces
approches sont dites en cascade : le client établit en amont du projet un certain nombre de
besoins fonctionnels et non fonctionnels. Le porteur du projet déclenche alors le début du
cycle de développement choisi. S’en suit le déroulement des différentes étapes, pour aboutir
à la production d’un logiciel correspondant aux besoins établis. Toutefois, ce genre d’approche
a été vivement critiqué, principalement pour un manque de réactivité vis-à-vis des
besoins du client. Pour pallier ce genre de problème, de nouveaux cycles de développement
ont été proposés. C’est le début des méthodes dites agiles [Beck 2001] : ici, l’accent est
porté sur la livraison fréquente et le retour d’expérience, par le biais de méthodes dites
itératives, l’équipe en charge de réaliser le logiciel exécute plusieurs fois le processus de
développement, et incrémentales, où chaque itération augmente les fonctionnalités du logiciel
réalisé [Larman 2003]. Le client est désormais au centre du processus, là où il n’était
consulté auparavant qu’en début et en fin de projet, permettant ainsi d’éviter de réaliser
un logiciel trop éloigné des besoins. Parmi les méthodes agiles, nous retiendrons l’Extreme
Programming (XP) [Beck 2004], le Rationale Unified Process (RUP) [Kruchten 2004] ainsi
que la méthode Scrum [Schwaber 2004], qui font partie des méthodes de développement les
plus utilisées à ce jour.
263.1. Processus de développement
Pour positionner les processus de développement par rapport à la notion d’évolution, les
cycles de développement agiles sont les plus à même à en supporter les différents mécanismes
liés. En effet, le caractère itératif et incrémental des méthodes agiles permet une réalisation
naturelle de l’évolution, là où les cycles de développement classiques, de par leur long dé-
roulement, nécessite soit d’interrompre le déroulement classique du cycle pour prendre en
compte l’évolution, soit d’attendre la fin d’une itération pour prendre en compte l’évolution.
Dans le premier cas, cela peut engendrer des problèmes de consistance, par exemple en abandonnant
momentanément le développement en cours pour s’occuper de l’évolution. Dans le
second cas, cette approche ne permet pas d’être réactif face aux besoins de l’évolution. Les
approches agiles sont donc les plus à même de supporter l’évolution.
3.1.2 Les processus de développement spécialisés SOA
Selon les principes énoncés dans le chapitre 2, la construction de logiciels basés sur
des architectures orientées services diffère des systèmes traditionnels, notamment dans le
sens où la notion de réutilisabilité est prépondérante. Pour cela, de nombreux travaux ont
tenté d’adapter des processus de développement généralistes aux architectures orientées
services. Ceux-ci sont comparés dans les études de Ramollari et al., et de Shahrbanoo et al.
[Ramollari 2007, Shahrbanoo 2012]. Nous retiendrons ici les travaux de Papazoglou et al.,
qui ont développé un certain nombre de recommandations pour l’élaboration d’un processus
de développement pour les SOA [Papazoglou 2006]. Leur processus de développement agile
est constitué de six étapes :
– Planification : l’étape initiale consiste à étudier la faisabilité de la mise en œuvre
d’une solution à base de services. Il s’agit dans un premier temps d’établir les besoins
de l’utilisateur. Également, c’est dans cette phase que l’équipe de développement prendra
garde à s’assurer que la solution à développer s’intègrera dans un environnement
existant.
– Analyse et conception : Il s’agit de la première étape du cycle de développement.
Ici, on établit l’existant en énumérant les différents services, et en revenant potentiellement
sur les besoins de l’utilisateur pour identifier quels sont les services en place,
et quels sont les services à développer ou à faire évoluer.
– Construction et test : au cours de cette étape, on reprend les besoins identifiés dans
l’étape précédentes pour concevoir, réaliser et tester de nouveaux services et processus
métiers. Il s’agira de déterminer parmi l’ensemble des besoins quels services devront
être réalisés, réutilisés, ou composés.
– Approvisionnement : cette étape cherche à établir l’équilibre entre les services
fournis et leur offre en termes de propriétés. Ici, l’équipe s’intéresse à l’établissement
de contrats (de type SLA), en déterminant quel niveau de qualité peut être fourni,
comment il peut être monnayé à une potentielle entreprise, et quel usage doit être fait
du service pour garantir le niveau de qualité spécifié.
– Déploiement : une fois que les nouveaux services ont été validés, ils peuvent être
déployés et être promus au niveau des autres organisations potentiellement intéressées.
– Exécution et Contrôle : enfin, les nouveaux services peuvent être exécutés. S’il est
nécessaire, des contrôles (notamment de la qualité de service) peuvent être enclenchés,
afin de pouvoir collecter des données sur la qualité du système, et amorcer ainsi la
réflexion d’une autre boucle de développement.
La méthode de développement nommée "Service-Oriented modeling and Architecture"
(SOMA) est une autre approche développée par IBM [Arsanjani 2008]. Cette approche a
273.1. Processus de développement
la particularité de mettre en évidence les rôles nécessaires pour la réalisation d’un logiciel
à base de services. La méthode est constituée de sept activités assez similaire à l’approche
de Papazoglou et al..
La différence principale entre ces approches et les approches généralistes résident dans la
notion de réutilisation, mais également la notion de niveau de service fourni. Ainsi, certaines
actions, comme par exemple l’implémentation, diffèrent des approches généralistes de par
la sélection de services existants.
3.1.3 Prise en compte de la Qualité de Service
Si les cycles de développement se focalisent dans un premier temps sur la livraison
d’un logiciel fonctionnel correspondant au cahier des charges établi, tous ne considèrent pas
la qualité de service dans leurs préoccupations. Toutefois, certains travaux ont consisté à
dériver des processus de développement existants pour y inclure la qualité de service.
Par exemple, Koziolek et al. [Koziolek 2006] ont dérivé le cycle de développement RUP
pour intégrer la QoS dans les différentes étapes du développement de logiciels à base de
composants. Ce processus a notamment pour but d’aider l’architecte à choisir parmi des
composants sur l’étagère, en utilisant la QoS comme critère de comparaison. Comme RUP,
leur nouveau processus est itératif et incrémental, permettant aux développeurs de proposer
de nouveaux composants à chaque itération. Toutefois, chaque itération implique une revérification
complète de l’architecture. Cette approche identifie quatre rôles de référence :
l’expert du domaine, le responsable du déploiement du système, l’architecte du système, et
le développeur de composants.
Gatti et al. proposent également de prendre compte des propriétés de qualité comme
le temps d’exécution pire-cas à travers l’ensemble du cycle de développement [Gatti 2011].
Dans leur approche, chaque étape est guidée par des éléments émanant de l’étape précé-
dente, dans le but d’assurer la traçabilité d’une propriété de l’étape des besoins jusqu’à
l’exécution.
3.1.4 Prise en compte de l’évolution
Tous les processus de développement ne prennent pas en compte explicitement l’évolution
comme une de leurs étapes. Il est évidemment possible de considérer dans un processus
de développement itératif que l’itération est une évolution. Toutefois, il est également possible
de considérer l’évolution comme une étape à part entière, en allouant également un
temps pour analyser les effets de l’évolution sur le reste du système [Lewis 2010].
Il existe différents processus prenant en compte l’évolution comme une étape à part
entière : Kijas et al. ont développé un processus d’évolution pour les architectures orientées
services [Kijas 2013]. Pour cela, ils ont réalisé un modèle d’évolution de manière empirique,
en s’appuyant sur les différents scénarios que l’on peut rencontrer dans la modification
d’un système à base de services. Par exemple, la création d’un service entraîne d’autres
opérations, telles que la publication de l’interface de ce service. De là, ils analysent l’effet
de l’évolution sur le reste du code, en se reposant sur ces scénarios.
Kim et al. proposent une approche fondée sur le tissage d’aspect pour établir et faire
évoluer un système à base de services [Kim 2010]. Pour cela, ils se basent sur des réseaux
de Pétri et sur la séparation des préoccupations par aspects pour établir une évolution, sur
laquelle leur outil est en mesure d’effectuer des analyses de performance.
283.2. Analyse d’impact
Table 3.1 – Comparatif des différents processus de développement.
Rôles Support de la QoS Support de l’évolution Agilité
[Koziolek 2006] Oui Oui Non Oui
[Gatti 2011] Non spécifiés Oui Non Non
[Papazoglou 2006] Non spécifiés Oui Non Oui
[Kijas 2013] Non spécifiés Non Oui Non indiqué
[Kim 2010] Non spécifiés Oui Oui Oui
3.1.5 Comparatif et limitations
Le Table 3.1 regroupe les différents processus de développement que nous avons pré-
sentés. Nous effectuons la comparaison selon les points suivants :
– Rôles : nous pouvons voir ici qu’une minorité de processus intègre la notion de
rôles ; mais si un rôle est défini, aucun des travaux ne prévoit dans le processus de
développement des points de rencontre explicite où les rôles sont amenés à collaborer.
– Support de la QoS : de par l’importance donnée à la qualité de service dans les
fondements des architectures orientées services, presque tous les processus s’intéressent
à la qualité de service. Toutefois, si la majorité des processus supporte la qualité de
service, il est important de s’intéresser à la manière donc la QoS est étudiée. En effet,
pour chaque évolution, une complète réévaluation du niveau global de QoS du système
est effectuée. Si cette pratique permet d’obtenir le résultat escompté, bon nombre des
analyses effectuées sont ré-exécutées de manière arbitraire, sans porter attention au
fait que l’élément analysé n’a peut être pas été affecté par l’évolution.
– Support de l’évolution et agilité : seuls les travaux les plus récents ont choisi
de considérer l’évolution au sein du cycle de développement. Des cinq processus de
développement que nous étudions, seul le processus développé par Gatti et al. n’est
pas un processus agile, et avec un manque d’information sur le processus de Kijas et
al.. En mettant en perspective ce critère avec le support de l’évolution, nous pouvons
voir que tous à l’exception du processus de Gatti et al. ont une possibilité plus ou
moins évidente de réaliser une évolution du logiciel, que ce soit en considérant une
itération du processus, ou en l’exprimant de manière explicite.
Nous venons d’effectuer une comparaison des différents processus de développement.
De tous ces processus, aucun ne satisfait l’ensemble des critères nécessaires au maintien de
la QoS lors de l’évolution. De manière plus spécifique, chacun de ces processus considère
une re-vérification complète de la QoS du système pour chaque évolution, sans essayer de
cibler les éléments affectés par l’évolution. Pour pallier ce genre de problème, il s’agit de
considérer les techniques d’analyse d’impact.
3.2 Analyse d’impact
3.2.1 Fondements de la causalité
La notion de causalité est un principe trans-disciplinaire, touchant à la fois la physique,
les mathématiques, la philosophie. Nous retrouvons notamment les origines des concepts de
cause et de conséquence dès les dialogues de Platon, dans les récits d’Artistote, ou encore
dans le Discours de la méthode de Descartes.
Les travaux de Judea Pearl ont posé les fondements de la causalité, en les formalisant
d’un point de vue logique [Pearl 2000]. En accord avec ses travaux, nous parlons dans ce
293.2. Analyse d’impact
document de relation de dépendance causale (ou relation causale en abrégé) entre deux
éléments A et B, noté A −→ B, signifiant le fait que A est une cause de B, ou que B est la
conséquence de A.
De ces fondements, la notion d’analyse causale est apparue, introduisant des valeurs
probabilistes pour représenter la potentialité d’une relation causale. Ces travaux reposent
notamment sur l’établissement du modèle causal à l’aide d’un réseau Bayésien et de chaines
de Markov [Spohn 2001].
Le besoin d’effectuer une analyse d’impact pour comprendre une évolution a déjà été
évoqué dans les travaux de Papazoglou [Papazoglou 2011], où l’auteur explique que ce genre
d’analyse serait nécessaire pour prédire et réduire le sous-ensemble des éléments impactés,
et comprendre concrètement l’effet de l’évolution.
3.2.2 Application de la causalité : les analyses d’impact
Les théories établies dans la section précédente ont une applicabilité directe dans l’étude
de systèmes logiciels. En 2002, Moe et al. ont motivé le besoin d’étudier la causalité au sein
de systèmes distribués, dans le but de résoudre certains problèmes liés à la compréhension
de l’effet du système, d’un sous-système, ou même d’un message [Moe 2002]. Parmi ces
problèmes, on retiendra notamment la découverte de goulots d’étranglement. Dans la suite
de ce paragraphe, nous nous focalisons sur la causalité lié à un changement opéré dans un
système, en présentant différentes techniques permettant de déterminer son impact. Nous
les classons en deux catégories, à savoir les méthodes d’analyse de causes racines, et les
méthodes d’analyse de l’impact du changement.
Analyse des causes racines
La détermination de la ou les causes à l’origine d’un phénomène est une discipline
connue sous le nom d’analyse des causes racines (root cause analysis en anglais). Elle a été
formalisée dans les années 80 [Busch 1986] dans le contexte du département de l’énergie.
L’objectif des analyses de causes racine est, partant d’une situation établie (le plus souvent
un problème rencontré), d’obtenir les causes de cette situation. Il s’agit d’une approche
réactive, dans le sens où on cherche à remonter à l’origine d’un problème. On opposera
ainsi les approches réactives aux approches proactives, où la cause est connue, et où on
cherche à en prédire les conséquences.
Les analyses de causes racines fonctionnent en quatre temps [Rooney 2004] :
– Collecte de données : afin de pouvoir établir les causes du changement, il est
nécessaire de comprendre concrètement ce qu’il se passe dans le système. Pour cela,
il s’agit d’établir son état courant, c’est à dire l’état dans lequel se trouve chacun des
éléments qui le constituent, mais également l’ensemble des événements l’ayant mené
à cet état.
– Tracé des facteurs de causalité : en partant des informations collectées, il s’agit
de dresser une cartographie des différentes influences entre les éléments. Il s’agit le
plus souvent d’un diagramme de séquence, où les différents événements jouent le
rôle de garde et où la séquence représente la chaîne de causalité. Ainsi, une fois que
le diagramme est tracé, un ensemble de branches apparaît, menant au nœud final
correspondant à l’état courant.
– Identification des causes racines : une fois que tous les facteurs causaux ont été
intégrés au diagramme, un diagramme de décision, appelé carte des causes racine, est
établi pour identifier la ou les causes ayant mené à l’état courant. Cette carte permet
303.2. Analyse d’impact
d’établir comment, à partir d’une cause éloignée, par un effet de cascade, le système
a pu aboutir à son état courant.
– Recommandations : enfin, une fois que les causes racines sont établies, l’analyse
préconise une ou plusieurs actions à effectuer pour éviter à l’avenir de se retrouver
dans cet état.
Une manière de représenter les résultats de l’analyse s’effectue à l’aide des diagrammes de
Pareto. Dans ces diagrammes, l’ensemble des causes dont le problème émane est représenté
en colonnes, classées par ordre décroissant de probabilité d’implication sur la conséquence.
Les diagrammes de Pareto font partie, avec le diagramme en arêtes de poisson, des sept
outils à utiliser pour contrôler la qualité [Tague 2004].
Si cette catégorie de méthode permet d’établir un diagnostic face à un problème, tel
que la dégradation de propriété de qualité de service par exemple [Ben Halima 2008], elle
ne s’inscrit cependant pas complètement dans le cadre de cette thèse. En effet, nous avons
pour objectif de maintenir la qualité de service tout au long du cycle de vie du logiciel. Or,
ce genre de méthode se positionne davantage dans la situation où la qualité de service n’est
plus maintenue.
Analyse de l’impact du changement
L’analyse de l’impact du changement (change impact analysis en anglais) s’intéresse à
l’identification des conséquences d’un changement effectué sur un système. Ces méthodes ont
été définis à l’origine par Bohner et Arnold [Bohner 1996] comme étant "The determination
of potential effects to a subject system resulting from a proposed software change". Cette
description générale peut s’appliquer à l’ingénierie logicielle en particulier. On retrouve dans
la littérature de nombreuses applications de ce principe, agissant sur différentes parties du
cycle de vie : l’analyse de l’effet sur les phases de collecte des besoins, sur la conception de
la solution, sur son implémentation, et sur la vérification.
Les techniques d’analyse de l’impact du changement n’ont pas pour but unique de se
centrer sur l’effet d’une évolution. Dans leurs travaux, Xiao et al. utilisent ces techniques
pour calculer le coût d’une évolution [Xiao 2007]. En effet, modifier un processus métier
s’accompagne souvent d’une modification des interfaces, voir même de la logique d’implé-
mentation de certains services. Les auteurs effectuent une analyse d’impact sur le processus
métier dans le but de quantifier le coût de l’évolution sur le reste du système. Nous pensons
que cette technique serait une bonne approche si elle pouvait être étendue pour prendre en
compte non pas le coût d’une évolution mais son effet sur la qualité de service.
Cette approche contemplative de l’étude de l’évolution est appliquée de manière active
dans l’outil nommé Morpheus [Ravichandar 2008]. Ici, les auteurs proposent de s’appuyer
sur les relations de dépendance établies pour automatiser l’évolution, en propageant les
changements sur les autres éléments constituant le système.
Analyse des effets d’une évolution
Plusieurs travaux se sont intéressés à l’analyse d’impact de l’évolution d’un logiciel. Par
exemple, Elbaum et al. ont présenté une étude empirique sur l’effet de l’évolution du logiciel
sur les tests de couverture de code [Elbaum 2001]. Ils ont montré que même une modification
minime dans le logiciel peut modifier les instructions au niveau du code, impliquant de le
re-tester. Fondamentalement, nous visons à réaliser le même genre d’approche au niveau
des orchestrations de service, et en se préoccupant principalement de la qualité de service.
313.2. Analyse d’impact
Analyse de l’évolution dans les SOA
L’analyse d’impact, ou la détermination des éléments affectés par un changement, a été
étudiée dans le cadre des processus métiers. Soffer a défini dans ses travaux la notion de
portée du changement, dont l’identification permet de "faciliter l’ajustement du système
face aux changements des processus métiers" [Soffer 2005]. Pour cela, l’auteur dresse une
taxonomie des différentes modifications pouvant être effectuées sur un processus métier :
modification d’un état, modification d’une transition d’état (que ce soit au niveau de la
structure du flot de contrôle, ou d’une potentielle condition de garde), modification des
variables, ou modification totale, en remplaçant le processus métier par un autre.
Partant de cette taxonomie, l’auteur définit quel est le scope de changement pour chacune
des catégories, à savoir le changement contenu (où il n’y a pas de changement indirect),
le changement local, ou encore le changement global.
Le canevas proposé par Ravichandar et al. vise à contrôler l’évolution de processus mé-
tiers [Ravichandar 2008]. Ils établissent les relations entre les différents éléments du système,
et opèrent à la fois sur le code source et sur les descriptions de haut niveau d’abstraction
pour conserver la cohérence du système. Enfin, l’élaboration d’une évolution entraîne grâce
à leur outil une propagation du changement dans l’ensemble de l’architecture. Ces travaux
sont similaires à ceux de Dam et al. [Dam 2010] .
3.2.3 Analyse d’impact pour la qualité de service
Enfin, un certain nombre de travaux ont porté sur l’étude de l’effet d’un changement
sur la qualité de service. Dans le langage CQML+ [Rottger 2003], il existe la possibilité
de représenter les relations de causalité pouvant exister entre les différentes propriétés.
Toutefois, aucun outil, ou aucune application, n’est proposée pour pouvoir déterminer pour
un système donné la chaine de conséquences entre une évolution et son effet sur la qualité
de service. Becker et al. proposent une approche nommée Q-Impress visant à prédire les
conséquences des évolutions, au moment de la conception du logiciel, sur les différents
attributs de qualité. Pour cela, les auteurs se basent sur des modèles de prédiction tels que
les chaînes de Markov ou les réseaux de file d’attente [Becker 2008].
Cicchetti et al. ont développé une approche pour analyser les effets de l’évolution sur
la qualité de service d’applications à base de composants [Cicchetti 2011]. Leur approche
considère une évolution effectuée de manière ad-hoc : l’équipe de développement réalise
une nouvelle version du système, et l’incrément est calculé en effectuant la différence des
modèles architecturaux. En fonction de cette différence, leur outil calcule l’impact de cette
différence selon un ensemble de règles. Toutefois, l’inconvénient de leur approche réside dans
la nécessité de mesurer a priori l’ensemble des valeurs pour pouvoir ensuite déterminer quel
en a été l’impact. Il en résulte une re-vérification complète du système.
3.2.4 Comparatif et limitations
La Table 3.2 regroupe les différents types d’analyse d’impact que nous avons présentés.
Nous effectuons la comparaison selon les points suivants :
– Adaptabilité au contexte : notre contexte circonscrit les domaines des processus
métiers, de la QoS et de l’évolution. Sur l’ensemble des analyses que nous avons étudié,
aucune de ces méthodes ne s’inscrit complètement dans notre contexte, prenant en
compte au mieux deux des trois critères, comme le font Becker et al. ou Cicchetti et
al..
323.3. Conclusion de l’état de l’art
– Identification du sous-ensemble impacté : de par notre analyse précédente, nous
pouvons opposer les méthodes d’analyse des causes racines aux méthodes d’analyse
de l’impact du changement. En considérant que pour garantir le maintien de la QoS
lors de l’évolution, nous avons besoin de déterminer en premier lieu quel est l’impact
de l’évolution, l’analyse des causes racines n’est pas adapté à notre problématique.
– Quantification de l’impact : une fois que l’impact a été déterminé, c’est-à-dire que
l’analyse a identifié quels sont les éléments du système affecté par une évolution, il est
nécessaire de savoir si cet impact est bénéfique ou néfaste du point de vue de la QoS.
Toutes les méthodes d’analyse n’effectuent pas cette vérification cependant, essentielle
pour pouvoir dire si la QoS est maintenue. C’est le cas notamment de Ravichandar et
al., Elbaum et al. ou Rottger et al..
– Coût de l’analyse : enfin, le dernier critère de comparaison consiste à étudier le
coût pour l’utilisateur de l’analyse. Nous cherchons en effet ici à avoir une analyse la
plus automatisée possible, et pour laquelle l’utilisateur sera le moins impliqué. Si la
plupart des méthodes ont un coût important, en terme d’effort de modélisation ou de
temps d’exécution de l’analyse en elle-même, Ben Halima et al. ainsi que Ravichandar
et al. ont un faible coût.
En résumé, aucune approche ne propose une analyse d’impact qui soit à la fois adapté
à notre contexte, faible en coût, et fournissant l’ensemble des informations nécessaires à
garantir le maintien de la QoS lors de l’évolution d’un logiciel.
3.3 Conclusion de l’état de l’art
Nous venons de dresser l’état de l’art en matière de processus de développement et
d’analyses d’impact pour l’évolution. Beaucoup de travaux gravitent autour de ces domaines
depuis de nombreuses années. Il existe de nombreux processus de développement spécialisés
dans la détermination de la qualité de service, dans l’élaboration de systèmes à base de
services, ou incluant l’évolution comme étape du processus.
Nous avons également étudié les travaux portants sur la détermination des effets de
l’évolution en termes d’impact. Là encore, de nombreux travaux existent, s’intéressant à
la cause d’un changement ou à son effet. Ces techniques ont été appliquées à différents
domaines et dans différents contextes.
Dans cette thèse, nous souhaitons maintenir la qualité de service d’un logiciel au cours
de ses différentes évolutions, tout en minimisant la phase de re-vérification. Dans cette
optique, les défis sont :
– faire collaborer les acteurs de l’équipe de développement, en identifiant les
connaissances requises pour le maintien de la QoS lors de l’évolution, et en caractérisant
les moments au cours desquels les acteurs devront collaborer.
– déterminer les interactions au sein d’un logiciel, afin de pouvoir établir le
lien existant entre la modification d’un élément du système et la modification d’une
propriété de qualité de service.
– minimiser la vérification de la QoS, en déterminant les éléments du système
impactés par l’évolution de manière à ne vérifier la QoS que sur ces derniers.
– identifier la cause de la violation d’un contrat de QoS, en appliquant les
techniques d’analyse des causes racines sur le contrat déterminé comme violé.
Dans la suite de ce document, nous présentons nos différentes contributions permettant
d’assurer le maintien de la qualité de service lors de l’application à base de processus métiers.
333.3. Conclusion de l’état de l’art
Nous présentons dans le chapitre 5 un processus de développement, nommé Blink, mettant
en évidence les différentes collaborations entre acteurs. Il s’agit dans un premier temps
d’identifier ces acteurs, et de déterminer à quel moment du processus de développement
une coopération entre acteurs est nécessaire.
Puis, nous nous focalisons dans le chapitre 6 sur le rôle de l’architecte du système. Nous
présentons dans un premier temps comment modéliser un système selon les principes des
architectures orientées services. Nous cherchons pour cela à définir ce qu’est un système, et
quelles sont les informations que l’équipe de développement doit fournir pour établir son
bon fonctionnement. Puis, nous définissons le concept de causalité, à savoir l’influence que
peut avoir un élément d’un système sur un autre élément. À travers la notion de modèle
causal, nous identifions l’ensemble des interactions dans un système, dans le but de pouvoir
déterminer l’effet d’une évolution sur les éléments du système.
Dans le chapitre 7, nous considérons le rôle de l’expert en qualité de service. Après avoir
fourni une définition de la qualité de service, nous présentons un langage de modélisation
d’une propriété de QoS. À partir de la description d’une propriété, nous cherchons alors à
enrichir le modèle causal établi dans le chapitre 6 pour déterminer les interactions entre les
éléments du système et ses propriétés de QoS, et cibler les propriétés de QoS à re-vérifier
lors d’une évolution.
Enfin, dans le chapitre 8, nous nous intéressons au rôle de l’architecte de l’évolution.
Après avoir donné une définition de ce qu’est une évolution, nous présentons un langage
permettant à l’architecte de décrire des évolutions. Puis, nous présentons un outil d’analyse
permettant de déterminer si oui ou non la qualité de service est maintenue une fois
l’évolution appliquée. Le résultat de cette analyse est une chaine de conséquence, rendant
explicite la cause possible du non-maintien de la qualité de service.
L’ensemble des contributions de cette thèse est regroupé au sein de Smile, un canevas
de développement pour le maintien de la qualité de service. Notre canevas regroupe la
réalisation des contributions, en s’inscrivant de pair avec Blink, notre processus de développement
identifiant les interactions entre les expertises de l’équipe de développement, et
en implémentant les différentes contributions propres aux expertises de la modélisation du
système, de la qualité de service et de l’évolution. Ces contributions sont illustrés à l’aide de
PicWeb, notre exemple fil rouge dont la description est réalisée dans le chapitre suivant.
343.3. Conclusion de l’état de l’art
Critères
Adapté aux
processus métiers Adapté à la QoS Adapté à l’évolution Identification du sous-ensemble impacté Quantification de l’impact Coût de l’analyse
Analyses des causes
racines
[Ben Halima 2008]
Non Oui Non Non Oui Bas (analyse de trace)
Analyse de l’impact
du changement
[Ravichandar 2008]
Non Non Oui Oui Non Bas (analyse de dépendance)
Analyse de
l’évolution
[Elbaum 2001]
Non Non Oui Oui Non Élevé (étude empirique)
Analyse de
Processus Métiers
[Soffer 2005]
Oui Non Oui Oui Oui Élevé (taxonomie)
Analyse de
Processus Métiers
[Dam 2010]
Oui Non Non Oui Oui
Moyen
(modélisation du
système nécessaire)
Analyse de la QoS
[Rottger 2003] Non Oui Non Non Non élevé (pas d’outil disponible)
Analyse de la QoS
[Becker 2008] Non Oui Oui Oui Oui
Élevé (besoin de
modèles de
performance
supplémentaires)
Analyse de la QoS
[Cicchetti 2011] Non Oui Oui Oui Oui
Moyen (besoin de
re-vérifier
l’intégralité du
système)
Table 3.2 – Comparatif des différentes analyses d’impact.
35Chapitre 4
Présentation du cas d’étude
Sommaire
4.1 Séduite, un système de diffusion d’informations à base de processus
métiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 PicWeb, un processus métier de recherche d’images . . . . . . . 39
4.2.1 Description de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 Évolution de PicWeb . . . . . . . . . . . . . . . . . . . . . . . . . . 40
C
e chapitre présente PicWeb, un service de recherche d’images provenant de différentes
sources qui correspondent à un mot-clé passé en paramètre. PicWeb est
représenté par un processus métier dont le développement s’est déroulé de manière agile.
Au fil du temps, ce processus métier a évolué pour continuer de correspondre aux besoins
des utilisateurs. Il constitue à ce titre un cas d’étude idéal de par sa taille raisonnable et sa
compréhension aisée pour illustrer les problèmes rencontrés lors de l’évolution d’application
à base de processus métiers. Tout particulièrement, nous montrons ici qu’il est difficile de
garantir le maintien de la qualité de service lors de l’évolution. Nous utilisons PicWeb tout
au long du document pour illustrer l’apport des différentes contributions de cette thèse.
Dans ce chapitre, nous présentons le scénario d’utilisation de PicWeb : nous montrons
comment il s’inscrit dans un système plus large nommé Séduite [Delerce-Mauris 2009] et en
quoi les différentes évolutions de PicWeb ont été source de problèmes pour maintenir la
qualité de service du système.
4.1 Séduite, un système de diffusion d’informations à
base de processus métiers
Séduite est un système de diffusion d’informations à destination du personnel et des
étudiants d’une université. Son origine provient d’un besoin de diffuser sur un campus universitaire
des informations diverses, provenant de sources différentes telles que la scolarité,
le restaurant universitaire, ou encore les différentes associations étudiantes souhaitant communiquer
sur leurs activités. De par l’hétérogénéité du public ciblé, ces informations doivent
être affichables sur des périphériques variés tels que des écrans de contrôle positionnés au
sein de l’institution, des smartphones, ou encore via un site web. La Figure 4.1 illustre
l’interface graphique de Séduite.
Le développement de Séduite a débuté en 2005. Originellement utilisé comme prototype
de recherche à des fins d’expérimentation (il a servi notamment de validation au projet
FAROS 1
), le système prit de l’ampleur suite à l’implication d’une équipe de huit développeurs.
Le système est aujourd’hui constitué de vingt-six services implémentés en Java
et de sept processus métiers implémentés dans le Business Process Execution Language
1. Projet RNTL FAROS, 2005.4.1. Séduite, un système de diffusion d’informations à base de processus
métiers
Figure 4.1 – Utilisation de Séduite au cours de la nuit de l’info.
BPEL [OASIS 2007]. Ces services ont pour tâches de collecter les différentes informations
provenant des différents services administratifs de l’université, mais également de services
web externes. La Figure 4.2 représente l’architecture globale de Séduite.
En huit ans, Séduite a été déployé dans plusieurs institutions. Son développement s’est
effectué de manière agile : en s’appuyant fortement sur les nombreux retours de la part
des utilisateurs, l’implémentation de Séduite a subi de nombreuses évolutions. Nous nous
focalisons dans le cadre de cette thèse sur l’évolution de l’un de ces processus métiers,
nommé PicWeb.
Figure 4.2 – Architecture de Séduite.
384.2. PicWeb, un processus métier de recherche d’images
Activité Activité du
processus métier
Activité Activité modifiée au
cours de l'évolution
Légende:
(a) PicWeb V0
(b) PicWeb V1
Evolution
a1 Keyword:= receive()
Pics[] :=
Picasa:getPics(Keyword) a2
a3 PicsF[] = shuffle(Pics[])
a4 reply(PicsF[])
a1 Keyword:= receive()
PicsPicasa[] :=
Picasa:getPics(Keyword) a2 PicsFlickr[] :=
Flickr:getPics(Keyword) a21
a30 Pics[] := Helper:join(PicsPicasa[], PicsFlickr[])
a3 PicsF[] = shuffle(Pics[])
a4 reply(PicsF[])
a4 a4
Figure 4.3 – Évolutions de PicWeb.
4.2 PicWeb, un processus métier de recherche d’images
De l’ensemble des évolutions de Séduite, le cas des évolutions de PicWeb se dégage
particulièrement. En effet, à l’issue de l’une de ces évolutions, le déploiement de la nouvelle
version entraîna le ralentissement de l’ensemble du système. Nous nous focalisons dans cette
section sur cette évolution, qui nous servira d’exemple tout au long du document.
4.2.1 Description de PicWeb
PicWeb est un processus métier faisant partie de Séduite. Il a pour but d’afficher
sur les écrans de diffusion différentes photos de la vie du campus. Pour cela, le processus
métier interroge des services web de stockage de photos tels que Flickr de Yahoo! ou
encore Picasa de Google, en récupérant les photos correspondant à un mot-clé donné. Le
processus métier récupère ces ensembles de photos et effectue un mélange afin de rendre
l’affichage des photos aléatoire. Par exemple, sur le campus de Lille, PicWeb est utilisé
pour diffuser les photos des différents événements de la vie étudiante.
La Figure 4.3(a) est une représentation de la version initiale de PicWeb selon le formalisme
des diagrammes d’activités d’UML, permettant la description du processus métier. Au
départ, le processus métier récupère les photos correspondant à un mot-clé donné (activité
a1 ). Le processus reçoit le mot-clé, effectue une invocation au service Picasa (activité a2 )
pour récupérer les correspondances, les mélange pour obtenir un ordre aléatoire (activité
a3 ), et les retourne en tant que résultat (activité a4 ).
394.2. PicWeb, un processus métier de recherche d’images
Dans le cadre du développement de PicWeb, l’équipe de développement s’est intéressé
particulièrement à étudier le temps de réponse du service. Concrètement, il s’agissait de
caractériser un appel à un service ou à un processus métier, en mesurant le temps passé
entre la réception du message d’entrée, et l’envoi du résultat en sortie. Ce temps comprend le
temps passé pour l’envoi des messages d’entrée et de sortie (appelé temps de transmission),
et le temps passé pour calculer la réponse (appelé temps de calcul). Pour s’assurer que le
temps de réponse de PicWeb se situait dans un intervalle de temps acceptable, des mesures
ont été effectuées sur l’ensemble du processus. Puis, lors de chaque évolution, l’équipe de
développement considérait uniquement les activités modifiées par l’évolution pour s’assurer
du maintien de la qualité de service pour le temps de réponse.
4.2.2 Évolution de PicWeb
Au cours de son cycle de vie, PicWeb évolua à plusieurs reprises pour répondre aux
changements des besoins des utilisateurs. Nous nous focaliserons dans ce document sur
l’évolution décrite dans la Figure 4.3, car elle montre comment le simple ajout d’un appel
de service peut avoir un impact sur la qualité de service de l’ensemble du processus métier,
voire même du système tout entier. PicWeb évolue pour prendre en considération un
nouveau fournisseur d’images (Flickr), comme montré dans la figure Figure 4.3 (b). Ce
fournisseur est désormais appelé en parallèle de Picasa, avant que le résultat soit concaténé
dans la réponse.
Lors de cette évolution, si les temps de réponse des activités a20, a21 et a30 de la
Figure 4.3(b) présentaient individuellement des valeurs d’un ordre de grandeur attendu,
le déploiement de la nouvelle version de PicWeb révéla une toute autre réalité. En effet, les
temps de réponse de PicWeb, mais également de Séduite dans son ensemble, augmentèrent
de façon significative. Cette augmentation provoqua le ralentissement du système, obligeant
l’équipe de développement à déployer dans l’urgence une version précédente du système.
Il est intéressant de noter ici que la cause du problème ne vient pas directement de
l’évolution mais d’un autre service. Ici, l’appel à Flickr ou au service de concaténation
n’était pas la cause du ralentissement du système. Toutefois, l’augmentation de la taille
des données traitées par l’activité de formatage des images ralentit considérablement son
exécution, causant le ralentissement de l’ensemble du système. En effet, l’implémentation de
l’opération shuffle consiste, pour un ensemble de n éléments donnés en entrée, à effectuer n
2
permutations afin de mélanger l’ensemble. L’évolution appliquée à PicWeb n’a pas modifié
l’implémentation de shuffle ; toutefois, le contenu de la variable Pics, donnée en entrée de
shuffle, est passé de n éléments à 2n. Au niveau de shuffle, l’évolution a entrainé les n
2
permutations à devenir 4n
2 permutations, causant ainsi un ralentissement de l’exécution
de l’opération, de PicWeb et du système dans son ensemble.
De ce fait, il n’est pas raisonnable de limiter l’analyse de l’évolution aux seuls éléments
modifiés dans l’évolution, car cette modification peut avoir des effets indirects sur le reste
du système. Il est donc nécessaire de pouvoir déterminer la relation entre l’évolution et
son effet sur le reste du système, afin de pouvoir qualifier l’effet concret de l’évolution sur
l’ensemble du système.
Ce chapitre vient de présenter le cas d’étude de ce document. Dans le chapitre suivant,
nous présentons les différents problèmes rencontrés au cours de l’évolution de PicWeb.
Nous en extrayons les différents défis liés à l’évolution, avant de donner un aperçu des
contributions de la thèse pour apporter une solution à cette problématique.
40Deuxième partie
ContributionsChapitre 5
Un processus de développement
pour le maintien de la qualité de
service
Sommaire
5.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Définition des acteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.3 Description du processus de développement . . . . . . . . . . . . 44
5.4 Coopération entre acteurs . . . . . . . . . . . . . . . . . . . . . . . 45
5.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 46
C
e chapitre présente notre approche pour guider l’équipe de développement dans
la réalisation d’un système suivant les principes des architectures orientées services,
avec un point de vue particulier pour la qualité de service. Nous identifions tout d’abord les
différents acteurs opérant sur le logiciel, en décrivant leur rôle, et en quoi leurs expertises
propres interviennent dans le maintien de la QoS lors de l’évolution d’un logiciel. Nous
présentons ensuite le cycle de développement en lui-même. Enfin, nous mettons l’accent sur
le besoin d’interactions entre les différents acteurs pour parvenir à maintenir la QoS tout
au long du cycle de vie.
5.1 Motivations
La conception et la réalisation d’un système informatique nécessitent la mobilisation
d’un ensemble de compétences propres à un domaine particulier [IEEE 2008, Tarr 1999].
Nous nous intéressons dans le cadre de cette thèse à la réalisation d’une évolution et au
maintien de la qualité de service d’un système. Si ces deux compétences peuvent être traitées
indépendamment, leur implication dans la réalisation du système entraine des conflits à
prendre en compte. Typiquement, l’évolution de PicWeb et les mesures de son temps de
réponse peuvent être gérées de manière isolée ; toutefois, en agissant de la sorte, l’application
de l’évolution a eu de fait une influence sur la propriété étudiée, ayant ainsi des conséquences
inattendues.
Pour pouvoir contrôler ces conséquences, il est nécessaire d’identifier les influences entre
les différentes expertises, c’est-à-dire les moments dans le cycle de vie d’un logiciel où les
choix techniques et architecturaux réalisés par une expertise donnée auront un impact sur
une ou plusieurs autres expertises. Il s’agit donc dans un premier temps d’expliciter les
compétences existantes, pour ensuite définir les moments dans le cycle de vie où les choix
d’une expertise ont un impact sur une autre expertise, et où une concertation est nécessaire.
Nous avons décidé dans un premier temps d’identifier les compétences requises et de les5.2. Définition des acteurs
affecter à des entités nommées acteurs [Taskforce 2011]. Un acteur est une, ou plusieurs
personnes, responsable d’un ensemble de tâches propres à une préoccupation. Ainsi, une
tâche commune à deux acteurs implique un échange de connaissances entre les deux acteurs,
que ce soit par le biais d’une rencontre, ou encore par un échange de documents et de
données ; c’est ce que l’on appelle un point d’interaction.
Le défi ici est de définir quelles sont les interactions nécessaires entre les différents
membres de l’équipe de développement. Pour cela, nous proposons Blink, un processus de
développement permettant d’ordonner les tâches en étapes, et de définir le but de chaque
tâche. En identifiant les compétences fournies par les acteurs et les compétences requises
pour chaque étape, nous mettons en évidence les interactions nécessaires. Dans la suite de
ce chapitre, nous présentons quelles sont les acteurs gravitant autour de la réalisation d’un
système. Puis, nous introduisons Blink, et détaillons l’ensemble des étapes nécessaires pour
le développement d’un système avec une préoccupation pour la qualité de service. Enfin,
nous explicitons les différentes interactions au sein de l’équipe de développement.
Pour illustrer nos propos, nous nous appuyons sur le cas de l’évolution de PicWeb.
5.2 Définition des acteurs
Au cours du développement et de l’évolution de l’application, différents acteurs interviennent
pour apporter leur expertise propre. Ces acteurs ont un rôle spécifique, et sont
amenés à prendre des décisions modifiant la structure et le comportement du système réalisé.
Dans le contexte de la réalisation de systèmes orientés services se préoccupant de la
Qualité de Service, nous listons dans la Table 5.1 les différents acteurs identifiés, et décrivons
leur rôle. Ces acteurs ont été identifiés en nous inspirant des travaux de Bejaoui et al.
[Bejaoui 2008], de Kajko-Mattson et al. [Kajko-Mattsson 2007], ou encore de Zimmermann
et al. [Zimmermann 2006]. Nous comptons cinq rôles. Parmi eux, un est extérieur à l’équipe
de développement (l’utilisateur). Le dernier rôle est un acteur non humain : il s’agit de notre
canevas de développement, Smile, dont nous présentons les différentes parties tout au long
du document, et dont l’implémentation est décrite dans le chapitre 9.
Nous cherchons maintenant à déterminer la manière dont les acteurs œuvrent pour
réaliser un système. Pour cela, nous répertorions chacune des étapes de Blink, notre processus
de développement. Nous présentons chacune des étapes en décrivant leur rôle dans
le processus global, et les acteurs amenés à y participer.
5.3 Description du processus de développement
Afin d’éviter les problèmes d’influence entre les expertises et de pouvoir définir un système
dont la qualité de service est maintenue au fil du temps, nous identifions dans cette
section les étapes clés du processus de développement, au cours desquelles une mise en commun
des informations et des choix effectués par les acteurs concernés est nécessaire. Pour
définir notre processus de développement, Blink, nous nous sommes inspirés de processus
de développement existants, tels qu’ils sont présentés dans [Papazoglou 2006] ou encore dans
[Kijas 2013]. De ces processus, nous avons conçu Blink, un processus de développement
pour le maintien de la qualité de service à l’évolution. La Figure 5.1 représente le diagramme
d’activités de ce processus de développement. Chacune des étapes est décrite dans
les Tables 5.2, 5.3 et 5.4, accompagnée d’un diagramme selon la spécification SPEM 1
. Ce
processus a été conçu pour réaliser un système de façon itérative et incrémentale, où chaque
1. http://www.omg.org/spec/SPEM/2.0/
445.4. Coopération entre acteurs
Table 5.1 – Rôles intervenants dans la réalisation d’un système.
Utilisateur du système Représente la communauté utilisant le logiciel. Il est responsable
de faire part auprès de l’équipe de développement des nouveaux
besoins, nécessitant de faire évoluer le logiciel.
Architecte du processus
métier
Réalise la logique métier du système au moyen de processus mé-
tiers et de services. Il a une connaissance approfondie du comportement
du système et de la panoplie de services déjà implémentés
qu’il peut utiliser.
Expert en Qualité de
Service
Définit les propriétés de qualité de service. Il a une connaissance
approfondie des propriétés et des outils pour les observer au sein
de n’importe quel système. Il est en mesure de déterminer en cas
de dégradation des valeurs de propriétés les facteurs d’influence
pouvant en être la cause.
Architecte de l’évolution Décrit les évolutions à produire pour modifier le comportement
de système, en accord avec les nouveaux besoins de l’utilisateur.
Il a une connaissance partielle du comportement du système.
Smile Joue le rôle d’interlocuteur avec les autres acteurs de l’équipe de
développement, en leur communiquant par exemple les informations
nécessaires à leurs prises de décisions. Il contient des informations
sur le système, son implémentation, et les différentes
analyses effectuées. Dans le cadre de Blink, Smile automatise
certaines tâches comme l’application de l’évolution au système,
ou encore son analyse.
incrément est une évolution à considérer. Il implique l’ensemble des acteurs du système et
permet, à partir de l’expression de nouveaux besoins de la part de l’utilisateur, de définir
une évolution qui sera analysée afin de s’assurer du maintien de la qualité de service dans
le système post-évolution.
Au cours des différentes étapes, certains acteurs sont amenés à interagir. Nous définissons
dans la section suivante les points d’interaction du processus, où plusieurs expertises sont
nécessaires pour accomplir des tâches communes.
5.4 Coopération entre acteurs
Le but de cette section est de mettre en évidence les coopérations entre les différents
acteurs. Il s’agit de définir pour un point d’interaction à quel moment celui-ci intervient
dans le processus de développement, quels acteurs sont nécessaires, et quelles informations
ils vont échanger. Nous distinguons trois points d’interaction, indiqué sur la Figure 5.1
par un titre d’étape souligné :
– Évolution des besoins : au cours de cette étape, l’utilisateur et l’architecte du
système collaborent ensemble pour établir le plus précisément possible les nouveaux
besoins. Il en résulte une spécification des besoins.
– Définition de l’évolution : pour pouvoir définir une évolution, l’architecte de cette
évolution a pour tâche de proposer une modification qui satisfera les besoins spécifiés.
Pour cela, la collaboration de l’architecte du système et de l’architecte de l’évolution
consiste à la mise en commun des besoins, une spécification des besoins, guidée par la
455.5. Conclusion du chapitre
0 - Import initial
du système
1 - Évolution
des besoins
2 - Définition
de l'évolution
3 - Analyse
de l'évolution
4 - Vérification des
éléments affectés
6 (b) - Annulation
de l'évolution
6 (a) - Application
de l'évolution
5 - Diagnostic et
prise de décision
décision='ok' décision='¬ ok'
Figure 5.1 – Schéma du processus de développement Blink.
connaissance pointue du système que l’architecte du système a acquis depuis le début
du projet.
– Diagnostic et prise de décision : une fois que l’architecte de l’évolution a conçu une
modification, et que l’expert en qualité de service l’a analysée, il s’agit de mettre en
commun ces deux expertises dans le but de dresser un diagnostic. Pour cela, l’expert en
qualité de service apporte les différentes mesures effectuées : l’architecte de l’évolution
est en mesure de les interpréter, afin de comprendre pourquoi une évolution a violé un
contrat de qualité de service, le cas échéant. Cette coopération a pour but de faciliter
le diagnostic, dans l’optique de l’écriture d’une nouvelle évolution qui ne violera pas
de contrat de qualité de service.
En se basant sur ces différentes coopérations, nous mettons en évidence à quel moment
du cycle de vie il est important d’unir plusieurs expertises, évitant ainsi un cloisonnement
des acteurs de l’équipe de développement.
5.5 Conclusion du chapitre
Nous venons de présenter Blink, un processus de développement pour gérer le maintien
de la qualité de service à l’évolution. Pour atteindre cet objectif, nous avons établi
un ensemble d’acteurs, et défini leur rôle dans la réalisation d’un système logiciel. Notre
processus est constitué d’un ensemble d’étapes, pour lesquelles le ou les acteurs impliqués
sont désignés. De plus, cette répartition des rôles tout au long du processus de développe-
465.5. Conclusion du chapitre
0 - Import initial du système
0 - Import initial
du système
Description
Système
Description
Système SMILE
Architecte
Système
< > <>
<>
<>
SMILE
Entrée : Description architecturale d’un système
Sortie : représentation du système dans Smile
Acteur(s) : Architecte du système, Smile
Description : afin de pouvoir unifier l’utilisation du processus de développement Blink pour des
nouveaux systèmes comme pour des systèmes existants, l’import initial du système est une étape
optionnelle permettant d’importer un système existant, constitué de un ou de plusieurs processus
métiers, dans notre canevas de développement.
Application à PicWeb : l’architecte du système initie le cycle de développement en important
le processus métier dans sa première version (voir Figure 4.3). En sortie de l’étape, Smile produit
une structure de données représentant le système, lui permettant par la suite de raisonner dessus.
Plus d’informations dans le chapitre 6.
1 - Évolution des besoins
1 - Évolution
des besoins
Description
Système SMILE
Description
Besoins Utilisateur
Architecte
Évolution
< > <>
<>
<>
Utilisateur
Entrée : Représentation du système
Sortie : Description des besoins de l’utilisateur
Acteur(s) : Utilisateur, Architecte de l’évolution
Description : cette étape est déclenchée à l’initiative de l’utilisateur, qui souhaite voir le système
évoluer. Pour cela, l’utilisateur et l’architecte de l’évolution se réunissent pour capturer les nouveaux
besoins conduisant à faire évoluer le système.
Application à PicWeb : l’utilisateur a émis le souhait de voir davantage de photos différentes
sur les écrans du campus. L’architecte de l’évolution a proposé alors d’inclure une nouvelle source
de données, Flickr.
2 - Définition de l’évolution
2 - Définition
de l'évolution
Description
Besoins Utilisateur
Description
Évolution
Architecte
Évolution
< > <>
<>
Entrée : Description des besoins de l’utilisateur
Sortie : Description de l’évolution
Acteur(s) : Architecte de l’évolution
Description : l’étape consiste à définir une évolution du système répondant aux nouveaux besoins.
L’architecte de l’évolution exprime l’évolution sous formes d’opérations applicables aux processus
métiers. Il décrit la séquence des opérations d’évolution (telles que l’ajout d’une variable, la modi-
fication d’une activité) permettant de rendre le système satisfaisant vis-à-vis des nouveaux besoins
de l’utilisateur.
Application à PicWeb : l’architecte de l’évolution décrit les opérations nécessaires pour ajouter
un appel à Flickr en parallèle à Picasa, et pour concaténer les résultats des deux services.
Table 5.2 – Description des étapes 0 à 2 du processus de développement (Blink).
ment nous a permis de rendre explicite les interactions nécessaires entre acteurs. De cette
manière, chaque choix effectué au cours du processus est fondé sur l’ensemble des données
nécessaires, permettant de s’assurer à tout moment qu’une décision prise n’altèrerait pas le
maintien de la QoS.
Il s’agit donc maintenant de savoir, pour chacun de ces acteurs, quels sont les outils à
mettre en place pour leur permettre d’apporter les informations nécessaires lors des points
d’interaction. Dans la suite du document, nous prenons tour à tour la place de chaque
acteur, en déterminant leur problématique propre pour aider au maintien de la qualité de
service, et en proposant une contribution permettant de résoudre ces problématiques.
475.5. Conclusion du chapitre
3 - Analyse de l’évolution
SMILE
3 - Analyse
de l'évolution Description
Système
Sous-Ensemble
Système
Architecte
Évolution
< > <>
<>
<>
Description
Évolution < >
Entrée : Évolution, Système
Sortie : Sous-ensemble du système post-évolution
Acteur(s) : Architecte de l’évolution, Smile
Description : l’étape d’analyse a pour objectif de déterminer quelles valeurs de propriétés du
système sont affectées par l’évolution. Pour cela, Smile identifie les influences entre les éléments
manipulés dans l’évolution et le reste du système, pour déterminer quels éléments ont leur comportement
affecté par l’évolution. Nous verrons comment ces influences sont déterminées dans les
chapitres 6 et 7, et comment l’analyse est réalisée dans le chapitre 8.
Application à PicWeb : l’étape d’analyse de l’évolution a pour objectif de déterminer quelles
activités sont influencées par l’ajout de Flickr. Ici, il s’agit de lever la limitation présentée dans le
chapitre 4, où l’équipe de développement a vérifié uniquement le temps de réponse des activités
manipulées par l’évolution. En dressant la chaine de conséquences de l’évolution, l’analyse désigne
un sous-ensemble du système à re-vérifier.
4 - Vérification des éléments affectés
4 - Vérification des
éléments affectés
Sous-Ensemble
Système
Valeurs de
Propriété
Expert en
QoS
< > <>
<>
<>
SMILE
Entrée : Sous-ensemble du système post-évolution
Sortie : Valeurs de propriétés collectées
Acteur(s) : Expert en QoS, Smile
Description : Une fois que l’analyse de l’évolution a déterminé les éléments affectés par l’évolution,
il s’agit maintenant de savoir si leur modification améliore ou dégrade la qualité de service. Pour
cela, l’expert en qualité de service est en charge de contrôler la qualité de service des éléments
affectés, pour déterminer les nouvelles valeurs de propriété à l’aide d’outils de détermination de la
qualité de service tels que des outils d’analyse statique du système, ou des contrôleurs présents à
l’exécution.
Application à PicWeb : une version de test est déployée, dans le but de mesurer à l’exécution
le temps de réponse des activités désignées lors de l’étape précédente. Ainsi, il est possible de
quantifier la différence causée par l’évolution en terme de temps de réponse en la comparant avec
les valeurs mesurées sur la version précédente de PicWeb.
5 - Diagnostic et prise de décision
5 - Diagnostic et
prise de décision
Valeurs de
Propriété
Décision
Architecte
Évolution
< > <>
<>
Entrée : Valeurs de propriétés collectées
Sortie : Décision
Acteur(s) : Architecte de l’évolution
Description : le but de cette étape est de décider de l’application d’une évolution. Pour cela,
l’architecte compare les nouvelles valeurs de propriétés du système post-évolution avec les contrats
de QoS définis. À partir de cette comparaison, l’architecte de l’évolution peut déterminer si un
contrat de QoS a été violé, et décider d’appliquer ou non l’évolution.
Application à PicWeb : les données collectées révèlent une augmentation importante du temps
de réponse, allant au delà du niveau maximum autorisé par le contrat de qualité de service. En
observant les valeurs du temps de réponse mesurées à l’exécution, l’architecte de l’évolution est en
mesure de détecter que le temps de réponse de l’activité shuffle (a3) a augmenté (voir Figure 4.3).
En conséquence, il prend la décision de ne pas appliquer l’évolution.
Table 5.3 – Description des étapes 3 à 5 du processus de développement (Blink).
485.5. Conclusion du chapitre
6 - Mise en application de l’évolution
SMILE
6 - Mise en
application de
Décision l'évolution
Système
cohérent
Architecte
Évolution
< >
<>
<>
<>
Description
Évolution < >
Entrée : Décision, Évolution
Sortie : Système dans un état cohérent
Acteur(s) : Architecte de l’évolution, Smile
Description : la dernière étape consiste à mettre en œuvre la décision prise précédemment. Pour
cela, deux choix sont possibles :
1. 6 (a) - Application de l’évolution : Dans cette alternative, il s’agit d’appliquer de
manière effective l’évolution sur le système en cours d’exécution. Dans le cas où l’évolution
apportée au système satisfait l’architecte de l’évolution, les processus modifiés sont mis à
jour et déployés sur le serveur de production de façon atomique.
2. 6 (b) - Annulation de l’évolution : Cette alternative annule les modifications faites
dans la représentation du système. Dans le cas où l’évolution apportée au système viole les
contrats de qualité de service ou ne satisfont pas l’architecte de l’évolution, il est nécessaire
d’annuler l’application de l’évolution. Cela se traduit par une réinitialisation des modèles
de raisonnement du système à la version pré-évolution et par un effacement des mesures
effectuées au cours de l’étape de vérification, afin de conserver la cohérence entre l’état du
système exécutée et sa représentation. Le système retrouve un état cohérent ; l’architecte de
l’évolution peut reprendre le cycle de développement en écrivant une nouvelle évolution.
Application à PicWeb : Ici, le modèle du système est rétabli tel qu’il était avant d’appliquer
l’évolution, et les valeurs de propriétés mesurées sur la version de test sont effacées. Partant de la
cause identifiée lors de l’étape 5, l’équipe de développement modifie l’opération shuffle en réduisant
le nombre d’échanges effectués et en parallélisant les traitements, permettant ainsi d’obtenir un
comportement similaire tout en respectant les contrats de QoS de Séduite.
Table 5.4 – Description de l’étape 6 du processus de développement (Blink).
49Chapitre 6
Modélisation d’un système à base
de processus métiers
Sommaire
6.1 Défis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2 Modélisation du système . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2.2 Variables et types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.2.3 Messages et Opérations . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2.4 Services . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.2.5 Activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.6 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.2.7 Processus métier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2.8 Système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3 Causalité de l’exécution d’un système . . . . . . . . . . . . . . . . 58
6.3.1 Mise en œuvre de la causalité . . . . . . . . . . . . . . . . . . . . . . 59
6.3.2 Relations causales fonctionnelles . . . . . . . . . . . . . . . . . . . . 59
6.3.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.4 Déduction des relations causales d’un système . . . . . . . . . . . 61
6.4.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4.2 Expression des règles causales . . . . . . . . . . . . . . . . . . . . . . 62
6.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 63
C
e chapitre se centre sur le rôle de l’architecte du système. Celui-ci a pour tâche de
décrire la structure et le comportement du système ; il doit être en mesure de comprendre
les interactions entre ses différentes parties. Pour l’aider dans sa tâche, nous présentons
dans un premier temps un méta-modèle permettant de décrire un système. Puis, nous
définissons la notion de causalité dans le cadre d’un système à base de processus métier, et
motivons l’intérêt de connaitre les relations de causalité dans un système pour comprendre
les interactions existantes. Ces relations causales ont pour but de rendre explicite les interactions
présentes au sein d’un système. Après avoir illlustré les différents types de relations
causales que l’on peut trouver dans un système, nous montrons comment il est possible de
les déterminer de manière automatique. Ces causalités, matérialisées sous la forme de relations
causales, serviront de base dans le chapitre 8 pour analyser les effets d’une évolution
sur la qualité de service d’un système.6.1. Défis
6.1 Défis
Dans ce chapitre, nous répondons aux défis suivants :
– Modélisation du système : afin de pouvoir répondre aux besoins des utilisateurs,
l’architecte a besoin de pouvoir décrire la structure et le comportement du système.
Pour cela, nous devons déterminer quels sont les concepts nécessaires à sa modélisation.
– Comportement du système à l’exécution : lors de l’exécution du système, processus
métiers, variables et appels à des opérations de services interagissent dans le
but de pouvoir produire un résultat en sortie. Si l’architecte décrit l’ensemble du
comportement du système, la complexité et la taille de ce dernier rendent malgré
tout la compréhension des interactions difficile. Comment peut-on rendre explicite les
interactions liées à l’exécution d’un système et extraire celles qui nous intéressent ?
Nous proposons dans la suite de ce chapitre de présenter dans un premier temps comment
l’architecte modélise un système en introduisant notre méta-modèle. Nous avons fait
le choix ici de définir notre propre méta-modèle, reprenant les concepts nécessaires à la modélisation
de processus métiers. Ainsi, nous offrons la possibilité d’être inter-opérable avec
les différents langages de description de processus métiers, en effectuant une correspondance
entre les concepts du langage utilisé et notre méta-modèle. Puis, nous définissons la notion
de causalité dans un système. Cette notion nous servira à représenter les interactions entre
les éléments du système (comme par exemple l’influence d’un paramètre d’un appel à un
service sur le comportement de ce dernier). Après avoir présenté différentes relations causales
que l’on peut retrouver dans un processus métier tel que PicWeb, nous définissons
des groupes de relations, représentant le même type de causalité. Nous introduisons alors la
notion de règle causale, qui sont des patrons de relation causale qu’il est possible d’appliquer
à un système pour obtenir de manière automatique ses relations causales.
6.2 Modélisation du système
Cette section présente notre méta-modèle permettant à l’architecte du système de modéliser
un système. Nous définissons chacun des concepts, avant d’illustrer comment ils sont
mis en œuvre pour modéliser PicWeb.
6.2.1 Univers
L’ensemble des concepts présentés dans la thèse, qui servent à définir un système ou
sa qualité de service, sont regroupés autour d’un concept appelé Univers. Un univers est
composé d’un ensemble d’éléments (UniverseElement), dont tous les concepts que nous
allons présenter héritent.
6.2.2 Variables et types
On appelle type de données la caractérisation du sens et de la taille d’une donnée. Nous
considérons deux sortes de types :
– Types primitifs (SimpleType) : on appelle type primitif la structuration des données
à un niveau indivisible. Par exemple, les types Integer, String ou Float sont des
types primitifs, définis sur la base de normes existantes [Singh 2006].
526.2. Modélisation du système
– Types complexes (ComplexType) : il est également possible de définir des types
de données comme étant une composition de types simples. Par exemple, une séquence
est un type complexe constitué d’une suite d’éléments dont la taille n’a pas été définie à
l’avance. L’architecte déclarera alors par exemple utiliser un type Sequence,
comme étant une suite d’éléments de type Integer.
– Types structurés (StructuredType) : en s’appuyant sur les types complexes et
les types primitifs, l’architecte a la possibilité de définir ses propres structures de
données. Pour cela, un type structuré est constitué d’un ensemble de types, que l’on
différencie au sein de la structure de données à l’aide d’un nom (name en anglais).
C’est ce que l’on appelle un champ (Field en anglais). À titre d’exemple, l’architecte
pourrait définir un type structuré Étudiant, constitué de trois champs nom (de type
String), prénom (de type String), et notes (de type Sequence).
Une variable est une donnée dont la valeur peut évoluer au cours de l’exécution. Elle est
caractérisée par un nom et un type de donnée. À titre d’exemple, la variable keyword est une
variable de PicWeb, de type simple String. Une autre variable de PicWeb, PicsPicasa, est
une variable de type complexe Sequence. La Figure 6.1 est un extrait de notre
méta-modèle permettant de représenter des types et des variables : une variable a un et un
seul type ; Type est un méta-élément abstrait, dont héritent SimpleType, ComplexType et
StructuredType.
Variable
size: Natural
Type
name: String
UniverseElement
StructuredType SimpleType ComplexType
Field
of
1..1 fieldType
innerFields 0..* 1..1
variableType
1..1
Universe
0..*
elmts
Figure 6.1 – Extrait du méta-modèle de Smile : variables et types.
6.2.3 Messages et Opérations
Nous appelons Opération dans le contexte des architectures orientées services la dé-
claration d’une tâche effectuant un traitement. Une opération est déclarée à l’aide d’une
signature. Celle-ci définit le nom de l’opération, ainsi que le type de donnée en entrée de
l’opération et le type de données produites en sortie. Ainsi, on définit une opération par le
tuple :
Opération(nom : String, entrée : Type, sortie : Type).
Pour interagir avec une opération, il est souvent nécessaire de lui communiquer un ensemble
de données à traiter. Cela est réalisé par le biais d’un message. On appelle message une
structure de données encapsulant dans une même unité logique l’ensemble des variables
nécessitant d’être transmis. Un message est déclaré en lui donnant un nom et en indiquant
son type de données.
L’invocation d’une opération s’effectue la plupart du temps en envoyant un message,
dont le type correspond au type d’entrée de la signature de l’opération. La définition du
comportement de l’opération est, dans le contexte des architectures orientées services, réalisée
à l’aide d’un processus métier, ou par une implémentation dans un langage de programmation
donné.
536.2. Modélisation du système
À titre d’illustration, PicWeb est un processus métier implémentant l’opération du
même nom. Sa signature est :
Opération(nom="PicWeb",entrée="String",sortie=Sequence<"String">).
Lorsqu’il est invoqué, PicWeb reçoit en entrée un message constitué d’une seule variable,
keyword, de type String. Le processus décrit l’ensemble des traitements à effectuer, pour
retourner au final un autre message, constitué d’une seule variable PicsF ; cette variable est
de type <"String">, un type complexe constitué d’une séquence d’URLs, de type String.
6.2.4 Services
Le concept principal du paradigme des architectures orientées services est le service. Le
consortium OASIS définit un service comme étant "un mécanisme pour permettre l’accès à
une à plusieurs fonctionnalités, où l’accès est fourni par une interface prescrite et respectant
les contraintes et les polices spécifiées dans la description du service"[OASIS 2006]. Un
service est une entité logique regroupant un ensemble d’opérations. Nous distinguons deux
sortes de services :
– Service intra-domaine : il s’agit ici d’un service interne à l’organisation, l’entité en
charge du système modélisé par l’architecte du système. Ce service peut être vu comme
une boîte blanche, sur lequel des ajustements sont possibles. L’implémentation est
disponible, modifiable, maintenable et évolutive. Dans le cadre de PicWeb, Helper est
un service dont l’implémentation dépend de l’équipe de développement du système :
il s’agit là d’un service intra-domaine. Ce service comprend plusieurs opérations, dont
l’opération Format.
– Service extra-domaine : en plus des services intra-domaines, il est parfois nécessaire
de faire appel à des services proposés par des organisations tierces. Ces services
sont vus comme des boîtes noires : l’équipe de développement n’a aucune emprise sur
leur implémentation ou leur déploiement. Par exemple, le service Picasa est un service
extra-domaine fourni par Google. L’équipe de développement n’a aucune possibilité
de changer l’implémentation des opérations de ce service.
name = "Helper"
localisation="10.24.108.66/Helper"
:Service
name = "shuffle"
:Operation
name = "inShuffle"
:Message
name = "outShuffle"
:Message
Figure 6.2 – modélisation du service Helper.
Un service est défini comme le tuple :
Service(nom:String, localisation:String, ops:Ensemble).
À titre d’illustration, la Figure 6.2 est un extrait du modèle de PicWeb, représentant le
service Helper et son unique opération. Ce modèle est conforme à l’extrait de notre métamodèle
illustré dans la Figure 6.3, représentant les différents concepts introduits dans ce
paragraphe. Un service a pour attribut sa localisation. Il est constitué de une à plusieurs
opérations, possédant au plus un message en entrée et au plus un message en sortie.
546.2. Modélisation du système
size: Natural
Type
name: String
UniverseElement
location: String
Service 1..* Operation 0..1
0..1
input
output ops
Figure 6.3 – Extrait du méta-modèle de Smile : services, opérations et messages.
6.2.5 Activités
Le point de vue choisi pour modéliser un système est celui d’un ensemble de tâches
ordonnées dans le temps. Nous appelons activité, en lien avec la définition d’une activité
dans le langage BPEL, l’instanciation d’une tâche dans le contexte d’un processus métier.
Cette tâche a pour but d’effectuer un traitement sur des données. Par exemple, a2 dans
la Figure 4.3 est une activité de PicWeb instanciant une invocation au service Picasa.
L’activité prend en entrée un mot-clé, et produit en sortie un ensemble de photos.
BasicActivity
Receive Invoke Reply
Sequence Flow
gard: String
If
StructuredActivity
Activity
then else
content
name: String
UniverseElement
Message
input
input output
output
0..1
0..1 0..1
0..1
1..1 0..1
1..1
0..* Variable
content
Figure 6.4 – Extrait du méta-modèle de Smile : activités.
Nous modélisons l’ensemble des activités par la Figure 6.4. Nous distinguons différents
types d’activités :
– Réception : l’activité de réception consiste en l’attente bloquante d’une information
de la part des partenaires. Le plus souvent, nous retrouvons une activité de réception
en début du processus métier, pour récupérer les données en entrée. Le partenaire
est alors l’invoquant de l’opération. Une activité de réception est définie comme un
tuple Rcp(nom:String, output:Message). La Figure 6.5 est une partie du modèle
de PicWeb représentant l’activité de réception d’un message, constitué d’une seule
variable keyword.
name = "rcv"
:Receive
name = "inPicWebMsg"
:Message name = "keyword"
:Variable
output
content
type = "String"
varType :Type
Figure 6.5 – Extrait du modèle de PicWeb : activité receive.
556.2. Modélisation du système
– Envoi : l’envoi est l’équivalent de l’activité de réception, mais pour transmettre
des informations aux partenaires. Il sert le plus souvent à retourner le résultat d’un
processus métier. Une activité d’envoi est définie comme un tuple Env(nom:String,
input:Message).
– Invocation : lorsqu’il est nécessaire de faire appel à d’autres services pour effectuer le
traitement du processus métier, nous utilisons le type d’activité invocation. Les informations
nécessaires pour qualifier une invocation sont le nom du service et l’opération
à invoquer. Pour une invocation, il est également nécessaire de définir le message en
entrée de l’opération invoquée, et de définir le message destiné à recevoir le résultat
de l’opération. Une activité d’invocation est définie comme un tuple Inv(nom:String,
op:Operation, input:Message, output:Message).
En plus des activités présentés ci-dessus, nous introduisons d’autres activités, dites structurantes.
Elles ont pour rôle de regrouper, sous une même entité, différentes activités, en
ajoutant une sémantique supplémentaire. Ces activités sont les suivantes :
– Condition : Afin de pouvoir effectuer différents traitements selon une condition donnée,
l’activité condition permet de décrire les différentes alternatives. Une activité
de type condition est constituée d’une condition de garde, expression pour laquelle
l’évaluation retournera Vrai ou Faux, et de deux activités nommées Alors et Sinon. Si
l’évaluation de la garde retourne Vrai, l’exécution du processus métier se poursuivra
par l’activité Alors. Si l’évaluation de la garde retourne Faux, l’activité exécutée sera
l’activité Sinon, si elle est spécifiée. Dans le cas contraire, l’activité de condition se
termine.
– Séquence : une activité de type séquence contient un ensemble ordonné d’activités,
pour laquelle la sémantique d’exécution donnée consiste à exécuter les différentes
activités dans l’ordre donné. Par exemple, les activités de la première version de
PicWeb (Figure 4.3) sont toutes regroupées dans une même séquence.
– Flot : une activité de type flot est associée à une sémantique d’exécution différente
de celle de séquence. En effet, aucun ordre n’est défini pour l’exécution des activités
contenues : elles peuvent être exécutées les unes à la suite des autres et dans un
ordre aléatoire, ou bien de manière parallèle. Le flot se termine lorsque l’ensemble
des activités contenues a terminé son exécution. Un exemple d’activités de type flot
consiste à considérer les deux activités a2 et a3 dans la Figure 4.3 (b). Ces deux
activités sont contenues dans une activité de type flot : elles s’exécutent sans aucune
garantie de leur ordre relatif.
6.2.6 Relations d’ordre
Afin de pouvoir définir l’ordre d’exécution des activités, il est nécessaire d’introduire un
concept permettant de prioriser l’exécution des activités. Nous utilisons pour cela la notion
de relation d’ordre partiel. Une relation d’ordre Ord(a1, a2 ), (a1,a2 ) ∈ (Activity×Activity)
est un couple d’activités tel que a1 s’exécute avant a2. Grâce à cette notion, il est possible
de définir un ensemble de relations d’ordre déterminant l’ordre dans lequel les activités
vont s’exécuter. Par exemple, la Figure 6.6 représente la modélisation de l’ordre pour les
activités a1, a2 et a3 de la Figure 4.3 (a). Toutefois, nous parlons d’ordre partiel puisque
s’il est possible de définir l’ordre d’exécution entre deux activités, l’ordre d’exécution de
trois activités n’est pas défini. En effet, si nous prenons les activités a1 a2 et a21 de la
Figure 4.3 (b), les activités a2 et a21 peuvent s’exécuter en parallèle, ou l’une avant
l’autre, sans avoir nécessairement besoin de connaitre cet ordre.
566.2. Modélisation du système
:Order
from
to
name = "a1"
:Receive
name = "a2"
:Invoke
name = "a3"
:Invoke
:Order from
to
Figure 6.6 – Extrait du modèle de PicWeb : relations d’ordre.
Il est important de noter ici que la modélisation de l’ordre d’exécution est redondante
avec la présence d’activités structurantes. En effet, puisque les activités structurantes sont
associées à une sémantique d’exécution précise, dire que deux activités appartiennent à une
séquence et dire qu’il existe une relation d’ordre entre ces deux activités est équivalent.
Cette dualité permet à la fois d’être souple dans l’expression d’un flot de contrôle, par le
biais des relations d’ordre partielle, tout en donnant un cadre hiérarchique aux différentes
activités par le biais des activités structurantes. Ce dernier point permet notamment de
pouvoir qualifier directement une activité structurante du point de vue de la QoS.
La Figure 6.7 représente la partie de notre méta-modèle responsable de modéliser les
relations d’ordre.
Activity Order from
to
1
1
*
*
Figure 6.7 – Extrait du méta-modèle : relations d’ordre.
6.2.7 Processus métier
Nous avons vu dans la définition d’une opération qu’il était possible d’en définir l’implémentation
par le biais d’un processus métier. Nous appelons processus métier la réalisation
d’une opération par un ensemble d’activités ordonnées. Pour cela, nous réutilisons
les concepts introduits précédemment : un processus métier a besoin de variables
pour stocker le résultat des différents traitements, d’activités pour instancier les différentes
tâches à effectuer, de messages pour communiquer avec les activités, et de relations d’ordre
pour prioriser les activités. Enfin, un processus métier a besoin d’un point d’entrée, indiquant
par quelle(s) activité(s) démarrer. La Figure 6.8 représente la partie de notre
méta-modèle correspondant à un processus métier : formellement, nous définissons un processus
métier comme un tuple Proc(vars:Ensemble, msgs:Ensemble,
acts:Ensemble, ord:Ensemble, init:EntryPoint).
6.2.8 Système
Il existe dans la littérature de nombreuses définitions des systèmes logiciels. Par exemple,
le consortium OASIS définit un système comme étant "une collection de composants organisés
pour accomplir une fonction ou un ensemble de fonctions spécifiques" [OASIS 2006].
Nous appelons système logiciel l’ensemble des ressources et infrastructures logicielles qu’une
équipe de développement est amenée à gérer dans le cadre d’un projet. Un système peut
ainsi être vu comme un agglomérat de services, pouvant être implémentés à l’aide de pro-
576.3. Causalité de l’exécution d’un système
Business
Process
Order 0..*
rels
1..*
acts
Activity
Variable
left right
0..* 0..*
ins outs
0..*
vars
Message 0..*
msgs
location: String
Service 1..* Operation
ops
implementation 0..1
EntryPoint 1..*
start
init 0..1
System processes
0..*
Figure 6.8 – Extrait du méta-modèle : processus métier.
cessus métiers, agissant dans un but commun. Formellement, on considère un système
Sys(process:Ensemble, serv:Ensemble).
Nous venons de voir dans cette section l’ensemble des concepts nécessaires à l’architecte
du système pour modéliser un système. Notre méta-modèle, représenté dans son intégralité
en annexe, reprend les concepts communs aux langages de description d’architecture et
aux langages de description de processus métier pour fournir un méta-modèle à la fois
centré sur le processus métier, mais permettant de décrire la logique d’un système dans son
ensemble, comme assemblage de plusieurs processus métiers permettant à l’architecte du
système d’en définir son comportement. Dans la section suivante, nous nous intéressons à
la causalité présente au cours de l’exécution du système.
6.3 Causalité de l’exécution d’un système
L’exécution d’un système peut être vue comme les modifications successives de son
état [Turing 1936]. Dans le contexte de la thèse, ceci peut être vu comme une série d’interactions
entre les différents éléments constituants le système. Par exemple, la fin d’une
activité d’un processus métier peut engendrer le début d’une autre activité. Ce sont ces
interactions qui modifient l’état du système, tout au long de son exécution. Lorsque l’architecte
fait évoluer un système, il ajoute, modifie ou supprime des éléments. Cela a pour
conséquence de changer la manière dont les éléments du système vont interagir, et par la
même occasion influe sur leur qualité de service. Afin de pouvoir suivre ces interactions
et par la suite calculer l’effet d’une évolution sur la qualité de service du système, il est
nécessaire d’établir ces interactions de manière explicite. Ainsi, lorsqu’un élément du système
évolue, savoir les conséquences de cette évolution consistera à déterminer l’ensemble
des interactions que cet élément a avec le reste du système, pour pouvoir identifier quels
sont les éléments pouvant être affectés. Notre objectif est de définir les causalités de notre
application, afin de les utiliser lors de l’analyse d’une évolution pour prédire quelles seront
les conséquences de l’évolution sur l’état du système. C’est grâce à ces causalités que nous
parvenons à identifier concrètement l’effet d’une évolution sur le reste du système et sur sa
qualité de service.
Dans cette section, nous nous intéressons à la notion de causalité, et définissons dans
le contexte de l’exécution d’un système les relations de cause à effet qui sont présentes.
Après avoir défini le concept de causalité et de relation causale, nous présentons un moyen
d’établir la causalité, en vue de s’en servir pour analyser l’impact d’une évolution.
586.3. Causalité de l’exécution d’un système
6.3.1 Mise en œuvre de la causalité
La notion de causalité a des origines provenant de plusieurs disciplines, passant des
sciences physiques à la philosophie. En informatique, la causalité a été introduite à de
nombreuses reprises également. Nous retiendrons tout particulièrement la définition de la
causalité introduite par Judea Pearl [Pearl 2000]. Dans ces travaux, la notion de causalité
est définie de manière informelle comme étant "notre conscience de ce qui cause quoi dans
le Monde, et en quoi cela est important". Dans notre contexte de système à base de services,
nous nous centrons sur cette relation de "ce qui cause quoi". Nous appelons relation causale
le couple (X, Y ) ∈ UniverseElement×UniverseElement, représentant l’influence de X sur
Y, ou encore le fait que X cause Y. Ici, cette influence veut dire que le comportement de X
régit celui de Y. De ce fait, dire que "X est une cause de Y" signifie que si l’état de X change,
alors l’état de Y change également. Partant de cette notion, Rooney et al. introduisirent
l’analyse de cause racine [Rooney 2004]. Il s’agit ici d’un "processus conçu pour être utilisé
dans l’investigation et la catégorisation des causes racines des événements liés à la sûreté,
la santé, l’environnement, la qualité, la fiabilité et la production d’impacts". En d’autres
termes, ce processus permet, en se basant sur la notion de causalité, de remonter la chaîne
de conséquences afin de trouver le facteur-clé à l’origine de la réaction en cascade ayant
causé le changement de comportement d’un élément. Nous verrons dans le chapitre 8 que
le principe d’analyse de cause racine est à la base de notre analyse des évolutions.
Pour établir la chaîne de conséquences constituée lors de l’application d’une évolution,
nous avons besoin dans un premier temps de déterminer les changements d’états dans notre
système, i.e., les changements opérés par l’évolution, et de déterminer en quoi ces changements
vont avoir une influence sur d’autres éléments. Cela nécessite au préalable d’établir
les causalités au sein même de notre système. Cette section se concentre sur l’établissement
des causalités. Notre objectif ici est de dresser une représentation de notre système d’un
point de vue causal. Il s’agit donc d’un modèle, dont la préoccupation principale est de
représenter en quoi un élément du système va avoir une influence sur d’autres éléments du
système. Nous appelons ce modèle un modèle causal.
Définition 6.3.1 (Modèle causal )
Un modèle causal est un couple C, où A est l’ensemble des artéfacts du système
et R l’ensemble des relations causales régissant les artéfacts étudiés.
Nous verrons dans la suite du document qu’il existe différents types de relations causales
au sein d’un système, et relatives aux propriétés de qualité de service étudiées. La question
est donc maintenant de savoir quels types de relations causales peuvent opérer dans un
système. Dans ce chapitre, nous nous concentrons dans un premier temps sur les relations
causales régissant l’exécution d’une système, avant de voir dans le chapitre 7 les relations
propres à la qualité de service.
6.3.2 Relations causales fonctionnelles
Le système décrit par l’architecte est interprété par une plate-forme d’exécution. Cette
plate-forme est définie selon une sémantique précise, régissant les interactions entre les
différents éléments du système. Il est donc important de voir que les éléments du système,
par le biais de la plate forme d’exécution, interviennent dans l’état d’autres éléments. Cette
forme d’interaction entre les éléments du système est ce que l’on cherche à représenter par
des relations causales. Le but ici est de permettre à l’architecte du système de comprendre
dans un premier temps quels éléments agissent sur d’autres éléments, pour pouvoir ensuite
déterminer, partant du changement d’un élément, comment le reste du système va être
596.3. Causalité de l’exécution d’un système
affecté.
Nous cherchons dans un premier temps à représenter les relations causales propres au
comportement de la plate-forme d’exécution pour orchestrer les processus métier. Il est
intéressant de noter ici que ces relations causales sont une représentation de la sémantique
de la plate-forme d’exécution. Cette sémantique conditionne les relations existantes entre
les éléments du système. Par exemple, prenons la notion d’appel à un service. Un service
prend des données en entrée, qui régissent l’exécution du service, pour au final produire
d’autres données en sortie. Nous pouvons dire ici que l’entrée du service influence le calcul
du service, qui lui-même influence la donnée en sortie. Il s’agit bien ici de relations de
causalité. Nous introduisons par la suite deux types de relations que l’on peut trouver dans
un système.
Définition 6.3.2 (Relation Causale de paramètre d’entrée)
Soit O une opération du système. Selon la sémantique du moteur
d’exécution, le message en entrée de l’opération conditionne l’exécution de l’opération.
La relation causale de paramètre d’entrée représente l’influence du paramètre en entrée
sur le comportement de l’exécution d’une opération. On note ainsi que entrée in
−→ S .
De manière similaire, le principe de relation causale de paramètre d’entrée établit cidessus
s’applique sur le message produit par le service :
Définition 6.3.3 (Relation Causale de paramètre de sortie)
Soit O une opération du système. Selon la sémantique du moteur
d’exécution, le message en sortie de l’opération est calculé à partir de l’exécution de
l’opération. La relation causale de paramètre de sortie représente l’influence du comportement
de l’exécution d’une opération sur le paramètre de sortie. On note ainsi que S
out −→ sortie .
6.3.3 Exemple
Pour illustrer les différents types de relations causales fonctionnelles présentés précédemment,
nous nous plaçons dans le contexte du développement de PicWeb. La Figure 6.9
est le modèle causal obtenu en appliquant les définitions de relations causales de paramètre
d’entrée et de sortie à PicWeb.
Variable
Keyword
Variable
PicsPicasa
Variable
PicsFlickr
Variable
Pics
Variable
PicsF
Receive Invoke
Picasa
Invoke
Flickr
Invoke
Helper
Invoke
Format Reply
Légende: Relation Causale de paramètre d'entrée in
out Relation Causale de paramètre de sortie
in
in
in
in
in
in
out
out
out
out
out
Figure 6.9 – Modèle causal fonctionnel de PicWeb.
606.4. Déduction des relations causales d’un système
L’observation de ce modèle permet de déterminer par exemple l’effet que pourrait avoir
une modification de la variable Pics : en suivant les relations causales sortants de cette variable
sur le modèle causal, l’architecte peut identifier l’activité Format comme directement
affectée, mais également la variable PicsF et l’activité Reply par transitivité.
Dans cette section, nous avons présenté les concepts de causalité, de relation causale
fonctionnelle et de modèle causal. En faisant le focus sur le moteur d’exécution du système,
nous avons exhibé deux types de relations opérant dans un système. À l’aide de ces deux
types, nous avons montré à quoi pouvait ressembler un modèle causal. Si la description
faite ici ne représente qu’une infime partie de la sémantique du moteur, elle n’a pour but
que de poser les bases nécessaires à la compréhension des modèles causaux et à montrer
comment faire le lien entre la sémantique de la description du système et celle du moteur
d’exécution, ainsi qu’avec la notion de causalité. Toutefois, s’il est possible de construire le
modèle causal de PicWeb à la main, la prise en compte d’autres types de relations causales,
ainsi que la taille plus conséquentes des systèmes sont des critères qui nous limitent dans
cette méthode. Il est nécessaire pour l’architecte du système de pouvoir automatiser la
constitution du modèle causal. Dans la suite de ce chapitre, nous introduisons une méthode
permettant d’extraire les relations causales d’un système donné, en caractérisant les types
de relations sous la forme de règles causales. Cette méthode est implémentée dans Smile,
afin de déduire automatiquement le modèle causal d’un système.
6.4 Déduction des relations causales d’un système
Nous venons de définir la notion de modèle causal d’un système, permettant d’identifier
les interactions entre ses éléments. Si son utilité n’est plus à montrer, une limitation réside
dans son établissement. En effet, la construction manuelle d’un modèle causal est fastidieuse
et sujette à erreur, compte tenu du nombre de relations causales présentes dans un système.
Dans cette section, nous présentons une méthode permettant de déduire de manière automatisée
le modèle causal fonctionnel d’un système. Après avoir présenté les principes de
notre méthode, nous définissons la notion de règle causale qui nous sert à décrire, indé-
pendamment de tout système, les types de relations causales que l’on peut déduire d’un
système. Nous montrons enfin comment, en appliquant les règles causales sur un système
donné, il est possible d’en déduire automatiquement ses relations causales.
6.4.1 Méthodologie
Le but de la méthodologie est de décrire une transformation permettant, en partant de la
description d’un système, d’obtenir son modèle causal. Nous avons présenté précédemment
différents types de relations causales fonctionnelles. Il est important de noter que ces types
de relations sont décrits indépendamment du système étudié, mais en fonction de la plateforme
d’exécution. Il convient donc de souhaiter "instancier" par la suite ces types de
relations causales, pour un système donné. Pour cela, notre méthode est un procédé de
déduction : il s’agit d’appliquer au système étudié des règles correspondant aux types de
relations causales, pour en déduire ses relations causales.
Afin de pouvoir mettre en œuvre un tel procédé, nous introduisons la notion de règle
causale.
Définition 6.4.1 (Définition d’une règle causale)
Une règle causale est une requête permettant de sélectionner dans un système donné
des couples (a, b) ∈ (SystemElement × SystemElement) tels qu’il existe une relation
causale entre a et b.
616.4. Déduction des relations causales d’un système
Table 6.1 – Règle causale pour les relations causales de paramètre d’entrée.
Situation Action
A : Activity, M : Message, v : Variable and
(A.type = Invoke or A.type = Receive) and
M = A.input and
v ∈ M.content
v
in −→ A
Notre méthode consiste à définir en une seule fois les règles causales d’un moteur d’exé-
cution, dans le but de les appliquer sur n’importe quel système pour en extraire ses relations
causales. Pour cela, nous proposons le procédé représenté dans la Figure 6.10.
Système
Règles Causales
Relations Causales
Génération de
Relations Causales
SMILE
expert du
moteur
d'exécution
user
Action d'un acteur
Légende :
Génération de
Règles Causales
Règles Causales
step élément
élément step
Étape du processus
Donnée
L'étape step produit
la donnée élément
La donnée élément est
en entrée de l'étape step
Figure 6.10 – Procédé de déduction des relations causales.
6.4.2 Expression des règles causales
Concrètement, nous avons choisi de représenter les règles causales comme un système de
règles de production. Selon le spécification de l’OMG [OMG 2009a], une règle de production
est "une instruction de logique de programmation qui spécifie l’exécution de une ou plusieurs
actions dans le cas où ses conditions sont satisfaites. Les règles de production ont donc
une sémantique opérationnelle (formalisant les changements d’état, e.g., sur la base d’un
formalisme d’un système de transition d’état)". Une règle de production est représentée
comme une instruction Si [condition] alors [liste d’actions]. À titre d’exemple, la Table 6.1
et la Table 6.2 sont l’expression des règles causales correspondant respectivement aux
relations causales d’entrée et de sortie. On parle de Situation pour décrire la condition, et
d’Action pour l’ensemble des actions à effectuer. Dans le contexte de la règle causale de
paramètre d’entrée, la situation décrite consiste à raisonner sur une activité A, un message
M et une variable v. Nous posons comme condition que A soit une activité de type Invoke
ou Receive, que M soit le message d’entrée de A, et que v soit contenue dans M. Dans
ces conditions, la situation, i.e., la relation causale à déduire, est v
in
−→ A. Le principe
est similaire pour la règle causale de paramètre de sortie, en considérant ici les activités de
type Invoke et Reply. En utilisant ces deux règles causales sur PicWeb, notre méthodologie
produit le modèle causal de la Figure 6.9.
626.5. Conclusion du chapitre
Table 6.2 – Règle causale pour les relations causales de paramètre de sortie.
Situation Action
A : Activity, M : Message, v : Variable and
(A.type = Invoke or A.type = Reply) and
M = A.output and
v ∈ M.content
A
out −→ v
6.5 Conclusion du chapitre
Dans ce chapitre, nous nous sommes centrés sur les besoins de l’architecte du système.
Nous avons introduit les différents concepts nécessaires pour modéliser un système. Partant
de cette modélisation, nous nous sommes intéressés à la notion de causalité pour retranscrire
les interactions existantes au cours de l’exécution d’un système. À travers la notion de
modèle causal, nous avons établi un ensemble de relations causales telles que les relations
causales de paramètres d’entrée et de sortie, représentant l’effet d’un élément du système
sur un autre. Nous avons enfin présenté une méthode permettant, en exprimant une fois
pour toute des types de causalité par le biais de règles causales, de déduire de manière
automatique le modèle causal d’un système. Notre approche reste cependant limitée par
l’intervention d’un expert du moteur d’exécution qui doit transcrire la sémantique du moteur
en règles causales. De plus, si le modèle causal obtenu permet de représenter la causalité
d’un point de vue fonctionnel, nous pouvons toutefois nous demander ce qu’il en est de la
causalité en vue de l’étude de la variation de la qualité de service dans un système. Nous
traitons ce point dans le chapitre suivant.
63Chapitre 7
Modélisation de la qualité de
service pour l’évolution
Sommaire
7.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.2 Modélisation de la qualité de service d’un système . . . . . . . . 66
7.2.1 Propriété, unité et critère de comparaison . . . . . . . . . . . . . . . 67
7.2.2 Domaine d’application . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2.3 Valeur de propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.2.4 Influence et ressource . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.2.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.3 Définition des relations causales de propriété . . . . . . . . . . . . 69
7.3.1 Relations d’environnement . . . . . . . . . . . . . . . . . . . . . . . . 71
7.3.2 Relations de dérivation de propriétés . . . . . . . . . . . . . . . . . . 71
7.3.3 Relations d’agrégation de valeurs . . . . . . . . . . . . . . . . . . . . 73
7.3.4 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.4 QoS4Evol, un langage de description de la qualité de service . . 74
7.4.1 Présentation de QoS4Evol . . . . . . . . . . . . . . . . . . . . . . . . 75
7.4.2 Définition du langage . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.4.3 Caractéristiques du langage . . . . . . . . . . . . . . . . . . . . . . . 76
7.5 Déduction des règles causales d’une propriété . . . . . . . . . . . 77
7.5.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.5.2 Obtention des relations causales d’environnement . . . . . . . . . . . 78
7.5.3 Obtention des relations causales de dérivation . . . . . . . . . . . . . 79
7.5.4 Obtention des relations causales d’agrégation . . . . . . . . . . . . . 79
7.5.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 81
D
ans l’étude d’un système, l’expert en qualité de service a pour rôle de s’assurer du
maintien de la QoS du système, à tout moment de son cycle de vie. Il apporte son
expertise du domaine pour vérifier le respect des contrats de QoS, et pour identifier les
causes d’une potentielle violation. Nous présentons dans ce chapitre un ensemble d’outils
nécessaire à l’expert en QoS pour étudier l’effet d’une évolution sur la QoS.
7.1 Motivations
Pour rappel, nous considérons qu’une évolution est une modification des fonctionnalités
du système dans le but de satisfaire de nouveaux besoins des différentes parties prenantes.
Si une évolution cherche en premier lieu à satisfaire de nouveaux besoins fonctionnels, il7.2. Modélisation de la qualité de service d’un système
convient de s’interroger si celle-ci a également un effet sur les besoins non fonctionnels, et
notamment sur la qualité de service. Selon les principes de notre cycle de développement
BLINK, cette préoccupation est à la charge de l’expert en QoS. Celui-ci a pour tâche
d’établir les contrats de qualité de service, de mettre en œuvre les outils de contrôle de la
QoS, de s’assurer à chaque évolution qu’aucun contrat de QoS n’a été violé et, le cas échéant,
il doit être en mesure de définir les causes de la violation. Concernant ce dernier point, nous
avons défini dans le chapitre 6 le concept de relation causale d’un point de vue fonctionnel.
Nous avons établi un modèle causal destiné à représenter ce qu’il se passe dans un système
lors de l’exécution, permettant de comprendre quels éléments du système affectent d’autres
éléments. Toutefois, la simple considération de ces relations ne permet pas de décrire la
causalité de l’exécution du point de vue de la qualité de service. En guise d’illustration,
faisons le parallèle à une machinerie mécanique. Dans ce contexte, la détermination du
modèle causal fonctionnel établirait que le moteur a une influence sur les pièces mécaniques
de la machine, qui ont elles une influence sur des rouages. En supposant un changement
du moteur, le modèle causal indiquerait la chaîne de conséquences jusqu’aux rouages. En
revanche, cette chaîne de conséquences n’indique pas de quelle manière la modification
influence les rouages, c’est-à-dire si le changement de moteur a entraîné une modification
de la vitesse de rotation du rouage, de son usure, de son sens de rotation, etc.. Dans une
telle situation, il est donc prudent de vérifier l’ensemble des propriétés du rouage, ce qui est
certes plus sûr, mais qui entraîne bien souvent un ensemble de vérifications inutiles.
Pour lever ces limitations, nous cherchons à représenter quels sont les facteurs d’influence
d’une propriété, dans le but de cibler de manière plus précise quelles valeurs de propriété
vont être affectées par une évolution. Ces facteurs d’influence ont pour vocation d’enrichir
le modèle causal établi en introduisant des relations causales propres aux propriétés de
qualité de service, afin de cibler l’identification des propriétés influencées et minimiser le
nombre de vérifications à effectuer. La construction de ce nouveau modèle causal nécessite
dans un premier temps d’être en mesure de pouvoir représenter les valeurs de propriété
d’un système, afin de pouvoir les inclure en tant qu’élément conceptuel. L’expert en QoS
a pour cela besoin de modéliser la qualité de service d’un système à l’exécution, comme
présenté dans la section 7.2. Dans un deuxième temps, nous nous intéressons à ce qui peut
influencer une valeur de propriété. Nous présentons dans la section 7.3 les différents facteurs
d’influence, traduits par le biais de relations causales de QoS. Enfin, nous introduisons dans
la section 7.4 un langage permettant de décrire des propriétés de qualité de service. C’est à
partir de cette description que nous présentons dans la section 7.5 un procédé permettant
de déduire de manière automatique les relations causales d’un système pour une propriété
donnée.
7.2 Modélisation de la qualité de service d’un système
Nous avons vu dans le chapitre 2 que l’expert en qualité de service a à sa disposition un
ensemble d’outils permettant de déterminer la qualité de service d’un élément du système :
l’analyse statique de l’élément, le contrôle à l’exécution, ou le calcul à partir d’autres valeurs.
Ces outils produisent différents ensembles de données sur lesquels l’expert devra raisonner
dans le but de déterminer si oui ou non le système respecte les besoins de l’utilisateur final.
Toutefois, la diversité des méthodes de détermination pose un problème d’hétérogénéité
pour l’expert. En effet, la diversité des outils de détermination de la qualité de service
entraîne une répartition des informations sur différents supports, rendant compliqué tout
raisonnement. L’expert a besoin d’un support commun pour représenter ces informations,
qui seront ensuite reprises dans le modèle causal.
667.2. Modélisation de la qualité de service d’un système
Universe
name: String
UniverseElement
PropertyElement
comparator:ComparatorCriteria
Property name: String
type: TypeKind
Unit 1
unit
LowerIsBetter
HigherIsBetter
<>
ComparatorCriteria
Time
DataSize
DataSpeed
<>
TypeKind
(a) Extrait du méta-modèle de propriété.
name="ResponseTime"
comparator=LowerIsBetter
:Property
name="millisecond"
type=Time
:Unit
unit
(b) Extrait du modèle
du temps de réponse
Figure 7.1 – Modèle et méta-modèle d’une propriété.
Nous proposons dans cette section de résoudre ce problème en définissant un métamodèle
pour la qualité de service permettant de centraliser les informations collectées.
Nous présentons les différents concepts et les illustrons sur PicWeb en étudiant le temps
de réponse.
7.2.1 Propriété, unité et critère de comparaison
Une propriété est un élément mesurable qui donne une information qualifiant la manière
dont le système fonctionne. Il s’agit là du concept central que l’expert en QoS manipule,
pour lequel il/elle doit définir un ensemble de caractéristiques. La Figure 7.1a est la partie
du méta-modèle représentant les concepts présentés dans cette partie. Une propriété a un
nom et une unité, représenté dans notre méta-modèle par les méta-éléments Property et
Unit. Par exemple, l’expert en QoS créé une propriété "Temps de réponse", dont l’unité
est "millisecondes", comme représenté dans la Figure 7.1b. Associée à la propriété, le
critère de comparaison définit pour deux valeurs de cette propriété laquelle sera considérée
comme la meilleure. Par exemple, cela permet de savoir lors d’une évolution si une valeur
de propriété s’est améliorée ou s’est dégradée. Dans le cas du temps de réponse, l’expert
déclare que plus petite la valeur est, le mieux c’est.
7.2.2 Domaine d’application
Les systèmes étudiés sont constitués de plusieurs éléments, de types différents. Par
exemple, il existe dans PicWeb des activités de type Invoke, Receive, Reply. Nous voulons
donner la possibilité à l’expert en QoS de définir une manière de calculer une valeur de propriété
en fonction de chaque type d’élément. Par exemple, l’expert veut mesurer le temps de
réponse pour les activités de type Invoke, mais calculer les temps de réponse d’une séquence
en fonction des temps de réponse des activités qu’il contient. Nous appelons type d’élément
du système (SystemElementKind) un type d’élément. Pour pouvoir définir comment dé-
terminer la qualité de service pour un type d’élément donné, nous introduisons le concept
de domaine d’application. Un domaine d’application (ApplicationDomain) associe une mé-
thode de détermination (analyse, contrôle ou calcul) à un type d’élément. Nous représentons
cela dans notre méta-modèle par la partie décrite dans la Figure 7.2a : un méta-élément
ApplicationDomain, possède une relation avec une méthode de détermination (DeterminationTool)
et un type d’élément du système (SystemElementKind). En guise d’illustration, la
Figure 7.2b est la partie du modèle du temps de réponse représentant comment déterminer
une valeur de propriété pour une activité simple (via le moniteur RTBasicActivityMonitor ),
et pour une séquence en décrivant le domaine d’application SequenceActivity.
677.2. Modélisation de la qualité de service d’un système
SystemElement
name: String
UniverseElement
PropertyElement
Application Domain
SystemElementKind
1..* Application Point
1..*
comparator:ComparatorCriteria
Property
Domains
1..1 Type
Monitor
Aggregation Formula
Static Analyser
Composition Formula
Resource
name: String1
DeterminationTool
1..1 Determination
(a) Extrait du méta-modèle de propriété.
name="ResponseTime"
comparator=LowerIsBetter
:Property
name: "BasicActivity"
:Application Domain
name = "Invoke"
Application Point :SystemElementKind
name= "RTBasicActivityMonitor"
:Monitor
name = "Receive"
:SystemElementKind
name = "Reply"
:SystemElementKind
Application Point
Application Point
name: "SequenceActivity"
:Application Domain
name = "Sequence"
:SystemElementKind
Application Point
name= "RTSequenceAggrFormula"
:Aggregation Formula
Determination
Determination
(b) Extrait du modèle du temps de réponse.
Figure 7.2 – Modèle et méta-modèle du domaine d’application.
7.2.3 Valeur de propriété
Une valeur de propriété (PropertyValue) est une valeur logique caractérisant un élément
du système donné. La Figure 7.3 représente la partie du méta-modèle responsable de
définir les valeurs de propriétés. Pour chaque élément du système pour lequel l’expert en
QoS a défini un domaine d’application, une valeur de propriété sera créée. Si le méta-
élément a pour but de représenter l’ensemble des mesures effectuées, il ne contient lui-même
aucune valeur. En effet, les valeurs numériques concrètes sont représentées par le méta-
élément Measurement. Ce choix de modélisation a été effectué pour simplifier la recherche
de toutes les mesures effectuées pour un élément du système donné, et pour une propriété
donnée. Enfin, afin de pouvoir regrouper les mesures effectuées au cours du même contexte
d’exécution, nous introduisons le concept de trace d’exécution (ExecutionTrace). Ce concept
a pour but de regrouper les valeurs de propriétés qui ont été capturées lors de la même
instance d’exécution [Comes 2009]. Il est caractérisé par une estampille ("timestamp" en
anglais), et par un numéro de version ("versionNumber" en anglais). Tandis que le premier
a pour rôle de capturer l’heure précise à laquelle la trace a été enregistrée, le dernier sert à
caractériser sur quelle version du système la trace a été capturé. Lors de chaque évolution,
ce numéro est incrémenté.
La Figure 7.4 est un exemple de modèle représentant les données mesurées. Ici, l’expert
s’intéresse à deux propriétés, le temps de transmission et le temps de calcul. Par souci de
lisibilité, le lien entre une propriété et ses valeurs de propriété est représenté par un code
couleur. Chaque activité est associée à deux valeurs de propriété, une pour chaque propriété.
À chaque valeur est associée un ensemble de mesures. Ici, quatre traces sont présentes,
représentant quatre appels à PicWeb.
7.2.4 Influence et ressource
Une valeur de propriété de qualité de service dépend de nombreux facteurs. Comme
énoncé précédemment, il est courant que le contrôle à l’exécution d’une propriété fournisse
des données très différentes pour les mêmes paramètres d’exécution. Cela est dû à l’in-
fluence des facteurs extérieurs, tels que l’utilisation de certaines ressources physiques, mais
687.3. Définition des relations causales de propriété
Universe
SystemElement
value: String
PropertyValue
name: String
UniverseElement
PropertyElement
name: String
comparator:ComparatorCriteria
Property 0..*
values
1
owner
timeStamp: Date
versionNumber: Natural
ExecutionTrace
value: Natural
Measurement 0..*
measures
0..* capturedBy
measurements
1 0..*
Figure 7.3 – Méta-Modèle de propriété : Valeurs de propriété.
également des facteurs internes tels que des éléments du système. Afin de donner la possibilité
de représenter quel type de ressource peut influencer une valeur de propriété, nous
introduisons le concept de Resource dans notre méta-modèle. Par exemple, la propriété de
temps de réponse d’une activité dont l’implémentation est située sur une autre machine que
celle de l’appelant sera influencée par le réseau. Également, l’expert souhaite représenter
l’effet d’un message en paramètre d’entrée d’une activité sur son temps de transmission.
La Figure 7.5a représente la partie du méta-modèle responsable de définir les facteurs
d’influence. Ces concepts sont illustrés dans la Figure 7.5b, représentant l’influence du
réseau et l’influence d’un message en entrée sur une valeur de propriété.
7.2.5 Discussion
Le méta-modèle que nous venons de présenter sert de base de représentation des différentes
données nécessaires par l’expert en qualité de service. Nous avons fait le choix de
regrouper l’ensemble des mesures effectuées pour une propriété et pour une élément du
système donnée autour de l’élément PropertyValue. Selon les méthodes de détermination
des valeurs de propriété, le résultat de tout calcul, toute analyse ou toute mesure effectuée
sur un élément du système est représenté dans le modèle de données et associé à l’élément
analysé. Par cette méthode, nous gardons trace de la provenance des données. Nous avons
ici le moyen de tracer pour une mesure le moment de sa capture (permettant de savoir si la
donnée a été déterminée sur la version courante du système, ou sur une version antérieure),
ainsi que le type d’outil l’ayant déterminé. Ainsi, nous fournissons un support unifié pour
les différents outils de détermination de la qualité de service d’un système.
De plus, les éléments modélisés servent également de base pour enrichir le modèle causal
du système : ce sont les nouveaux nœuds à introduire. Il s’agit donc maintenant de déterminer
les nouvelles relations du modèle causal à introduire. Pour cela, nous nous intéressons
aux différents éléments pouvant influencer une valeur de propriété.
7.3 Définition des relations causales de propriété
Dans cette section, nous nous intéressons à ce qui peut influencer une valeur de propriété.
Cette influence peut provenir du comportement du système à l’exécution, de son
environnement, ou encore des valeurs de propriétés entre elles. De ces facteurs d’influence,
nous en réifions 3 types de relations causales de propriété : i) les relations causales d’environnement,
lorsqu’un élément de l’éco-système autour de l’application (tel que le réseau)
influence une valeur de propriété, ii) les relations causales de composition, lorsqu’une valeur
de propriété rentre dans le calcul d’une autre propriété, et iii) les relations causales
d’agrégation, lorsqu’une valeur de propriété d’une activité composite est influencée par une
697.3. Définition des relations causales de propriété
:ExecutionTrace
timeStamp=1019
versionNumber=1
name="ComputationTime"
comparator=LowerIsBetter
:Property
name="TransmissionTime"
comparator=LowerIsBetter
:Property
name= "receive"
:Activity
value = 5
:PropertyValue
value = 67,5
:PropertyValue
value=53
:Measurement
value=4
:Measurement
value=2409
:Measurement
value=607
:Measurement
name= "getPics"
:Activity
:PropertyValue
value = 787,25
value = 2344
:PropertyValue
value=8
:Measurement
value=342
:Measurement
name= "shuffle"
:Activity
value = 543,5
:PropertyValue
value = 7
:PropertyValue
value=51
:Measurement
value=9
:Measurement
name= "reply"
:Activity
value = 14,5
:PropertyValue
value = 53,75
:PropertyValue
:ExecutionTrace
timeStamp=1232
versionNumber=1
value=65
:Measurement
value=6
:Measurement
value=3034
:Measurement
value=719
:Measurement
value=4
:Measurement
value=604
:Measurement
value=56
:Measurement
value=17
:Measurement
:ExecutionTrace
timeStamp=1681
versionNumber=1
value=88
:Measurement
value=3
:Measurement
value=1757
:Measurement
value=802
:Measurement
value=9
:Measurement
value=285
:Measurement
value=48
:Measurement
value=14
:Measurement
:ExecutionTrace
timeStamp=3280
versionNumber=1
value=64
:Measurement
value=7
:Measurement
value=2176
:Measurement
value=1021
:Measurement
value=7
:Measurement
value=943
:Measurement
value=60
:Measurement
value=18
:Measurement
Figure 7.4 – Modèle du temps de réponse : Valeurs de propriété.
valeur de propriété d’une de ses activités contenues. Nous détaillons dans la suite chacun
de ces types de relation causale en les illustrant sur PicWeb.
707.3. Définition des relations causales de propriété
value: String
PropertyValue
0..*
influencedBy
PropertyElement Resource
UniverseElement
(a) Extrait du méta-modèle de propriété.
value=19
:PropertyValue influencedBy
name="Network"
:Resource
name="TransmissionTime"
comparator=LowerIsBetter
:Property
values
name= "getPics"
:Invoke
name= "inPicasaMsg"
input :Message
capturedBy
(b) Extrait du modèle du temps de réponse.
Figure 7.5 – Modèle et méta-modèle des facteurs d’influence.
7.3.1 Relations d’environnement
On appelle environnement toutes les ressources physiques et logiques extérieures (tels
que les liens réseaux ou la mémoire) à la définition de la logique du système. De fait,
les caractéristiques des ressources de l’environnement influent sur la qualité de service du
système. Pour cela, nous introduisons une relation causale liée à l’environnement :
Définition 7.3.1 (Relation d’environnement)
Soient A un élément du système, R une ressource de l’environnement du système,
P une propriété dont R est déclarée comme influence, et P VP (A) la valeur de propriété
de A pour la propriété P. Une relation causale d’environnement représente la causalité
établie entre une valeur de propriété et une ressource de l’environnement : on peut dire
que R
env −→ P VP (A).
À titre d’exemple, nous voulons représenter que la rupture d’un lien réseau peut affecter
le temps de réponse d’un service S. Ici, il est important de pouvoir indiquer qu’un lien rompu
affectera le temps de réponse, mais n’affectera pas la logique métier propre au service. En
revanche, nous pouvons dire que toute propriété de QoS, de type temporel, dont l’élément
caractérisé utilise ce lien, sera affecté.
Nous établissons donc que NetworkLink env −→ P VResponseT ime(S), comme décrit pour
PicWeb dans la Figure 7.6.
Pour pouvoir utiliser ce type de relation causale, nous faisons ici l’hypothèse que l’information
concernant l’état d’un lien réseau est établie à l’aide d’un moniteur, chargé d’observer
le comportement des ressources de l’environnement. Ainsi, lorsque le moniteur détecte
qu’un lien est rompu, il suffit de parcourir les relations causales d’environnement propre à
la ressource NetworkLink pour déterminer en quoi cela impacte la QoS du système.
7.3.2 Relations de dérivation de propriétés
Nous avons vu qu’une propriété de QoS peut être définie comme étant dérivée d’autres
propriétés, i.e., qu’il est possible de déterminer une valeur de propriété en fonction des
valeurs d’autres propriétés. Ces dernières ont une influence sur la valeur dérivée. Par le
concept de relation de dérivation, nous voulons matérialiser cette influence.
Définition 7.3.2 (Relation de dérivation)
Soit un service S, caractérisé par trois propriétés, P1, P2 et P3, telles que P3 est
dérivée de P1 et de P2. La valeur de S pour la propriété P3 est définie en fonction des
valeurs de S pour P1 et P2. Par exemple, P VP 3(S) = P VP 1(S) + P VP 2(S). P1 et P2
717.3. Définition des relations causales de propriété
Variable
Keyword
Variable
Pics
Variable
PicsF
Receive Invoke
Picasa
Invoke
Shuffle Reply
in
in
out
out
:PropertyValue name="ResponseTime"
comparator=LowerIsBetter
:Property
values
:PropertyValue :PropertyValue :PropertyValue
name="NetworkLink"
:Resource
env
env
env
env
out
in
Légende:
Relation Causale de paramètre d'entrée in
Relation Causale de paramètre de sortie out
env Relation Causale d'environnement
Figure 7.6 – Modèle causal enrichi avec les relations d’environnement.
ont une influence sur P3. Nous pouvons donc dire qu’il existe les relations causales de
dérivation :
– P VP 1(S)
der
−→ P VP 3(S)
– P VP 2(S)
der
−→ P VP 3(S)
À titre d’exemple, nous considérons la définition du temps de réponse (RT) d’un service
S comme étant la somme du temps de transmission (TT) et du temps de calcul (CT).
Nous avons donc la définition PVRT (S) = PVT T (S) + PVCT (S). Cette définition se traduit
par deux relations causales de dérivation, PVT T (S) der
−→ PVRT (S) et PVCT (S) der
−→
PVRT (S). Appliquée à PicWeb, nous obtenons le modèle causal de la Figure 7.7. Ce
genre de relation se déduit directement de la formule définissant le temps de réponse.
Variable
Keyword
Variable
Pics
Variable
PicsF
Receive Invoke
Picasa Invoke
Shuffle Reply
in
in
in
out
out
out
:PropertyValue name="ResponseTime"
comparator=LowerIsBetter
:Property
values
:PropertyValue :PropertyValue :PropertyValue
name="NetworkLink"
:Resource
env
env
env
env
:Property
Value
name="ComputationTime"
comparator=LowerIsBetter
:Property
values
:Property
Value
:Property
Value
:Property
Value
:Property
Value
name="TransmissionTime"
comparator=LowerIsBetter
:Property
values
:Property
Value
:Property
Value
:Property
Value
der
der
der
der
der
der
der
der
Légende:
Relation Causale de paramètre d'entrée in
Relation Causale de paramètre de sortie out
env Relation Causale d'environnement
der Relation Causale de dérivation
env
env
env
Figure 7.7 – Modèle causal enrichi avec les relations de dérivation.
727.3. Définition des relations causales de propriété
7.3.3 Relations d’agrégation de valeurs
Un processus métier est un ensemble d’activités dont l’exécution est définie par des relations
d’ordre partiel. Comme présenté dans le chapitre 6, il est possible de représenter cet
ordre partiel par le biais d’activités structurées, constituant ainsi une hiérarchie en forme
d’arbre, où chaque activité est imbriquée dans une autre activité. Sous cette forme, il est
possible de déterminer la valeur de propriété d’une activité structurée en se basant sur
les valeurs de propriété des activités qu’elle contient. Par extension, la valeur de propriété
d’une activité structurante pour une propriété donnée, décrit par une formule d’agrégation,
est influencé par les valeurs de propriété des activités la constituant. À ce titre, nous
introduisons la notion de relation causale d’agrégation.
Définition 7.3.3 (Relation d’agrégation)
Soit C une activité structurante d’un processus métier, constituée de 3 activités, A1, A2
et A3. La propriété P pour une activité structurante est définie comme étant fonction
des valeurs de propriétés des activités la constituant. Ici, les valeurs de propriété des
constituants (A1, A2 et A3) ont une influence sur la valeur de propriété de l’activité
structurante (C). Nous avons donc les relations causales d’agrégation
PVP (A1) agr
−→ PVP (C), PVP (A2) agr
−→ PVP (C) et
PVP (A3) agr
−→ PVP (C)
À titre d’exemple, nous considérons le temps de réponse (RT) d’une activité structurante
de type Séquence comme étant la somme des activités la composant. Si nous considérons
la séquence présente dans PicWeb, son temps de réponse est la somme des temps de
réponse des activités Receive, Picasa, Shuffle et Reply. Nous avons ici plusieurs relations
causales d’agrégation, comme décrit dans la Figure 7.8. Dans cette figure, nous avons
voulu représenter le modèle causal complet de PicWeb, c’est-à-dire constitué de la somme
de toutes les relations causales, qu’elles soient fonctionnelles, d’environnement, de dérivation
ou d’agrégation.
Variable
Keyword
Variable
Pics
Variable
PicsF
Receive Invoke
Picasa Invoke
Shuffle Reply in
in
in
out
out
out
:PropertyValue name="ResponseTime"
comparator=LowerIsBetter
:Property
values
:PropertyValue :PropertyValue :PropertyValue
name="NetworkLink"
:Resource
env
env
env
env
:Property
Value
name="ComputationTime"
comparator=LowerIsBetter
:Property
values
:Property
Value
:Property
Value
:Property
Value
:Property
Value
name="TransmissionTime"
comparator=LowerIsBetter
:Property
values
:Property
Value
:Property
Value
:Property
Value
der
der
der
der
der
der
der
der
env
env
env
Sequence :Property
Value
agr
agr
agr
agr
Légende:
Relation Causale de paramètre d'entrée in
Relation Causale de paramètre de sortie out
env Relation Causale d'environnement
der Relation Causale de dérivation
agr Relation Causale d'agrégation
Figure 7.8 – Modèle causal enrichi avec les relations d’agrégation.
737.4. QoS4Evol, un langage de description de la qualité de service
7.3.4 Discussion
Nous venons de voir les trois types de relations causales que nous pouvons définir sur une
propriété de qualité de service. L’application de l’ensemble de ces relations causales permet
de décrire de manière plus précise ce qui influence une valeur de propriété. En effet, là où
le modèle causal fonctionnel indique les relations de causalités entre éléments du système,
les relations causales introduites montrent directement comment les valeurs de propriétés
ont une influence entre elles, et comment elles sont influencées par des éléments extérieurs.
Nous pouvons cependant nous poser la question de l’exhaustivité de ces types de relations.
Nous avons ici émis l’hypothèse que les propriétés étudiées étaient influencées par
l’environnement, par d’autres valeurs de propriétés, ou pas le comportement du système.
À partir de ces relations, nous donnons une indication sur l’interaction entre les éléments
du système afin de définir le périmètre des éléments affectés. Nous pourrions aller plus loin
dans l’élaboration du modèle causal, comme par exemple en caractérisant plus finement
l’influence d’une ressource à l’aide d’une fonction d’utilisation [Crnkovic 2005]). Dans un
tout autre domaine, nous pourrions également aller plus loin en caractérisant si l’influence
représentée par une relation causale est positive ou négative pour une propriété donnée,
par le biais par exemple de règles helps/hurts [Chung 2009, Bass 2003, Perez-Palacin 2014].
Ces points seront abordés dans des travaux futurs.
Les différents types de relations causales que nous venons de voir forment avec les relations
causales du chapitre 6 un modèle causal dont la construction manuelle serait source
d’erreurs et trop couteux en temps. Nous cherchons à présent à définir une méthode pour
obtenir le modèle causal de façon automatique. Pour cela, nous avons besoin dans un premier
temps d’un support commun regroupant l’ensemble des informations sur une propriété
de QoS. Dans la section suivante, nous présentons QoS4Evol, un langage permettant la description
de propriétés. À partir de ces descriptions, nous verrons ensuite que notre canevas,
Smile, est en mesure de les analyser pour en extraire des règles de transformations permettant
de déduire le modèle causal enrichi de n’importe quel système.
7.4 QoS4Evol, un langage de description de la qualité de
service
Nous avons vu dans les sections précédentes que la détermination des propriétés de
qualité de service pour un processus métier nécessitait un ensemble d’informations en provenance
de l’expert en Qualité de Service. Ces informations, qualifiant si une valeur de
propriété est déterminée par analyse, par mesure ou par calcul, sont représentables dans le
modèle causal. La formulation de toutes ces informations est réalisée à différents moments
du cycle de vie, et ne disposent pas à l’heure actuelle d’un support d’expression centralisé.
En effet, l’expert doit manuellement déclencher les analyses et déployer les moniteurs d’observation.
De plus, nous cherchons à permettre l’expression des relations causales. Pour cela,
il nous faut cette centralisation, mais il nous faut également pouvoir définir l’influence que
certains éléments du système peuvent avoir sur les autres éléments. Nous proposons dans
cette section un langage pour unifier l’expression de ces informations, nommé QoS4Evol.
Ce langage a pour but d’apporter une manière simple à l’expert, pour décrire une propriété
dans sa manière de la déterminer, de la calculer, ainsi que ses facteurs d’influence.
Nous présentons ici la grammaire du langage, avant de montrer par la suite comment il
est possible d’en déduire des règles causales à appliquer sur le système étudié pour obtenir
automatiquement un modèle causal enrichi.
747.4. QoS4Evol, un langage de description de la qualité de service
1 Property RT{
2 Unit : ms ;
3 Range : p o s i t i v e ;
4 BasicComputation : CT + TT;
5 ApplicationPoint :
6 Sequence i s Sum( c h i l d r e n ) ;
7 Flow i s Max( c h i l d r e n ) ;
8 Loop i s k × c h i l d r e n ;
9 }
10
11 Property CT{
12 Unit : ms ;
13 Range : p o s i t i v e ;
14 BasicComputation : monitor named CTMonitor ;
15 IsInfluencedBy : Inpu t ( a ) ;
16 }
17
18 Property TT{
19 Unit : ms ;
20 Range : p o s i t i v e ;
21 BasicComputation : monitor named TTMonitor ;
22 IsInfluencedBy : Network ;
23 }
Figure 7.9 – Définition du Temps de Réponse.
7.4.1 Présentation de QoS4Evol
Afin de pouvoir exprimer une propriété de QoS, nous définissons un langage spécifique
au domaine (DSL) décrivant l’ensemble des informations nécessaires à la détermination de
valeurs de propriété pour le système [Mernik 2005]. QoS4Evol est un DSL textuel, inspiré
du langage CQML+ [Rottger 2003] et supporté par notre canevas Smile. Dans la suite,
nous détaillons chaque instruction du langage en utilisant ce dernier pour modéliser une
propriété, à savoir le Temps de Réponse. Cette propriété est un propriété dérivée, définie
comme étant la somme du temps pour transmettre un message (Temps de Transmission) et
le temps pour exécuter le dit service (Temps de Calcul). La Figure 7.9 est la description
du Temps de réponse écrite par l’expert en qualité de service et conforme à notre langage.
Il est important de noter que la description d’une propriété est indépendante du système
à étudier. Ces informations ont besoin seulement d’être décrites une fois, pour être ensuite
appliquées par Smile sur n’importe quel système pour calculer les valeurs de propriétés.
La description proposée fournit les informations usuelles pour gérer une propriété de QoS
d’un système.
7.4.2 Définition du langage
Une propriété est définie par :
Déclaration de l’unité et du domaine de valeur :
Considérant l’hypothèse que les valeurs de propriété sont des valeurs numériques, il est
nécessaire de définir une unité, et un domaine de valeurs autorisées. Par exemple, le temps
de réponse est défini comme une quantité en millisecondes, qui est toujours positif. Dans
notre langage, l’unité de la valeur est décrite à l’aide du mot-clé Unit, et le domaine de
valeur à l’aide du mot-clé Range. Ces instructions sont utilisées par exemple aux lignes 2
757.4. QoS4Evol, un langage de description de la qualité de service
Table 7.1 – Formules d’agrégation du temps de réponse.
Temps de réponse
Séquence PRT(Sequence.children)
Flot max(RT(F low.children))
Boucle k × RT(Loop.activity)
et 3 de la Figure 7.9
Détermination des valeurs pour les éléments basiques du système :
La technique de détermination de la QoS est fondée sur la composition, c’est-à-dire
que les valeurs de propriétés sont déterminées au niveau le plus bas (ici pour des activités
simples), pour être ensuite composées pour des éléments de plus haut niveau (les activités
structurantes, les processus métiers, et le système). Par exemple, la taille d’un message
est calculée par composition de la taille des variables le composant. Dans ce cas précis,
les éléments de base sont les variables. Nous considérons ici trois moyens pour calculer
une valeur de propriété pour les éléments basiques : par analyse statique, par contrôle, ou
par calcul. (voir section 2.2.2). Dans notre exemple, l’expert a introduit trois propriétés :
le temps de réponse (RT), le temps de calcul (CT) et le temps de transmission (TT).
Tandis que le temps de calcul et le temps de transmission sont décrits aux lignes 14 et
21 comme étant déterminés par des moniteurs (respectivement nommés CTMonitor et
TTMonitor), le temps de réponse est déterminé comme étant la somme du temps de
calcul et du temps de transmission (voir ligne 4).
La déclaration des analyseurs statiques et des contrôleurs permet à Smile d’effectuer de
manière automatique les analyses, et de positionner les contrôleurs dans le système. Dans
notre cas, le Temps de Réponse est défini comme une propriété dérivée. Le Temps de Calcul
(CT) et le Temps de Transmission (TT) sont mesurés en utilisant les contrôleurs fournis.
Détermination des valeurs de propriétés pour les éléments composites :
Pour calculer la valeur de propriétés d’éléments composite comme les activités structurantes,
l’expert en qualité de service décrit une formule d’agrégation, comme on peut en
trouver dans la littérature ([Mukherjee 2008]) et rappelée ici dans le tableau 7.1 : il s’agit
ici de définir la valeur de propriété d’une activité structurante en fonction de la qualité
de service des éléments qu’elle contient. Par exemple, le temps de réponse d’une séquence
est la somme des temps de réponse de ses activités filles. De telles formules permettent
de calculer une valeur de propriété pour une activité structurante, basée sur les valeurs de
propriétés des activités la constituant. Dans notre langage, l’expert en QoS définit dans la
section ApplicationPoint la formule d’agrégation pour les activités Sequence, Flow et Loop
(voir lignes 5 à 8).
Influence de l’environnement :
Les formules définies précédemment donnent une manière de calculer une valeur de
propriété pour chaque élément du système. Cependant, cette formule n’explicite pas le fait
qu’une valeur de propriété peut être influencée par des facteurs extérieurs. Modéliser le fait
qu’une ressource spécifique influence une valeur de propriété permet d’inclure cette influence
dans notre analyse de l’évolution. Ici, l’expert en QoS écrit la dépendance de la valeur de
propriété à d’autres facteurs. Par exemple, l’expert définit que le temps de transmission
d’une activité est influencé par le délai du réseau.
7.4.3 Caractéristiques du langage
Le langage que nous venons de définir fournit les caractéristiques suivantes :
767.5. Déduction des règles causales d’une propriété
Indépendance au système : nous proposons ici d’abstraire complètement la description
d’une propriété du système sur lequel elle sera appliquée. Nous obtenons ainsi des
propriétés réutilisables, indépendantes du système considéré.
Modularité de l’expression : la définition des Points d’Applications permet de
diviser les analyses en fonction du type d’élément étudié. Cela permet à l’expert en QoS de
se focaliser sur un type d’élément à la fois.
Expressivité de la causalité : chacune des sections définies dans la description
permet d’établir une règle de causalité du système donné. Nous donnons également la
possibilité de décrire comment l’environnement va pouvoir influencer le comportement du
système, et donc la valeur de la propriété.
En nous basant sur cette description, nous cherchons maintenant à appliquer la définition
d’une propriété sur un système donné pour en déduire les relations causales propres à cette
propriété. Pour cela, nous présentons dans la section suivante une méthode de déduction des
règles causales d’un système propre à une propriété de qualité de service. Cette méthode
repose sur le même principe que la méthode de déduction du modèle causal fonctionnel
présenté dans le chapitre 6, en se basant sur des règles causales appliquées au système
étudié. Toutefois, l’approche appliquée dans ce chapitre diffère dans la méthode d’obtention
des règles causales : alors qu’un expert de la plate-forme était obligé d’écrire manuellement
les règles causales régissant la plate-forme d’exécution, nous allons ici déduire les règles
causales de la description de la propriété.
7.5 Déduction des règles causales d’une propriété
L’ensemble des relations causales présentées dans la section 7.3 permet de classifier les
différentes dépendances d’un point de vue qualité de service. Si ces dépendances permettent
de représenter la causalité d’une propriété, la question de savoir comment obtenir ce genre
de modèle reste entière. En effet, la construction manuelle d’un modèle causal, avec un
ensemble non négligeable de relations, ne peut pour des raisons évidentes s’envisager : la
taille du système, l’aspect fastidieux de la collecte des relations, et le haut risque d’erreur
dans la construction nous amène à rejeter l’hypothèse d’une construction à la main. Nous
proposons dans la suite une méthode pour enrichir automatiquement le modèle causal d’un
système avec les relations causales de propriété. Dans un premier temps, nous présentons
comment les informations contenues dans la description d’une propriété de QoS peuvent
être transformées en règles de déduction des relations. Puis, nous montrons comment les
règles causales sont appliquées à un système donné pour obtenir les différentes relations.
Enfin, nous montrons sur notre exemple comment cette méthode peut être appliquée.
7.5.1 Principe
La méthode que nous mettons ici en œuvre se déroule en deux temps : il s’agit d’abord de
déduire de la description de la propriété un ensemble de règles causales. Ces règles causales
sont, de la même manière que dans le chapitre 6, indépendantes de tout système. Dans
un deuxième temps, les règles déduites sont appliquées au système étudié pour obtenir ses
relations causales propres à la propriété étudiée.
La Figure 7.10 est une vue schématisée de notre approche : le procédé est initié en entrée
par la description de propriété. La première étape consiste à appliquer sur la description de
la propriété des règles de production que nous détaillons dans la suite de ce paragraphe. Ces
règles de production génèrent en sortie d’autres règles de production, que nous appelons
règle causale. Dans un deuxième temps, nous appliquons les règles de productions générées
777.5. Déduction des règles causales d’une propriété
Règles de production
(implémentées dans SMILE)
Description
de propriété
Système
Règles Causales
Relations Causales
Génération de
Règles Causales
Génération de
Relations Causales
Légende :
Génération de
Règles Causales
Règles Causales
step élément
élément step
Étape du processus
Donnée
l'étape step produit la donnée élément
la donnée élément est
en entrée de l'étape step
Figure 7.10 – Chaîne de déduction des relations causales de propriété.
Table 7.2 – Règle de production des relations causales d’environnement.
Situation Action
P.influencedBy = R
Situation Action
PV.getProperty = P R
env −→ P V
Table 7.3 – Règle causale d’environnement générée.
Situation Action
PV.getProperty = TT Network env −→ P V
sur le système à étudier, pour en déduire les relations causales de propriété.
Nous présentons dans la suite l’application de notre méthode pour chacun des trois types
de relations causales que nous avons présenté dans la section 7.3.
7.5.2 Obtention des relations causales d’environnement
Pour rappel, une relation causale d’environnement établie la causalité entre une ressource
de l’environnement et une valeur de propriété. Dans le langage de description des propriétés
que nous avons défini, ce genre de dépendance peut-être déduit de la section influencedBy.
Par exemple, l’expert a déclaré dans la Figure 7.9 que le temps de transmission est influencé
par le réseau. Ainsi, pour toute valeur de propriété P VT T du temps de transmission, il existe
une relation causale Network env −→ P VT T . Ce comportement est identique à toute ressource
déclarée comme source d’influence. De ce fait, nous pouvons écrire une règle de production
qui est applicable à n’importe quelle section influencedBy. Cette règle est consignée dans le
Table 7.2.
Une fois ce patron appliqué à la description de propriété (lors de l’étape de génération
de règles), nous obtenons un ensemble de règles causales d’environnement. Par exemple, la
génération de règles a produit plusieurs règles, dont celle consignée dans le Table 7.3.
Il est important de noter que chacun des patrons écrits dans cette section est universel :
il est valide pour toute règle causale de dérivation, d’agrégation ou d’environnement.
787.5. Déduction des règles causales d’une propriété
Table 7.4 – Règle de production des relations causales de dérivation.
Situation Action
P.basicComputation=f (Props)
Situation Action
∀Px ∈ Props,
P V1.prop=Px
and P V2.prop=P
and P V1.owner=P V2.owner
P V1
der −→ P V2
Table 7.5 – Règle causale de dérivation générée.
Situation Action
∀Px ∈ {TT,CT},
P V1.prop=Px
and P V2.prop=RT
and P V1.owner=P V2.owner
P V1
der −→ P V2
7.5.3 Obtention des relations causales de dérivation
Une relation causale de dérivation intervient lorsque une propriété est définie à l’aide
d’une formule de dérivation. Cette information est également présente dans la description de
la propriété : dans la section BasicComputation, une valeur possible pour cette section est
d’indiquer une formule de dérivation. Le cas échéant, chacune des opérandes de la formule
est une source d’une relation causale de dérivation. Pour construire les relations causales
de dérivation, il s’agit donc de trouver toutes les valeurs de propriétés dérivées, et créer
une relation entre chaque opérande de la formule de dérivation et la propriété dérivée. Pour
obtenir ces règles causales de dérivation, nous avons écrit une autre règle de production
spécifique aux relations causales de dérivation. Celui ci est consigné dans le Table 7.4.
Une fois la règle de production appliquée sur la description de propriété, nous obtenons
une règle causale de dérivation similaire à celle consignée dans la Table 7.5. Celleci
sélectionne toute propriété dont la méthode de calcul basique est une fonction dont
les paramètres sont l’ensemble Props. Partant de l’ensemble des paramètres, la règle
de production générée recherche les valeurs de propriété correspondant à la propriété
donnée (P V1.prop=Px), ainsi que les valeurs de propriété de P (P V2.prop=P), et sélectionne
l’unique couple P V1 et P V2 tel qu’ils caractérisent le même élément du système
(P V1.owner=P V2.owner). Cette situation résulte en l’action de la création de la relation
causale de dérivation P V1
der
−→ P V2.
7.5.4 Obtention des relations causales d’agrégation
Les relations causales d’agrégation interviennent pour calculer la valeur de propriété
d’une activité structurante à partir des valeurs de propriété de ses activités contenues.
Pour cela, il suffit de collecter l’information à partir de la section ApplicationPoint de la
description de propriété. Nous décrivons dans le Table 7.6 la règle de production correspondant
aux règles causales d’agrégation. Une fois appliquée à la description du temps de
réponse, notre méthode génère la règle de production décrite dans le Table 7.7, correspondant
au point d’application des activités de type Séquence. La situation de cette règle est
constituée d’un ensemble de conditions, le but étant de sélectionner les valeurs du temps de
réponse d’une séquence et de ses activités filles. Pour cela, nous raisonnons sur deux acti-
797.5. Déduction des règles causales d’une propriété
Table 7.6 – Règle de production des relations causales d’agrégation.
Situation P.ApplicationPoint.isStructuredType=True and
P.ApplicationPoint=f (Children)
Action
Situation Action
A1, A2 : Activity and
A1.type=P.applicationDomain.
applicationPoint and
A2 ∈ A1.content and
PV1.prop = P and PV2.prop = P and
PV1.owner = A1 and PV2.owner = A2
PVP (A1)
agr
−→ PVP (A2)
Table 7.7 – Règle causale d’agrégation générée.
Situation Action
A1, A2 : Activity and
A1.type=Sequence and
A2 ∈ A1.content and
PV1.prop = RT and PV2.prop = RT and
PV1.owner = A1 and PV2.owner = A2
PVRT (A1)
agr
−→ PVRT (A2)
vités A1, A2 telles que A1 correspond aux activités de type Séquence (A1.type=Sequence
), et A2 les activités qu’elle contient (A2 ∈ A1.content). Nous raisonnons ensuite sur l’ensemble
des valeurs de propriété, en sélectionnant les valeurs correspondant au temps de
réponse (PV1.prop = RT and PV2.prop = RT), pour enfin sélectionner les deux valeurs
de propriétés attachées à A1 et A2.
Nous ne montrons ici que l’application de la règle de production pour le point d’activité
séquence, l’équivalent pour le flot ("flow" en anglais) et la boucle ("loop" en anglais) étant
similaire.
Une fois que les règles causales ont été déduites, il est possible de les appliquer à n’importe
quel système pour en extraire ses relations causales de propriété. Comme décrit dans
le chapitre 6, Smile applique les règles causales de propriété sur le système pour produire
un modèle causal correspondant à celui que nous avons décrit dans la section 7.3 (voir
Figure 7.8).
7.5.5 Discussion
Le procédé que nous venons de décrire permet de déduire de manière automatique le
modèle causal de propriété d’un système, en se basant sur la description d’une propriété.
Nous avons identifié un ensemble de trois types de relations causales propres aux propriétés
de qualité de service. Toutefois, notre approche dépend fortement de la description de la
propriété réalisée par l’expert en QoS. Elle est ainsi limitée dans le sens où des informations
supplémentaires doivent y être inscrites, nécessitant un effort supplémentaire de la part de
l’expert en QoS.
Malgré cette limitation, notre approche améliore le modèle causal du système décrit
dans le chapitre 6, en apportant une granularité plus fine dans la détermination des causes
et des conséquences au sein d’un système. De plus, les règles de production décrites pour
générer les règles causales sont génériques pour toutes les propriétés : il suffit pour l’expert
en qualité de service de décrire sa propriété pour obtenir les règles causales correspondantes,
807.6. Conclusion du chapitre
pour pouvoir les appliquer à n’importe quel système.
Cette contribution permet d’apporter une réponse au défi "interactions entre les
différentes parties d’un logiciel", en enrichissant le modèle causal par des relations
causales propres à la qualité de service. En augmentant notre modèle causal de relations
propres à la QoS, nous apportons également des éléments de réponses au "minimisation
de la vérification" : grâce à un niveau de précision supérieur, nous permettons ici de
cibler au plus près les valeurs de propriété à re-vérifier.
7.6 Conclusion du chapitre
Dans ce chapitre, nous avons proposé un modèle de données permettant de modéliser
la définition d’une propriété de QoS, ainsi que la représentation unifiée des données de
détermination. Pour faciliter la tâche de l’expert, nous avons défini un langage spécifique au
domaine permettant de décrire des propriétés de qualité de service. L’intérêt de la définition
d’un nouveau langage ici provient du besoin d’exprimer les influences entre les différents
éléments du système. En effet, la plupart des langages existants se focalisent sur la manière
d’observer la propriété. Il est important de noter toutefois que ce prototype de langage est
à fin expérimentale. Dans un futur proche, il serait utile d’étendre un langage existant avec
les concepts de ce langage, afin de bénéficier de toute la puissance du langage étendu.
À partir de la description de propriété, nous avons présenté une méthode permettant
d’extraire automatiquement des règles causales spécifiques à la propriété, dans le but de les
appliquer de manière automatique à n’importe quel système afin d’en extraire un modèle
causal enrichi. Cette méthode permet de s’affranchir d’une construction manuelle qui aurait
été coûteuse en temps et sujette à erreur.
De manière générale, si notre solution pour l’expert en qualité de service diminue et
simplifie la gestion de la qualité de service en unifiant l’ensemble des outils dans une seule
description, un effort reste à faire pour automatiser complètement la gestion de la qualité de
service. En effet, pour chaque outil envisagé, il sera nécessaire de définir une transformation
des données produites par l’outil pour les intégrer dans le modèle unifié. De plus, si notre
canevas permet de s’assurer de la cohérence du modèle de données tout au long du cycle de
vie du système, le principe de pérennité des données capturées au cours de la détermination
reste à la charge de l’expert. Il s’agira à l’avenir de réfléchir à une méthode automatique
visant à supprimée les données obsolètes, après un certain nombre d’évolutions par exemple.
Dans le chapitre suivant, nous nous intéressons au rôle de l’architecte de l’évolution.
Nous présentons son rôle et expliquons comment ce modèle causal enrichi peut l’aider dans
l’analyse d’une évolution.
81Chapitre 8
Analyse de l’évolution du logiciel
orientée QoS
Sommaire
8.1 Présentation générale du processus d’évolution . . . . . . . . . . 84
8.1.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.1.2 Spécification du processus d’évolution . . . . . . . . . . . . . . . . . 84
8.1.3 Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2 Un langage pour l’évolution des processus métier . . . . . . . . . 86
8.3 Spécification de l’analyse de l’évolution . . . . . . . . . . . . . . . 87
8.3.1 Aperçu des différentes étapes . . . . . . . . . . . . . . . . . . . . . . 88
8.3.2 Étape 1 : mise à jour du modèle causal . . . . . . . . . . . . . . . . . 89
8.3.3 Étape 2 : analyse causale . . . . . . . . . . . . . . . . . . . . . . . . 92
8.3.4 Étape 3 : re-vérification . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.3.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.4 Résultat de l’analyse et prise de décision . . . . . . . . . . . . . . 96
8.4.1 Enjeux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
8.4.2 Vérification des contrats . . . . . . . . . . . . . . . . . . . . . . . . . 97
8.4.3 Détermination des causes racines . . . . . . . . . . . . . . . . . . . . 98
8.4.4 Déploiement et retour en arrière (roll-back) . . . . . . . . . . . . . . 99
8.4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.5 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 101
D
ans ce chapitre, nous présentons notre approche pour effectuer et analyser une évolution.
Cette approche se centre sur l’architecte de l’évolution, pour lequel il est nécessaire
de savoir si l’évolution qu’il/elle a décrit ne cause pas le viol d’un contrat de qualité
de service à l’échelle du système lorsqu’elle est appliquée. Ce chapitre présente la contribution
finale de ce document, où nous expliquons comment le modèle causal déduit dans
le chapitre précédent est utilisé pour effectuer une analyse des conséquences de l’évolution
sur la qualité de service du système. L’objectif de l’analyse est d’identifier le sous-ensemble
du système affecté, directement ou indirectement, par l’évolution, afin de déterminer son
effet sur la qualité de service. Le résultat de l’analyse permet de renseigner l’architecte de
l’évolution sur une potentielle amélioration ou dégradation de la qualité de service. Au final,
l’analyse de l’évolution détermine si l’application de l’évolution sur le système maintient les
différentes propriétés de qualité de service considérées.
Ce chapitre est constitué comme suit : dans un premier temps, nous présentons la spé-
cification des différentes étapes constituant une évolution, de la définition des nouveaux
besoins, à l’expression des modifications à appliquer au système. Puis, nous détaillons chacune
des étapes de l’analyse en expliquant leurs spécificités et les choix conceptuels que8.1. Présentation générale du processus d’évolution
nous avons pris. Enfin, la dernière section détaille comment le résultat de l’analyse de l’évolution,
à savoir l’ensemble des éléments affectés du système, est utilisé pour re-vérifier le
système dans le but de quantifier l’effet de l’évolution et de dire si la qualité de service est
maintenue.
8.1 Présentation générale du processus d’évolution
8.1.1 Enjeux
L’objectif de ce chapitre est de présenter une méthode permettant de garantir le maintien
de la qualité de service au cours de l’évolution. Pour cela, nos objectifs sont les suivants :
– Maintien de la qualité de service : nous cherchons par le biais de notre analyse à
savoir si une évolution a un effet sur la qualité de service. Pour cela, nous introduisons
le concept de caractérisation d’une évolution :
Définition 8.1.1 (Caractérisation d’une évolution)
Une évolution peut être caractérisée comme étant neutre, bénéfique ou néfaste, si elle
n’a respectivement aucun effet, un effet d’amélioration ou un effet de dégradation sur
la valeur de la propriété de QoS considérée. On considère également qu’une évolution
sera jugée satisfaisante en terme d’une propriété de QoS si l’évolution ne cause pas de
violation de contrat.
Concrètement, la caractérisation d’une évolution s’effectue en comparant la valeur de
qualité de service pour le système avant l’évolution à la valeur après l’évolution. Si la
valeur s’améliore (voir chapitre 7), alors l’évolution sera bénéfique.
– Diagnostic en cas de non-maintien de la qualité de service : lorsqu’une
évolution dégrade une valeur de QoS et qu’elle cause la violation d’un contrat de QoS,
l’architecte de l’évolution doit être en mesure de modifier la description de l’évolution
pour corriger l’erreur. Dans ce cas, il est nécessaire de savoir quel est l’élément du
système responsable de la violation.
Pour répondre à ces défis, nous proposons un processus d’évolution s’assurant du maintien
de la qualité de service et de l’identification de la cause d’une violation de contrat. Afin
de montrer le fonctionnement du processus, nous utilisons PicWeb comme illustration.
8.1.2 Spécification du processus d’évolution
Le processus d’évolution peut être vu comme une transformation du système d’un état S
à un état S’. À titre de guide, la Figure 8.1 en représente les différentes étapes : l’architecte
de l’évolution décrit en (1) une évolution à appliquer sur le système. En s’appuyant sur
cette description, ainsi que sur les descriptions de propriétés à contrôler, l’évolution est
alors analysée en (2), afin de déterminer si elle est satisfaisante du point de vue de la QoS.
Le cas échéant, l’évolution est en (3) appliquée de manière effective, ou bien l’architecte de
l’évolution observe les causes déterminées par l’analyse pour pouvoir corriger son évolution
et en proposer une nouvelle.
Nous détaillons chacune des étapes dans la suite de cette section.
848.1. Présentation générale du processus d’évolution
2 - Analyse de
l'évolution
1 - Description
de l'évolution
Architecte de
l'évolution
3 - Prise de S décision S'
Figure 8.1 – Processus d’évolution.
8.1.2.1 Étape 1 : description de l’évolution
WriteEvolution : ∅ −→ Évolution
La première étape consiste à décrire les modifications que l’on veut apporter au processus
métier. L’architecte du système décrit dans un premier temps la séquence de modifications
à opérer sur le système, telles que les ajouts, suppressions ou mises à jour des différents
éléments du système. L’objectif de cette étape est de construire une modification de la
structure et du comportement du système, dans le but de satisfaire les changements des
besoins de l’utilisateur. Nous montrons dans la section 8.2 comment cette description peut
être établie avec notre langage pour l’évolution.
8.1.2.2 Étape 2 : analyse de l’évolution
Analyse : Évolution −→ Set, Set
La deuxième étape consiste à déterminer les effets de l’évolution sur la qualité de service
du système. Pour cela, l’analyse repose sur l’établissement du modèle causal futur, i.e., tel
qu’il serait si l’évolution était établie. Partant de ce modèle, l’analyse identifie le sousensemble
des valeurs de propriétés affectées par l’évolution. Enfin, l’analyse se termine par
une re-vérification de ces valeurs, afin de pouvoir déterminer si les contrats de QoS sont
toujours respectés, ou si au contraire ils ont été violés.
8.1.2.3 Étape 3 : prise de décision
Decision : Set, Set −→ Boolean
La dernière étape de l’analyse a pour rôle d’apporter les informations nécessaires à
l’architecte de l’évolution afin de savoir si l’évolution proposée respecte bien les contrats de
qualité de service définis. Au cours de cette étape, l’architecte choisit d’appliquer l’évolution
de manière effective sur le système en production. En cas de problème sur un contrat, il
s’agira de rentrer dans une phase de diagnostic afin de comprendre pourquoi le contrat a
été violé. Les modifications faites sur le modèle causal sont alors annulées avant de revenir
au début du processus, afin de définir une nouvelle évolution.
8.1.3 Hypothèses
Afin de pouvoir garantir la cohésion du système, nous devons poser un certain nombre
d’hypothèses :
– Nous considérons ici que pour garantir la cohérence du système, deux évolutions ne
peuvent être appliquées en parallèle. Notre processus d’évolution devra être conçu
858.2. Un langage pour l’évolution des processus métier
Table 8.1 – Liste des opérations d’évolution.
Opération Description
addVariable(var) var est ajoutée au modèle
delVariable(var) var est retirée du modèle
addActivity(id, nom) act est ajoutée au modèle
delActivity(id) act est retirée du modèle
addInParameter(act,var,pos) var est dans les paramètres de act,
en position pos
delInParameter(act,var) var est retirée des paramètres de act
addOutParameter(act,var,pos) var est dans le résultat de act, en
position pos
delOutParameter(act,var) var est retirée du résultat de act
addRelation(idFrom, itTo) une relation d’ordre est créée entre
les activités idFrom et idTo
delRelation(idFrom,itTo) la relation d’ordre entre les activités
idFrom et idTo est supprimée
pour effectuer les évolutions de manière séquentielle et atomique, ce dernier point
permettant ainsi de revenir à la version précédente en cas de problème.
– Pour pouvoir déterminer si la QoS est maintenue, nous supposons que la description
des propriétés de QoS est disponible, et que des contrats sont définis au préalable.
Dans la suite de ce chapitre, nous détaillons chacune des étapes du processus d’évolution.
Après avoir introduit notre langage pour décrire une évolution, nous nous focalisons sur
les spécificités de chacune des étapes du processus d’analyse. Nous détaillons chacune des
étapes, avant de les illustrer à l’aide du cas d’étude. Nous désignons dans le reste du chapitre
les parties du système telles que les variables, les services, les activités, ou les paramètres
en entrée/sortie d’un service comme étant des éléments du système (voir chapitre 6).
8.2 Un langage pour l’évolution des processus métier
L’étape initiale du processus d’évolution consiste à exprimer les changements à effectuer
sur le système décrit par l’architecte du système pour satisfaire les nouveaux besoins de
l’utilisateur. Pour cela, de nombreux langages de description de l’évolution d’un système
existent. Par exemple, Praxis est un outil d’analyse de l’évolution de modèles [Blanc 2009].
Plus proche de notre domaine d’application, Adore est un langage d’évolution de processus
métier basé sur les techniques de tissage de modèle [Mosser 2013]. Ces langages expriment
une évolution en proposant principalement des modifications structurelles du système. Il
s’agira de pouvoir déclarer l’ajout, la suppression ou la mise à jour de concepts du système
étudié.
Nous proposons ici de reprendre les concepts communs aux langages d’évolution pour
définir notre propre langage d’évolution. Nous avons défini des opérateurs permettant de
manipuler des variables, des activités et des relations d’ordre. Notre langage d’évolution
permet l’ajout, la suppression et la mise à jour des différents éléments du système. Il est
constitué d’un jeu de dix opérations destiné à ajouter, supprimer des éléments propres aux
processus métiers. La Table 8.1 dresse la liste des différentes opérations disponibles.
868.3. Spécification de l’analyse de l’évolution
Dans le cadre de notre exemple fil rouge, nous rappelons que suite à la première version
de PicWeb, les utilisateurs ont émis le souhait de bénéficier d’une source de données
supplémentaire, Flickr, pour les photos retournées par le processus métier. L’architecte
de l’évolution conçoit alors une évolution répondant à ce besoin. Elle se découpe en trois
étapes :
– Ajout de l’appel à Flickr : afin de faire évoluer le processus métier, l’architecte de
l’évolution propose d’ajouter en parallèle de l’appel à Picasa un appel au service de
Flickr. Il s’agit donc ici d’ajouter une nouvelle activité au processus métier, ayant
en entrée le mot-clé recherché. Afin de pouvoir récupérer des données en sortie, une
nouvelle variable, PicsFlickr, a besoin d’être créée et ajoutée en temps que valeur de
sortie de l’activité Flickr.
– Ajout de l’appel à Concat : désormais, le processus métier doit manipuler deux
ensembles de données, que nous souhaitons concaténer. De manière similaire à l’ajout
de l’activité Flickr, l’architecte ajoute une activité, concat, prenant en entrée les
deux ensembles, pour produire en sortie un nouvel ensemble concaténant le deuxième
ensemble à la suite du premier.
– Mise à jour de l’ordre d’exécution : la création de deux nouvelles activités dans
notre processus métier implique de rendre de nouveau cohérent l’ordre partiel d’exé-
cution. Pour que Flickr s’exécute en parallèle de Picasa, l’architecte introduit une
relation temporelle entre l’activité receive et l’appel à Flickr. Les deux services de
récupération de données sont suivis désormais par concat qui termine la modification
en reprenant la suite du processus métier.
Pour effectuer cette évolution, l’architecte de l’évolution décrit en Figure 8.2 l’ensemble
des opérations à effectuer. L’évolution est composée de quatre parties : les lignes 2 à 4
mettent à jour l’activité Picasa en changeant le nom de sa valeur de retour par une nouvelle
variable, PicsPicasa. Les lignes 6 à 9 ajoutent l’appel à l’activité Flickr. Les lignes 11 à 14
sont responsables de l’appel à l’activité Helper, qui va concaténer PicsPicasa et PicsFlickr
dans Pics. Enfin, les lignes 16 à 20 rétablissent l’ordre partiel entre les activités.
Une fois que l’évolution est décrite, l’architecte de l’évolution peut déclencher l’analyse
de l’évolution.
8.3 Spécification de l’analyse de l’évolution
L’analyse de l’évolution est une étape cruciale du processus d’évolution. Elle soulève les
objectifs suivants :
– Minimisation de la re-vérification : nous cherchons à effectuer le moins de véri-
fications inutiles possibles, particulièrement dans le cas où la re-vérification doit être
effectuée à l’exécution, pouvant potentiellement affecter les utilisateurs du système.
Il s’agira de cerner au plus près l’ensemble des éléments impactés, en écartant les
éléments neutres vis à vis de l’évolution, sans pour autant écarter d’éléments affectés.
– Qualification de l’évolution : afin de pouvoir caractériser l’évolution, nous cherchons
à savoir ici si l’évolution est bénéfique, neutre ou néfaste du point de vue d’une
propriété de qualité de service. À la fin de cette étape, l’architecte de l’évolution a
besoin de connaître les valeurs de propriétés pour l’ensemble du système, afin d’être
en mesure de comparer les valeurs avant évolution et après évolution. Au delà d’un
rapport qualitatif, l’architecte de l’évolution doit être en mesure de pouvoir quantifier
son apport, afin de déterminer si elle est acceptable ou non.
878.3. Spécification de l’analyse de l’évolution
1 Evolution{
2 addVariable ( Pi c s Pi c a s a )
3 delOutParameter ( a2 , Pi c s )
4 addOutParameter( a2 , Pi c s Pi c a s a , 0 )
5
6 addVariable ( P i c s F l i c k r )
7 addActivity ( a22 , F l i c k r )
8 addInParameter ( a22 , Tag , 0 )
9 addOutParameter( a22 , Pi c s Fli c k r , 0 )
10
11 addActivity ( a23 , j o i n )
12 addInParameter ( a23 , Pi c s Pi c a s a , 0 )
13 addInParameter ( a23 , Pi c s Fli c k r , 1 )
14 addOutParameter( a23 , Pic s , 0 )
15
16 addRelation( r e c ei v e , a22 )
17 addRelation( a22 , a23 )
18 addRelation( a23 , a3 )
19 addRelation( a2 , a23 )
20 delRelation ( a3 , a2 )
21 }
Figure 8.2 – Évolution de PicWeb.
Le but de cette section est de présenter les différentes étapes constituant l’analyse de
l’évolution, tout en motivant leur intérêt. Notre analyse a pour objectif de montrer à l’architecte
de l’évolution les effets développés sur les propriétés de qualité de service du système.
Elle prend en entrée un système, une évolution, et des propriétés à considérer, afin de lister
en sortie le ou les contrats de qualité de service violés, accompagnés d’une trace d’exécution
montrant la violation de contrat. Nous présentons chacune des trois étapes la constituant,
et l’illustrons en les appliquant sur PicWeb.
8.3.1 Aperçu des différentes étapes
Nous présentons dans cette partie les différentes étapes de l’analyse d’évolution décrite
dans la Figure 8.3, en précisant leurs entrées et sorties, et en expliquant l’objectif et
l’intérêt de chacune des étapes.
2 - Analyse
Causale
1 - Mise à jour
du Modèle
Causal
3 - Re-vérification
des valeurs de
propriétés
2 - Analyse de l'évolution
Evolution
Modèle Causal
Description propriété
S
Modèle
Causal
Set
Set
Set
Figure 8.3 – Étapes de l’analyse de l’évolution.
– Étape 1 : mise à jour du modèle causal
Evolution × CausalModel −→ CausalModel
Une fois que l’évolution est décrite, l’analyse de l’effet de l’évolution sur le système
débute. Puisque cette analyse se base sur le modèle causal de l’application, la première
888.3. Spécification de l’analyse de l’évolution
étape de l’analyse consiste à mettre à jour le modèle causal. Il s’agit ici de défaire les
relations n’ayant plus de sens, et d’ajouter les nouvelles relations causales correspondant
à l’évolution en cours d’application. Similairement, des nœuds du modèle causal
sont créés ou détruits, afin de refléter au plus près les causalités entre les éléments du
système tel qu’il serait si l’évolution était effectivement appliquée.
– Étape 2 : analyse Causale
CausalModel × Set −→ Set
Prenant en entrée les éléments ajoutés ou supprimés, l’analyse causale consiste en
un parcours du modèle causal, afin d’identifier les éléments du système affectés par
l’évolution. En sortie, l’analyse causale produit une liste des tous les éléments du
système ayant une relation de causalité établie avec l’évolution, et pour lesquels une
nouvelle vérification est nécessaire.
– Étape 3 : re-vérification des valeurs de propriétés
Set −→ Set
La dernière étape de l’analyse détermine les nouvelles valeurs de propriétés des élé-
ments affectés, afin de connaître l’effet concret de l’évolution sur les propriétés de
qualité de service étudiées. Ici, l’analyse déclenche alors les outils de re-détermination
des valeurs de propriétés adéquats, et déploie si besoin sur un serveur de test une
version du système évolué et enrichi de moniteurs afin de pouvoir collecter les valeurs
de propriétés modifiées. Le résultat de cette étape produit un différentiel entre les
valeurs du système pré et post-évolution. À partir de ce différentiel, l’analyse vérifie
les contrats de QoS afin de détecter une potentielle violation.
Nous présentons dans la suite le comportement de l’analyse de l’évolution, et expliquons
en quoi les contraintes énumérées ci-dessus sont respectées.
8.3.2 Étape 1 : mise à jour du modèle causal
L’analyse de l’évolution repose sur un parcours du modèle causal, afin de déterminer
quels éléments seront affectés. Pour cela, il est nécessaire d’établir l’hypothétique modèle
causal du système, en considérant que l’évolution a déjà eu lieue, afin de pouvoir en analyser
les effets. La première étape de l’analyse consiste à mettre à jour le modèle causal pour
obtenir les causalités du système post-évolution. Il s’agit d’une étape cruciale, car c’est elle
qui garantit l’exactitude du modèle causal, permettant par la suite à l’analyse de l’évolution
de produire un résultat précis.
La mise à jour du modèle causal se résume par une mise à jour de ses nœuds et de ses
relations causales. Cette étape se réalise en deux temps : d’un point de vue fonctionnel, où
Smile traduit les opérations d’évolution en opérations de modification du modèle causal,
et d’un point de vue qualité de service, où Smile déduit de la mise à jour fonctionnelle
et de la description des propriétés les différentes relations causales de qualité de service
La Figure 8.4 est une représentation schématique du processus de mise à jour. Cette
étape prend en entrée la description des propriétés de QoS, l’évolution à appliquer, et le
modèle causal du système. En sortie, nous trouvons un modèle causal futur, tel qu’il serait
si l’évolution était appliquée. En supplément, l’étape de mise à jour retourne également un
ensemble d’éléments constituant les éléments explicitement affectés par l’évolution. C’est
à partir de cette liste que l’étape d’analyse causale détermine quels autres éléments du
système sont indirectement affectés par l’évolution.
Pour effectuer le traitement attendu, la mise à jour du modèle causal s’effectue en trois
sous-étapes :
898.3. Spécification de l’analyse de l’évolution
1- Mise à jour
fonctionnelle
2 - Mise à jour
QoS
0 - Sauvegarde
du
Modèle Causal
3 - Collecte des
éléments racines
Copie du
Modèle Causal
Évolution
Modèle Causal
Modèle Causal
modifié
Modèle Causal
futur
Set
Description
Propriété
Actions sur le
Modèle Causal
1 - Mise à jour du Modèle Causal
Actions sur le
Modèle Causal
Figure 8.4 – Traduction de l’évolution en actions sur le modèle causal.
Table 8.2 – Correspondance entre opérations d’évolution et actions du modèle causal.
Opération d’évolution Action(s) sur les
nœuds Action(s) sur les relations
addActivity(act) addNode(act) –
delActivity(act) delNode(act) ∀var ∈ input(act), delCausalRel(var,act) ∧
∀var ∈ output(act), delCausalRel(act,var)
addVariable(var) addNode(var) –
delVariable(var) delNode(var) –
addInPar(act,var,pos) – addCausalRel(var,act)
delInPar(act,var) – delCausalRel(act,var)
addOutPar(act,var,pos) – addCausalRel(act,var)
delOutPar(act,var) – delCausalRel(var,act)
addRelation(act,act2) – –
delRelation(act,act2) – –
1 - Mise à jour fonctionnelle : la mise à jour fonctionnelle du modèle causal consiste
à ajouter/supprimer les nœuds modifiés par l’évolution, et à ajouter/supprimer les relations
causales sous-jacentes. Cette étape est nécessaire car elle permet d’avoir un modèle causal
reflétant le système une fois que l’évolution a été appliquée.
La mise à jour des nœuds du modèle causal consiste à identifier au sein de la description
de l’évolution les éléments du système ajoutés ou supprimés. Pour cela, Smile traduit
les opérations de l’évolution modifiant la structure du système en actions à effectuer sur
le modèle causal. Nous avons défini une correspondance entre les différentes opérations
du langage d’évolution, et les actions à effectuer sur le modèle causal, consignée dans la
Table 8.2. Cette correspondance est valable pour n’importe quelle évolution. À titre d’illustration,
nous établissons la correspondance entre les opérations d’évolution utilisées dans
l’évolution de PicWeb et les actions effectuées sur son modèle causal dans la Table 8.3
(écrites en bleu). Ici, nous ajoutons simplement deux nœuds pour les variables PicsPicasa
et PicsFlickr et deux nœuds pour les activités Flickr et Join.
908.3. Spécification de l’analyse de l’évolution
1 Evolution{
2 addVariable ( Pi c s Pi c a s a )
3 delOutParameter ( a2 , Pi c s )
4 addOutParameter( a2 , Pi c s Pi c a s a )
5
6 addVariable ( P i c s F l i c k r )
7 addActivity ( a22 , F l i c k r )
8 addInParameter ( a22 , Tag )
9 addOutParameter( a22 , P i c s F l i c k r )
10
11 addActivity ( a23 , j o i n )
12 addInParameter ( a23 , Pi c s Pi c a s a )
13 addInParameter ( a23 , P i c s F l i c k r )
14 addOutParameter( a23 , Pi c s )
15
16 addRelation( r e c ei v e , a22 )
17 addRelation( a22 , a23 )
18 addRelation( a23 , a3 )
19 addRelation( a2 , a23 )
20 delRelation ( a3 , a2 )
21 }
CausalEvolution{
addNode( Pi c s Pi c a s a )
delCausalRel ( a2 , Pi c s )
addCausalRel ( a2 , Pi c s Pi c a s a )
addNode( P i c s F l i c k r )
addNode( F l i c k r )
addCausalRel ( tag , a22 )
addCausalRel ( a22 , P i c s F l i c k r )
addNode( j o i n )
addCausalRel ( Pi c s Pi c a s a , a23 )
addCausalRel ( Pi c s Fli c k r , a23 )
addCausalRel ( a23 , Pi c s )
−−
−−
−−
−−
−−
}
Table 8.3 – Génération de la mise à jour du modèle causal de PicWeb.
De manière similaire à la construction initiale du modèle causal (voir chapitre 6), la
mise à jour des relations causales fonctionnelles s’effectue en appliquant les règles causales
fonctionnelles sur les nouveaux éléments de l’évolution. À titre d’exemple, nous considérons
les règles causales introduites dans le chapitre 7. L’application de ces règles sur les éléments
manipulés au cours de l’évolution permet de reconstruire les relations causales manquantes.
Pour cela, nous avons établi la correspondance entre les opérations d’évolution et les actions
sur le modèle causal du point de vue de la construction des relations causales fonctionnelles.
Cette correspondance est décrite dans la Table 8.2 : elle permet de générer pour l’évolution
de PicWeb la mise à jour décrite dans la partie droite de la Table 8.3 (écrite en rouge).
2 - Mise à jour de la QoS : de manière similaire, la mise à jour du modèle causal d’un
point de vue qualité de service consiste à introduire les nouvelles valeurs de propriétés et
les nouvelles relations causales de QoS. Compte tenu de sa similitude avec l’étape de mise
à jour fonctionnelle, nous décrivons brièvement cette étape : ici, il s’agit dans un premier
temps d’assurer la cohérence du modèle, en ajoutant ou en supprimant les PropertyValues
correspondant aux modifications effectuées du point de vue fonctionnel. Par exemple, si une
nouvelle activité est ajoutée, il s’agit d’ajouter également dans le modèle causal l’ensemble
de ses PropertyValues. Une fois la cohérence retrouvée d’un point de vue structurel, il
est nécessaire de construire les nouvelles relations causales propres aux propriétés de QoS
étudiées. Cette tâche s’effectue simplement en appliquant de nouveaux les règles causales
de QoS déduites, comme présenté dans le chapitre 7.
3 - Collecte des éléments racines : afin de pouvoir établir les conséquences liées à
l’évolution, nous avons besoin de déterminer les causes racines [Rooney 2004], qui seront
dans ce contexte les éléments fonctionnels directement manipulés par l’évolution. L’étape
de collecte des éléments racines analyse chacune des actions effectuées sur le modèle causal.
Pour chaque action, la collecte consiste à capturer le ou les éléments du système, facteurs
d’influence. Pour cela, nous considérons chacun des quatre types d’opération de mise à jour
du modèle causal pour déterminer les éléments-causes racines de l’effet de l’évolution. La
recherche des éléments racine est réalisée à l’aide de l’opérateur collecte(CausalOperation).
Nous décrivons sa spécification pour chacune des opérations de mise à jour du modèle causal
918.3. Spécification de l’analyse de l’évolution
Table 8.4 – Description de l’opération collecte.
Modèle Causal Description de l’opération de collecte
B
E
D
C
N
collecte(addNode(N)) : l’ajout d’un nœud dans le modèle causal,
considéré séparément, n’a d’influence que sur lui-même. En effet, à ce stade,
le nœud n’est relié causalement à aucun autre nœud ; le seul élément racine
ici est donc N. collecte(addN ode(N)) = N.
B
E
D
C
N
collecte(delNode(N)) : pour la suppression d’un nœud, nous considérons
comme pré-condition que l’ensemble des relations causales dont N est la
source ou la cible a déjà été supprimé avant d’effectuer la suppression du
nœud. Dans cette situation, N n’est lié causalement à aucun autre élément,
et ne peut donc pas être une cause racine. Le résultat de
collecte(delNode(N)) est donc égal à ∅.
B
E
D
C
N
collecte(addCausalRel(N, B)) : l’ajout d’une relation causale signifie
que N a une influence sur B. Toutefois, il existe peut-être d’autres influences
provenant de N qui, elles, n’ont pas changé. il s’agit donc de considérer B
comme une cause racine.
collecte(addCausalRel(N, B)) = B.
B
E
D
C
N
collecte(delCausalRel(N, B)) : la suppression d’une relation entraîne
potentiellement la détermination de nouvelles causes racines. En effet, si une
relation causale entre N et B est supprimée, cela veut dire que N n’opère
plus d’influence sur B. De ce fait, l’état de B libéré de cette influence
changera comparé à son état dans la version pré-évolution. Il est donc
nécessaire de considérer B comme une cause racine.
collecte(delCausalRel(N, B)) = B.
dans la Table 8.4.
Dans le cas de PicWeb, les différents opérations de mise à jour du modèle causal
consignées dans les mises à jour du modèle causal déduites sont analysées pour collecter
les causes racines. Cela produit l’ensemble de nœuds .
Nous venons de voir comment, à partir de la description d’une évolution, il était possible
de mettre à jour le modèle causal. Dans l’étape suivante, il s’agit d’utiliser le modèle causal
mis à jour pour déterminer quelles valeurs de propriétés de QoS sont affectées par l’évolution.
8.3.3 Étape 2 : analyse causale
L’objectif de cette étape est d’identifier les valeurs de propriétés qu’il est nécessaire
de re-vérifier. En utilisant les éléments racines identifiés dans l’étape précédent, l’analyse
causale consiste à visiter le modèle causal pour établir l’influence de l’évolution sur le reste
du système et sur sa qualité de service. Le modèle causal est parcouru afin de capturer les
différents nœuds qui seraient directement ou indirectement affectés.
Principe
Pour analyser l’effet d’une évolution sur le système, l’analyse causale consiste à effectuer
un parcours de graphe, où chaque nœud rencontré est collecté. En effet, nous partons du
principe que les éléments racines sont des sources de causalité. Il s’agit donc de considé-
rer les éléments liés aux causes racines par une relation causale comme étant influencés.
De plus, selon notre définition de la causalité, l’état de ces éléments est potentiellement
affecté : de la même manière que pour les éléments racines, ce changement d’état a une
influence sur d’autres éléments du système. C’est ce que Judea Pearl appelle l’inférence de
causalité [Pearl 2000]. Pour prendre en compte cette influence, l’analyse causale consiste en
928.3. Spécification de l’analyse de l’évolution
Variable
Keyword
Variable
PicsPicasa
Variable
PicsFlickr
Variable
Pics
Variable
PicsF
Receive Invoke
Picasa
Invoke
Flickr
Invoke
Helper
Invoke
Shuffle Reply
in
in
in
in
in
in
out
out
out
out
out
Légende:
Relation Causale
de paramètre d'entrée
in Relation Causale
de paramètre de sortie
out
Élément racine collecté
Relation Causale suivie pendant
l'analyse causale
Élément collecté pendant
l'analyse causale
Figure 8.5 – Application à PicWeb de l’analyse causale.
une clôture transitive des relations causales. En suivant les relations causales partant des
éléments-racines, l’analyse causale détermine l’ensemble des éléments affectés par l’évolution.
Application à PicWeb
Nous illustrons l’application de l’analyse causale à PicWeb en l’observant du point
de vue des relations causales fonctionnelles, puis des relations de qualité de service. La
Figure 8.5 représente le parcours effectué par l’analyse causale sur la partie fonctionnelle du
modèle causal ; l’analyse démarre des éléments cerclés en rouge (causes racines), pour suivre
les relations causales représentées en gras, pour identifier une série d’éléments causalement
affectés, cerclés en vert. Ici, l’analyse causale détermine donc que l’évolution a impacté les
éléments Shuffle, PicsF et Reply.
Afin d’illustrer le même principe sur les éléments propres à la qualité de service, nous
raisonnons sur une sous-partie du modèle causal, décrite dans la Figure 8.6. Dans cette
figure, nous étudions la partie terminale du processus métier, où l’ensemble des éléments
fonctionnels présents a été déterminé comme affecté par l’évolution. Ici, l’analyse causale
continue son parcours en suivant les relations d’environnement vers les valeurs de propriété
de temps de transmission, puis vers les temps de réponse des activités simples par dérivation,
et enfin vers la valeur de propriété de temps de réponse de la séquence entière. Nous pouvons
souligner que les valeurs de propriétés de temps de transmission n’ont pas été sélectionnées,
grâce à la spécialisation des relations causales de QoS. Dans le cas où nous avions limité
notre modèle causal aux seuls éléments fonctionnels, il aurait fallu re-contrôler les valeurs
de toutes les propriétés. Nous économisons ainsi la re-vérification de certaines valeurs de
propriétés, comme le temps de transmission.
8.3.4 Étape 3 : re-vérification
L’analyse causale effectuée lors de l’étape précédente a identifié un ensemble d’éléments
causalement reliés aux changements opérés par l’évolution. Maintenant que nous savons
quels éléments ont été affectés, il est nécessaire de savoir à quelle hauteur le changement
938.3. Spécification de l’analyse de l’évolution
Variable
Pics
Variable
PicsF
Invoke
Shuffle
Reply
in
out
in
name="ResponseTime"
comparator=LowerIsBetter
:Property
values
:PropertyValue :PropertyValue
name="ComputationTime"
comparator=LowerIsBetter
:Property
values
:Property
Value :Property
Value
name="TransmissionTime"
comparator=LowerIsBetter
:Property
values
:Property
Value
:Property
Value
der
der
der
der
env
env
Sequence :Property
Value
agr
agr
Légende:
Relation Causale de paramètre d'entrée in
Relation Causale de paramètre de sortie out
env Relation Causale d'environnement
der Relation Causale de dérivation
Relation Causale d'agrégation agr
Élément collecté pendant
l'analyse causale
Relation Causale suivie pendant
l'analyse causale
Figure 8.6 – Application à PicWeb de l’analyse causale.
effectué sur les éléments améliore ou détériore la qualité de service. L’étape de re-vérification
a pour rôle de re-déterminer uniquement les valeurs de propriétés affectées, en générant une
version outillée du système post-évolution, afin de pouvoir effectuer les analyses, contrôles
et calculs nécessaires à l’architecte de l’évolution pour l’obtention de nouvelles valeurs de
propriétés. Ces valeurs aideront par la suite à savoir si le système, ayant évolué, continue
de respecter ses contrats de qualité de service.
8.3.4.1 Analyses et contrôles ciblés
L’objectif de cette partie est de re-vérifier de manière minimale les valeurs de propriété
indiquées lors de l’analyse causale, afin de dresser un diagnostic qui servira de base à
l’architecte de l’évolution pour prendre une décision quant à l’applicabilité de l’évolution.
Nous expliquons dans un premier temps comment les valeurs de propriétés sont re-vérifiées,
avant de montrer comment de ces valeurs il est possible de poser un premier diagnostic.
Afin de déterminer ces valeurs, le processus de détermination présenté dans le chapitre 7
est ré-utilisé. Nous nous intéressons dans un premier temps à des valeurs de propriétés
élémentaires, i.e., des valeurs de propriétés qui ne peuvent être composées ou déduites
d’un calcul. Ce sont des valeurs déterminées par analyse ou par contrôle de l’application à
l’exécution. La mesure en environnement de test produit un ensemble de données brutes,
caractérisant les parties du système suspectées d’avoir changé pour une propriété donnée.
De ces données, le challenge est de déterminer leur impact à l’échelle du système.
La Figure 8.7 décrit le procédé permettant d’obtenir les instance de PropertyValue.
Partant de la liste des éléments affectés, Smile outille le système à l’aide des analyses et des
contrôleurs décrits dans la description de la propriété considérée, pour obtenir de nouvelles
948.3. Spécification de l’analyse de l’évolution
valeurs. Cette phase est nécessaire pour connaître les nouvelles valeurs de propriétés.
Une fois l’outillage effectué, les analyses et les mesures sont effectuées. Si l’outillage est
automatisé, la phase de mesures reste manuelle, afin de laisser la possibilité à l’architecte de
l’évolution d’exécuter les cas de tests qu’il désire. Le processus de re-vérification consiste à
exécuter plusieurs fois une activité afin de prendre plusieurs échantillons de la même mesure.
Chacune des exécutions du système produit des mesures, caractérisant la valeur de propriété
sur le système évolué. Nous appelons échantillon l’ensemble des mesures effectuées.
Cette phase, partiellement outillée, joue un rôle important dans l’analyse d’une évolution.
Elle quantifie de quelle manière l’évolution a affecté les éléments pointés par l’analyse
causale.
Outillage
Analyses
Mesures en
environnement de
test
Données brutes
Figure 8.7 – Obtention des données brutes.
8.3.4.2 Déduction des métriques
Les mesures produites lors de la phase de test constituent un ensemble de données.
Nous cherchons à caractériser l’évolution, à savoir déterminer si après une évolution, les
PropertyValues sont améliorées ou dégradées. Pour cela, notre approche consiste à comparer
cet ensemble avec les données pré-évolution, afin de pouvoir caractériser, pour une
activité donnée, si l’évolution a amélioré, dégradé ou n’a pas changé la valeur de propriété
d’une activité donnée. Pour effectuer cette comparaison, nous préconisons à l’architecte de
l’évolution de constituer un ensemble de données post-évolution conséquent, afin d’avoir un
échantillon représentatif.
Nous cherchons ici non pas à comparer deux valeurs discrètes (pré-et post évolution),
mais à comparer deux ensembles de données. Pour cela, nous proposons de caractériser
chaque ensemble à l’aide de trois valeurs : le meilleur cas, le pire cas, et la moyenne. Ces
trois valeurs correspondent respectivement au maximum, au minimum et à la moyenne de
l’ensemble, dans le cas où le maximum représente le meilleur cas. Une fois que ces métriques
sont calculées, nous pouvons les comparer avec les mêmes métriques établies pré-évolution
en utilisant l’opérateur de comparaison (comparisonType), disponible dans la description
de la propriété. Si pour une métrique, la valeur a changé, il est nécessaire de reporter ce
changement en continuant de parcourir la chaîne de causalité vers les valeurs de propriété
de dérivation et d’aggrégation.
8.3.4.3 Dérivations et agrégations ciblées
Si pour une métrique donnée, le différentiel pré-post évolution montre un changement,
il est nécessaire de le propager au niveau des valeurs de propriétés dérivées, le cas échéant.
958.4. Résultat de l’analyse et prise de décision
Nous nous plaçons dans le cas où la propriété étudiée rentre dans la détermination d’une
propriété dérivée, comme c’est le cas pour le temps d’exécution qui rentre dans la détermination
du temps de réponse. Pour une activité donnée, si la métrique maximum du temps
de calcul a changé, il est nécessaire de re-calculer la métrique maximum du temps de ré-
ponse pour la même activité. Il s’agit donc ici de limiter le re-calcul des propriétés dérivées
uniquement pour celles dont les sous-propriétés ont changé. À titre d’illustration, le temps
maximal de calcul de l’activité Format de PicWeb a changé. Il est donc nécessaire de
re-calculer le temps maximal de réponse de la même activité.
De manière similaire à la dérivation, l’aggrégation de valeurs de propriétés est influencée
par les valeurs des activités prise en compte dans leurs détermination. Par exemple, pour
une activité structuré S, contenant les activités A, B et C, il est nécessaire de ré-aggréger la
valeur de propriété de S si l’une des valeurs de propriétés de A, B ou C a changé. Pour cela,
en suivant les relations causales depuis les activités contenues, nous provoquons le re-calcul
de la PropertyValue de S.
8.3.5 Discussion
Nous venons de présenter les différentes étapes constituant l’analyse de l’évolution. Ces
étapes permettent de répondre aux enjeux à relever :
– Minimisation de la re-vérification : notre méthode consiste à identifier le sousensemble
du système affecté par l’évolution, et à regrouper l’ensemble des analyses et
contrôles des éléments désignés par l’analyse causale. En ré-exécutant uniquement ces
vérifications, nous minimisons les déploiements. Notre approche réduit donc le nombre
de vérifications à effectuer, comparé à la re-vérification de l’ensemble du système, grâce
à l’identification des éléments impactés par l’analyse causale.
– Qualification de l’évolution : La politique de différentiel entre le système pré
et post-évolution permet d’arrêter les calculs au plus tôt, dès qu’une causalité est
détectée comme étant neutre. De plus, les métriques de maximum, minimum et de
moyennes établies avant et après l’évolution permettent de quantifier la différence
entre les deux versions. Enfin, la chaîne de causalité établie par l’analyse causale
renseigne l’architecte de l’évolution en lui donnant un premier élément de diagnostic,
dans le cas d’une violation de contrat.
8.4 Résultat de l’analyse et prise de décision
Une fois que les nouvelles mesures provenant des contrôleurs ont été récupérées de
l’exécution, l’ensemble des informations nécessaires est disponible pour faire un différentiel
complet entre l’état de la qualité de service avant et après l’évolution. Il est ainsi maintenant
possible de savoir si une évolution a été bénéfique ou néfaste pour une propriété donnée. En
cas de dégradation, la détermination ciblée permet de savoir concrètement quelles sont les
valeurs qui ont changé, permettant de restreindre le champ d’investigation. Mieux encore,
la notion de causalité dans le système permet de poser un premier diagnostic en remontant
la chaîne de conséquences. Nous montrons dans cette section comment les contrats de
qualité de service peuvent être vérifiés pour voir si aucun d’entre eux n’a été violé. Puis,
nous expliquons comment le modèle causal peut aider à déterminer, en cas de dégradation,
l’origine de la dégradation en suivant les relations causales dans le sens inverse. Enfin, nous
présentons l’ultime étape de l’analyse, laissant à l’architecte le choix de déployer la version
évoluée du système, ou de revenir à la version précédente.
968.4. Résultat de l’analyse et prise de décision
Dans cette phase, l’analyse cherche avant tout à caractériser si l’évolution est bénéfique,
neutre, ou néfaste aux propriétés de qualité de service (voir chapitre 7), et de déterminer si
des contrats ont été violés. L’architecte de l’évolution n’aura qu’à prendre connaissance du
diagnostic de l’analyse pour savoir si oui ou non l’évolution peut être appliquée de manière
effective.
8.4.1 Enjeux
L’ultime étape de l’analyse d’évolution fait intervenir l’architecte de l’évolution, afin
qu’il prenne la décision finale de savoir si l’évolution doit effectivement être appliquée, ou
bien si un retour en arrière doit être effectué. C’est une étape lourde de conséquences où il
faut être sûr qu’aucun contrat de qualité de service ne sera violé. Cela entraîne les enjeux
suivants :
– Disponibilité des informations essentielles : afin de pouvoir prendre la décision
d’appliquer ou non l’évolution, l’architecte de l’évolution a besoin de l’ensemble des
informations collectées tout au long de l’analyse. Nous devons déterminer quelles
informations sont nécessaires afin de l’accompagner dans la phase de diagnostic.
– Retour en arrière : Au delà de l’annulation de l’évolution sur le modèle de données
et sur le modèle causal, nous devons également nous assurer que la suite du processus,
à savoir la conception d’une nouvelle évolution, sera accompagnée du diagnostic de
l’itération précédente. Cet élément semble essentiel pour éviter de réaliser les mêmes
erreurs lors de la conception de la nouvelle évolution.
8.4.2 Vérification des contrats
Afin de garantir le maintien de la qualité de service au fil des évolutions, l’architecte de
l’évolution doit s’assurer que les contrats de QoS sont toujours respectés. La détermination
des trois métriques à l’échelle du système (effectuée lors de l’étape précédente) permet
d’avoir un aperçu de l’état du système pour une propriété donnée. Partant de ces valeurs,
il est maintenant possible de se positionner selon les contrats pré-établis. Nous pouvons
classer le résultat de la comparaison en quatre catégories :
– Meilleur : la moyenne, le maximum et le minimum définis post-évolution sont chacun
meilleur que les mêmes métriques pré-évolution.
– Pire : la moyenne, le maximum et le minimum définis post-évolution sont chacun
moins bons que les mêmes métriques pré-évolution.
– Neutre : les valeurs des métriques pré et post-évolution sont identiques.
– Différents : cas particuliers pour lesquels une règle générale n’est pas applicable
pour chacune des métriques.
Pour chacune des quatre catégories, le comportement de l’architecte vis-à-vis de l’évolution
sera différent : dans le cas où l’évolution est établie comme étant meilleure, ou neutre,
dans l’hypothèse où le contrat de qualité de service était respecté auparavant, nous pouvons
dire que le maintien de la qualité de service est garanti pour cette évolution. En effet, si la
qualité de service pour une propriété donnée n’a pas changé ou s’est améliorée, le contrat
continue d’être respecté. Dans la situation où la valeur de propriété pour le système est
pire, il est nécessaire de comparer pour savoir si les conditions du contrat continuent d’être
respectées ou non. Finalement, dans la situation où la valeur de propriété est différente, il
est nécessaire de vérifier au cas par cas si les contrats sont toujours respectés, et d’isoler les
cas où une violation est détectée.
978.4. Résultat de l’analyse et prise de décision
Application à PicWeb
Dans le cas de PicWeb, le contrat établi pour la propriété du temps de réponse ne
caractérise que le pire temps. La Figure 8.8 est une partie de notre modèle représentant
ce contrat. Ici, le processus métier ne doit pas voir son temps d’exécution dépasser les cinq
secondes. Ici, en comparant la nouvelle valeur de propriété de PicWeb avec la valeur de
contrat, nous pouvons nous rendre compte que le contrat a été violé.
name="ResponseTime"
comparator=LowerIsBetter
:Property
type = "Worst"
value = "5000"
:Contract
value = 9217
VersionNumber=2
:PropertyValue
name = PicWeb
:Process
Figure 8.8 – Contrat de QoS qualifiant le temps de réponse de PicWeb.
8.4.3 Détermination des causes racines
De prime abord, si la cause d’une dégradation est bien évidemment l’évolution, il est
plus complexe de savoir exactement pourquoi un contrat a été violé. En effet, l’évolution
est constituée de plusieurs opérations. Restreindre la cause de la dégradation à une seule
opération permettrait de faciliter le diagnostic. Notre approche permet toutefois à l’architecte
de l’évolution d’obtenir plus d’informations : la violation d’un contrat est détectée
sur une valeur de propriété, qui a été déclarée par l’analyse causale comme étant modi-
fiée : cette PropertyValue a été détectée au cours du parcours du modèle causal comme
étant potentiellement affectée. Il existe donc une chaîne de causalité reliant un des nœuds
de l’évolution à la PropertyValue. La chaîne de causalité explique comment d’un nœud de
l’évolution, différentes causalités ont été établies pour mener à la violation d’un contrat par
la PropertyValue. Cette information est une aide pour l’architecte de l’évolution, dans son
investigation visant à comprendre pourquoi un contrat a été violé. Par la chaîne causale,
nous aidons l’architecte à poser un premier diagnostic.
Nous proposons dans Smile une méthode permettant de réduire par comparaison de valeurs
les causes possibles. Pour cela, notre approche consiste à démarrer de la PropertyValue
correspondant au contrat violé, et de remonter successivement les relations causales ayant
servi à construire l’ensemble des éléments affectés. Pour chaque PropertyValue rencontrée,
deux cas sont à envisager :
– la PropertyValue qualifie un élément du système existant dans la version
précédente : dans ce cas là, il est possible de comparer la valeur actuelle avec la
valeur déterminée avant que l’évolution soit appliquée. Si la valeur s’est dégradée
après l’évolution, il s’agit de la considérer comme une cause possible. Dans le cas
contraire, nous pouvons l’exclure de l’ensemble des causes racines, ainsi que toutes les
propertyValues l’ayant influencée.
– la PropertyValue qualifie un élément du système créé par l’évolution : dans
cette situation, il n’est pas possible de se comparer avec une valeur précédente. Smile
considère donc cette valeur comme une cause potentielle.
Application à PicWeb
Afin de déterminer la cause de la violation du contrat de PicWeb, appliquons notre
approche au modèle causal établi. La Figure 8.9 représente le parcours inverse de notre
988.4. Résultat de l’analyse et prise de décision
modèle causal. Nous pouvons ici distinguer quatre cas :
– Cas 1 : lorsque l’analyse de causes racines traite la PropertyValue liée à la séquence,
la comparaison avec la version précédente montre que la QoS s’est détériorée. En
conséquence, l’analyse se poursuit en suivant en sens inverse les relations causales
d’agrégation.
– Cas 2 : ici, la PropertyValue liée à l’activité structurante flow a été créée par l’évolution.
En conséquence, aucune comparaison n’est possible. L’analyse identifie cet
élément comme étant une cause potentielle, et poursuit son analyse en suivant la
relation causale d’agrégation vers le temps de réponse de l’activité Flickr.
– Cas 3 : lorsque l’analyse traite la PropertyValue de Shuffle, la comparaison détecte
une dégradation du temps de calcul. De plus, cet élément est la dernière PropertyValue
avant de raisonner du point de vue du fonctionnement du système. Celle-ci est
identifiée comme étant une cause racine.
– Cas 4 : au niveau de l’activité reply, la comparaison des PropertyValues pour le temps
de réponse montre qu’il n’y a pas de dégradation une fois l’évolution appliquée. En
conséquence, l’élément n’est pas identifié comme une cause racine de la violation du
contrat.
Au final, le modèle causal de PicWeb est constitué de vingt et une PropertyValues qui,
dans une hypothèse pessimiste, auraient toutes dues être re-vérifiées. La méthode que nous
avons employée re-vérifie quinze PropertyValues, et désigne neuf potentielles causes racines
réparties sur trois branches.
8.4.4 Déploiement et retour en arrière (roll-back)
Dans le cas précis où aucun contrat n’a été violé et que l’architecte de l’évolution est
satisfait, l’évolution est intégrée à part entière dans le système. Celui-ci est déployé dans
les différents serveurs de production. Toutefois, si l’évolution ne convient pas à l’architecte,
il est nécessaire de déclencher un retour en arrière. Le modèle du système, le modèle de
données des valeurs de propriétés, mais également le modèle causal doivent être restaurés
à l’état pré-évolution. Notre politique de sauvegarde des modèles avant l’analyse permet à
Smile de restaurer facilement l’état du système, comme si rien ne s’était passé. L’architecte
de l’évolution peut alors définir une nouvelle évolution, en utilisant les informations fournies
sur le diagnostic pour éviter de commettre la même erreur.
Application à PicWeb
Suite à la détection de la violation du contrat, l’architecte de l’évolution prend en compte
les causes racines de cette violation. Il conçoit alors une nouvelle évolution après avoir
effectué un roll-back de PicWeb, évolution pour laquelle l’implémentation de shuffle fut
modifier de sorte à ce que le traitement soit parallélisé. Au final, la nouvelle évolution ne
violant plus de contrat, elle put être appliqué au système déployé.
8.4.5 Discussion
Nous venons de présenter l’interaction finale entre l’architecte de l’évolution et Smile
pour prendre la décision de l’applicabilité de l’évolution. Cette interaction s’est soldée par
les challenges suivants :
998.4. Résultat de l’analyse et prise de décision
Variable
Pics
Variable
PicsF
Invoke
Shuffle Reply
in
in
out
name="ResponseTime"
comparator=LowerIsBetter
:Property
values
name="ComputationTime"
comparator=LowerIsBetter
:Property
values
der der
env
env
Sequence
agr
agr
Légende:
Relation Causale de paramètre d'entrée in
Relation Causale de paramètre de sortie out
env Relation Causale d'environnement
der Relation Causale de dérivation
Relation Causale d'agrégation agr
Cas de l'analyse de causes racines
value = 9217
VersionNumber=2
:PropertyValue
Process PicWeb
agr
value = 19217
VersionNumber=2
:PropertyValue
value = 4123
VersionNumber=1
:PropertyValue
value = 2143
VersionNumber=1
:PropertyValue value = 12
VersionNumber=1
:PropertyValue
value = 12
VersionNumber=1
:PropertyValue
value = 1585
VersionNumber=1
:PropertyValue
value = 12
VersionNumber=2
:PropertyValue
value = 13491
VersionNumber=2
:PropertyValue
value = 12858
VersionNumber=2
:PropertyValue
value = 12
VersionNumber=2
:PropertyValue
Invoke
Flickr
Invoke
Join
Variable
PicsFlickr
Variable
PicsPicasa
out
in
in
out
value = 286
VersionNumber=2
:PropertyValue
value = 2109
VersionNumber=2
:PropertyValue
der
value = 286
VersionNumber=2
:PropertyValue
value = 2615
VersionNumber=2
:PropertyValue
Flow value = 3154
VersionNumber=2
:PropertyValue
agr
der
agr
agr
Cas 1
Cas 2
Cas 3
Cas 4
Relation Causale suivi lors de l'analyse
de causes racines
Figure 8.9 – Détermination des causes racines de la violation du contrat de PicWeb.
– Disponibilité des informations essentielles : l’architecte de l’évolution est guidé
dans sa prise de décision par les informations fournies par Smile, à savoir la chaîne
de causalité incriminée, et le différentiel des PropertyValues. En prenant connaissance
de la chaîne de causalité et à l’aide des différentiels entre les métriques pré et post-
évolution, l’architecte de l’évolution possède les premiers éléments de réponse quant
à une possible violation de contrat. Si ces informations ont besoin d’être interprétées
par un humain, la mise en évidence d’un sous-ensemble du système responsable de
la violation, et la synthèse des données de contrôle en métriques permet toutefois à
l’architecte de comprendre de manière plus aisée les effets de l’évolution sur la QoS
que s’il avait du analyser manuellement l’ensemble des données de contrôle du système
dans sa globalité.
– Retour en arrière : en proposant la possibilité de rétablir l’état du système tel
1008.5. Conclusion du chapitre
qu’il était avant l’évolution, Smile assure la cohésion du système à chaque instant
du cycle de vie, et permet ainsi à l’architecte de l’évolution de tester facilement des
possibilités d’évolution pour satisfaire les nouveaux besoins de l’utilisateur.
8.5 Conclusion du chapitre
Ce chapitre a couvert l’ensemble des étapes pour analyser les effets d’une évolution
sur la qualité de service d’un système à base de processus métiers. Constitué d’un langage
d’évolution, d’un analyse et d’une étape de prise de décision, l’analyse a de nombreuses
propriétés. Parmi elles, nous mettons en avant le caractère d’automatisation de l’approche,
où la construction du modèle causal et le déploiement d’une version de test pour effectuer des
mesures sont totalement automatisés. Notre approche est également remarquable en terme
de réduction du nombre de vérification à effectuer : en réduisant le nombre d’éléments
du système à re-vérifier, nous améliorons les performances de la phase de vérification, et
facilitons le diagnostic avec une quantité de données inférieure à traiter. Enfin, grâce à ces
données, nous mettons à disposition de l’architecte de l’évolution une trace de violation
de contrats permettant de le guider dans son diagnostic en cas de violation.
Toutefois, nous pouvons également identifier un certain nombre de limitations à notre
approche. L’analyse de l’évolution est un procédé non-concurrent. En effet, nous avons
émis l’hypothèse simplificatrice qu’une seule évolution était appliquée à la fois. Toutefois,
dans un éco-système où le système développé est de plus en plus grand, il n’est pas déraisonnable
de penser que plusieurs équipes travaillent en parallèle, et peuvent être amenées
à faire évoluer le système en même temps. Il faudrait alors pouvoir déterminer des zones
d’évolution, afin d’être en mesure de limiter l’aspect séquentiel à cette seule zone. Ainsi,
deux évolutions n’opérant pas sur la même partie du système pourraient s’opérer en concurrence.
C’est un défi à résoudre dans le futur. De plus, notre approche repose en grande partie
sur l’établissement et la mise à jour du modèle causal. Nous avons vu dans les chapitres
précédents comment établir le modèle causal. Notre approche considère que le modèle est
consistant et exhaustif en termes de relations causales, si l’on considère uniquement celles
que nous avons défini. Toutefois, si d’autres relations causales venaient à être déterminées,
il s’agirait alors de les intégrer dans notre module d’évolution.
Dans le but d’améliorer notre approche, nous préconisons de réfléchir aux possibilités
d’évolution concurrentes du système. Une piste supplémentaire serait d’améliorer la fiabilité
des relations causales. En effet, notamment au niveau de l’influence des ressources, peu
d’informations sont fournies par l’expert en QoS. Il serait intéressant de renforcer la description
des propriétés pour obtenir des relations causales plus précises. Enfin, de la phase
d’analyse, nous pensons que davantage d’informations pourraient être fournies à l’architecte
en cas de violations dans l’optique de l’aider à diagnostiquer les causes d’une violation de
contrat.
101Troisième partie
ValidationChapitre 9
Mise en œuvre et utilisation de
Smile
Sommaire
9.1 Réalisation de Smile . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.1.1 Présentation du canevas . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.1.2 Besoins des utilisateurs de Smile . . . . . . . . . . . . . . . . . . . . 106
9.1.3 Architecture de Smile . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.2 Smile pour la description du système . . . . . . . . . . . . . . . . 109
9.2.1 Import de système . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9.2.2 Description des règles causales . . . . . . . . . . . . . . . . . . . . . 111
9.3 Smile pour la qualité de service . . . . . . . . . . . . . . . . . . . 113
9.3.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
9.3.2 Description d’une propriété . . . . . . . . . . . . . . . . . . . . . . . 113
9.3.3 Gestion des règles causales de propriété . . . . . . . . . . . . . . . . 114
9.3.4 Collecte des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
9.3.5 Description d’un contrat . . . . . . . . . . . . . . . . . . . . . . . . . 116
9.4 Smile pour l’évolution . . . . . . . . . . . . . . . . . . . . . . . . . 117
9.4.1 Description d’une évolution . . . . . . . . . . . . . . . . . . . . . . . 117
9.4.2 Analyse causale de l’évolution . . . . . . . . . . . . . . . . . . . . . . 118
9.4.3 Contrôle à l’exécution . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.5 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.6 Conclusion du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . 120
C
e chapitre présente la réalisation du canevas Smile, conçu pour mettre en pratique
les différentes contributions de la thèse. L’implémentation du canevas 1 propose
les outils nécessaires aux différents acteurs de l’équipe de développement pour réaliser les
tâches nécessaires à une évolution contrôlée. Notamment, les langages de description de
propriétés de qualité de service et d’évolution sont pris en charge, de même que l’analyse
causale de l’évolution. Nous détaillons dans ce chapitre les différents choix technologiques,
et présentons les fonctionnalités de Smile pour chacun des acteurs identifiés.
9.1 Réalisation de Smile
Dans cette section, nous présentons l’architecture de Smile. Après avoir introduit le
contexte du canevas, nous énumérons les besoins des différents utilisateurs, avant de pré-
senter l’architecture de Smile et son découpage en plug-ins.
1. disponible à l’adresse https://github.com/smileFramework/SMILE9.1. Réalisation de Smile
9.1.1 Présentation du canevas
Le canevas Smile a été conçu dans le but de fournir les outils nécessaires aux différents
acteurs de l’équipe de développement, pour suivre la méthodologie Blink. Nous avons cherché
à implémenter Smile de façon modulaire, afin de faciliter sa maintenance, et de façon
extensible, afin de pouvoir faire évoluer les fonctionnalités présentes. Pour cela, nous avons
fait le choix d’étendre une plate-forme existante, Eclipse 2
. Eclipse est un environnement de
développement intégré, dont la réalisation a débuté par IBM en 2001. Gérant de nombreux
langages de programmation tels que Java ou C++, Eclipse est doté d’un environnement
de conception de modèles ainsi que de différents outils propres aux architectures orientées
services, tel qu’un éditeur BPEL ou un outil de description d’interfaces WSDL pour les
web services. La plate-forme repose sur une construction par plug-ins, rendant possible son
extension. Pour toutes ces raisons, Eclipse est devenu un standard de facto, faisant d’elle
la plate-forme à notre connaissance la plus adaptée pour le développement de Smile.
9.1.2 Besoins des utilisateurs de Smile
Le processus de développement Blink et sa réalisation via Smile ont été pensés pour
mettre au centre des préoccupations les trois profils d’acteurs, à savoir (i) l’expert en
qualité de service, (ii) l’architecte du système et (iii) l’architecte de l’évolution. Chacun de
ces profils ont des besoins spécifiques, besoins devant être satisfaits par une fonctionnalité
de Smile. La Figure 9.1 est un diagramme de cas d’utilisation écrit selon le formalisme
d’UML. Ce diagramme représente les différents besoins de chaque acteur :
– L’architecte du système a pour tâche d’importer ou de modéliser un système, et de
déclencher les analyses de QoS du système, afin de vérifier si les contrats sont respectés
(voir chapitre 6). Cela pré-requiert que les contrats et les propriétés de QoS aient été
préalablement définis par l’expert en QoS. La section 9.2 présente le support de Smile
pour l’architecte du système.
– L’expert en QoS a pour tâche de gérer la QoS du système. Il doit donc pouvoir
modéliser une propriété caractérisant le système, définir des contrats de qualité de
service pour le système donné et associer les outils de vérification correspondants
(comme décrit dans le chapitre 7). Nous verrons dans la section 9.3 les outils fournis
par Smile pour réaliser ces tâches.
– L’architecte de l’évolution doit pouvoir définir une évolution en réponse à de nouveaux
besoins, analyser les effets de cette évolution sur la qualité de service du système,
et vérifier si les contrats sont toujours respectés une fois l’évolution appliquée (voir
chapitre 8). La description des fonctionnalités de Smile pour réaliser ses tâches est
consignée dans la section 9.4.
Nous présentons par la suite l’architecture de Smile, avant de voir comment les besoins
des utilisateurs sont réalisés par Smile.
9.1.3 Architecture de Smile
Afin de pouvoir faciliter la maintenance et l’évolution du canevas, nous avons pensé
notre canevas comme un ensemble de modules, réalisés sous formes de plug-ins dans la
plate-forme Eclipse. La Figure 9.2 représente l’architecture de notre canevas, constitué de
plusieurs modules dont leur description est consignée dans le tableau Table 9.1.
2. http://www.eclipse.org/
1069.1. Réalisation de Smile
Expert
QoS
Architecte
Système
Architecte
Évolution
Modéliser une
propriété
Définir le contrat
d'une
propriété
Importer un système
Analyser la QoS d'un
système
Définir une évolution
Analyser une
évolution
Vérifier le respect des
contrats de QoS
Voir chapitre 7 -
Modélisation d'un système
à base de processus
métiers
Voir chapitre 8 -
Modélisation de la qualité
de service pour l'évolution
Voir chapitre 9 - Analyse de
l'évolution du logiciel
orientée QoS
Modéliser un
système
Figure 9.1 – Diagramme des cas d’utilisation de Smile.
Le processus de développement Blink suit les principes des architectures dirigées par
les modèles [OMG 2003]. En se basant sur le concept de développement par raffinements
successifs, notre processus a été pensé comme une succession d’étapes où chacune a pour
tâche d’enrichir le modèle. De façon similaire, l’implémentation de Smile suit la logique de
Blink, en présentant le système comme un modèle centralisé, enrichi successivement par
les différents acteurs de l’équipe de développement. Pour cela, l’implémentation du canevas
repose sur des outils mettant en œuvre l’ingénierie dirigée par les modèles, notamment la
librairie Eclipse Modeling Framework (EMF) [Steinberg 2008]. EMF est une bibliothèque
qui permet, en partant d’une description d’un méta-modèle, de générer les classes java
correspondant à son implémentation. La bibliothèque gère notamment le chargement et
l’enregistrement de modèles, et permet de fusionner plusieurs modèles entre eux.
La Figure 9.3 est une représentation schématique du flot de données de Smile par
rapport aux différents utilisateurs. Chacun des trois profils interagit avec le canevas, pour
enrichir le modèle de l’application développé avec leurs connaissances propres. L’expert en
1079.1. Réalisation de Smile
SmileCore
SmileGUI
SmileImporter
SmileCausalModel
Handler
SmileEvolution
Engine
SmileQoSHandler
SmileDeployer
SmileEvolution
Analysis
A B
Légende:
Le plug-in A a une dépendance au plug-in B
Figure 9.2 – Architecture de Smile.
Module Description Lignes
écrites
Lignes
générées
SmileCore plug-in central, orchestrant l’interaction entre
les différents plug-ins
6853 0
SmileGUI gère l’interface graphique du canevas 1355 0
SmileImporter gère l’import des processus métiers écrits en
BPEL et des fichiers Composite, en les transposant
dans le formalisme de Smile
731 0
SmileQoSHandler gère l’infrastructure liée aux propriétés de qualité
de service : description de propriétés et de
contrats, déduction des règles causales
537 2808
SmileCausalModelHandler gère la synchronisation entre le système et le
modèle causal
258 732
SmileEvolutionEngine applique les opérations d’évolution sur le système
étudié
837 0
SmileEvolutionAnalysis analyse les effets de l’évolution sur le système
étudié en s’appuyant sur le modèle causal
1162 0
SmileDeployer gère le déploiement du système sur le serveur
de test ou sur le serveur de production
291 0
Table 9.1 – Description des fonctionnalités par module.
QoS écrit la description d’une propriété, qui est utilisé par le plug-in SmileQoSHandler
pour produire les règles causales permettant de construire le modèle causal. L’architecte du
système utilise le plug-in SmileImporter pour produire un modèle du système conforme à
notre méta-modèle. Ce modèle est alors transformé par le plug-in SmileCausalModelHandler
pour produire le modèle causal du système en utilisant les règles causales obtenues précé-
demment. Enfin, l’architecte de l’évolution décrit une évolution, qui est appliquée sur le
système importé par le plug-in SmileEvolutionEngine. Cette même description de l’évolution
est enfin analysée par le plug-in SmileEvolutionAnalysis : en s’appuyant sur le modèle
causal du système, le plug-in réalise l’analyse causale de l’évolution, pour produire un rap-
1089.2. Smile pour la description du système
port d’analyse contenant les informations sur le maintien de la QoS, à savoir quel contrat
a été violé, et quelles causes racines ont engendré cette violation.
Expert QoS Architecte du
Système Architecte de
l'Évolution
Description de
Propriété
Règle Causale
Système
Modèle Causal
du Système