Bechara NEHME : Augmentation de la durée de vie des Panneaux Photovoltaïques par surveillance et contrôle
Le vendredi 27 mai 2016 à 10h00 - Saint Jérôme au LSIS - Salle Gérard Jaume
Sous la direction de : M. NACER M'SIRDI,Mme TILDA AKIKI, M. AZIZ NAAMANE
Conversion efficiency of solar cells is now on average reaching 15%. Despite these acceptable yields, it remains important to raise a technological limitation: the improvement of the life span of photovoltaic modules. Effects are observed during the use of these components in intermittent weather: rain, snow, molds, dust UV rays, shock, corrosion etc... rapid losses of optoelectronic properties depending on the usage conditions. The objective of this thesis is in twofold: -to try to improve the lifespan of solar panels, and -to improve the reliability of the photovoltaic modules by decreasing their degradation rate.

Our approach begins by taking into account the effects of aging of photovoltaic modules whose degradation is related to temperature, moisture, Ultra violet light, cracks etc... Faults are analyzed and studied to understand the impact and the importance of each parameter in the different modes of degradation to develop simulation models that take into account external environmental conditions. Control algorithms have been developed for a best utilization avoiding defects and allowing photovoltaic modules to operate in optimal conditions for mitigation of degradation processes.

Ses publications : ici
Raida KTARI : Changement de croyances dans des fragments de la logique propositionnelle
Le vendredi 27 mai 2016 à 10h00 - Anphi 6 à l'Ecole Nationale d'Ingénieurs de Sfax (Sfax, Tunisie)
Sous la direction de : Pr. Nadia CREIGNOU et Pr. Odile PAPINI
Cette thèse s'inscrit dans le domaine de la représentation des connaissances et du raisonnement en Intelligence Artificielle. Elle traite divers aspects du changement de croyances dans le cadre de fragments de la logique propositionnelle.
Dans un premier temps, nous nous intéressons à la complexité du problème de vérification de modèle pour des opérateurs de révision de bases de croyances dans le cadre général de la logique propositionnelle et dans le cadre restreint des formules de Horn et des formules de Krom.
Notre contribution principale porte ensuite sur le raffinement des opérateurs de changement de croyances afin que ceux-ci opèrent dans des fragments de la logique propositionnelle.
Nous examinons en particulier les opérations de révision, de mise-à-jour et de contraction. Cette approche permet, dans chacun des cas, d'obtenir des opérateurs concrets, dont nous étudions les propriétés logiques en terme de de satisfaction de postulats que doivent satisfaire les opérateurs de changement de croyance rationnels. Divers fragments de la logique propositionnelle sont considérés, notamment les fragment de Horn et de Krom.

Mots-clès : représentation des croyances en intelligence artificielle, révision des croyances,
mise-à-jour, contraction, fragments propositionnels, Horn, Krom, complexité algorithmique.

Ses publications : ici
Matthieu TOURON : Approche énergétique pour la représentation, la structuration et la synthèse des Systèmes d’Assistance à Opérateur : Application aux chaînes de commande de vol d’hélicoptère
Le mercredi 23 mars 2016 à 10h00 - Amphi 1 sur le Campus d’Aix-en-Provence
Sous la direction de : M. Pierre-Jean BARRE, Professeur des Universités, Arts et Métiers ParisTech, Aix en Provence
Un aéronef à voilure tournante est un système physique dynamique complexe. Le développement de ce type de système nécessite méthodes d’analyse (structurelle et comportementale) et de commande afin de maîtriser ses comportements. L’approche énergétique (bond graph et formalisme hamiltonien à port) permet une représentation multi-physique non linéaire, modulaire (acausale) et à différents niveaux de granularité. Parmi ses organes, les commandes de vol de l’aéronef permettent la transmission du pilotage aux rotors : canaliser la puissance motrice (2 MW) à partir d’une commande manuelle est impossible sans organes actifs d’assistance. Afin de représenter les cheminements et traitements des informations nécessaires aux organes actifs, la représentation multi-physique est complétée par une représentation informationnelle causale (schéma bloc).
Les travaux exposés dans ce mémoire visent à ajouter le niveau de granularité intermédiaire et nécessaire entre la représentation multi-physique pure et une représentation combinée physique et informationnelle. Basée sur la démarche du PMBC (Physical Model Based Control), ils proposent une méthode originale permettant de représenter les organes d’assistance et leur commande par un modèle physique équivalent. La méthode est ici enrichie dans une démarche de conception des Systèmes d’Assistance à Opérateur : nous déterminons où doivent agir les organes actifs, selon quelles mesures et suivant quelles lois de commande. La méthode est illustrée sur un cas d’étude industriel : nous obtenons deux représentations de l’espace des solutions (les représentations physico-informationnelle détaillée et globale de son comportement) incluant la solution industrielle actuelle.


Mots clés :

Comportement, Hamiltonien, Multi-physique, Non linéaire, Représentation graphique multi-niveau, Assistance, Transparence, Conception, Synthèse, Hélicoptère.

Ses publications : ici
Marina BRUNEAU : Reverse Engineering d’assemblages mécaniques à partir de données hétérogènes
Le mardi 22 mars 2016 à 10h00 - ENSAM
Sous la direction de : ROUCOULES Lionel / DURUPT Alexandre

Ses publications : ici
Omar CHERRAK : Séparation aveugle de mélanges linéaires de sources : application à la surveillance maritime
Le samedi 19 mars 2016 à 10h00 - salle des conférences de la Faculté des Sciences et Techniques (FST), Université Sidi Mohamed Ben Abdellah de Fès-Maroc.
Sous la direction de : Nadège Thirion-Moreau Professeur à SeaTech - Université de Toulon
Dans cette thèse, nous nous intéressons au système d’identification automatique spatial lequel est dédié à la surveillance maritime par satellite. Ce système couvre une zone bien plus large que le système standard à terre correspondant à plusieurs cellules traditionnelles ce qui peut
entraîner des risques de collision des données envoyées par des navires localisés dans des cellules différentes et reçues au niveau de l’antenne du satellite. Nous présentons différentes approches afin de répondre au problème de collision considéré. Elles ne reposent pas toujours sur les mêmes hypothèses en ce qui concerne les signaux reçus, et ne s’appliquent donc pas toutes dans les mêmes contextes (nombre de capteurs utilisés, mode semi-supervisé avec utilisation de trames d’apprentissage et information a priori ou mode aveugle, problèmes liés à la synchronisation des signaux, etc...).
Dans un premier temps, nous proposons des méthodes permettant la séparation/dé-collision des messages en modèle surdéterminé (plus de capteurs que de messages). Elles sont fondées sur des algorithmes de décompositions matricielles conjointes combinés à des détecteurs de points temps-fréquence (retard-fréquence Doppler) particuliers permettant la construction d’ensembles de matrices devant être (bloc) ou zéro (bloc) diagonalisées conjointement. En ce qui concerne les algorithmes de décompositions matricielles conjointes, nous proposons quatre nouveaux algorithmes de bloc diagonalisation conjointe (de même que leur version à pas optimal) fondés respectivement sur des algorithmes d’optimisation de type gradient conjugué, gradient conjugué pré-conditionné, Levenberg-Marquardt et Quasi-Newton. Le calcul exact du gradient matriciel complexe et des matrices Hessiennes complexes est mené. Nous introduisons également un nouveau problème dénommé zéro-bloc diagonalisation conjointe non-unitaire lequel généralise le problème désormais classique de la zéro-diagonalisation conjointe non-unitaire. Il implique le
choix d’une fonction de coût adaptée et à nouveau le calcul de quantités telles que gradient matriciel complexe et les matrices Hessiennes complexes. Nous proposons ensuite trois nouveaux algorithmes à pas optimal fondés sur des algorithmes d’optimisation de type gradient conjugué, gradient conjugué pré-conditionné et Levenberg-Marquardt.
Finalement, nous terminons par des approches à base de techniques de détection multi-utilisateurs conjointe susceptibles de fonctionner en contexte sous-déterminé dans lequel nous ne disposons plus que d’un seul capteur recevant simultanément plusieurs signaux sources. Nous commençons par développer une première approche par déflation consistant à supprimer successivement les interférences. Nous proposons ensuite un deuxième mode opératoire fondé quant à lui sur l’estimateur du maximum de vraisemblance conjoint qui est une variante de l’algorithme de VITERBI.

Mots-clés : Système d’identification automatique spatial, surveillance maritime, (dé)-collision, décompositions matricielles conjointes, algorithmes de bloc & zéro-bloc diagonalisation conjointe, séparation aveugle de sources, détection automatique, spectres et distributions spatiaux (spatiales) bilinéaires et quadratiques, représentation temps-fréquence, détection multi-utilisateurs conjointe, détection par suppression successive des interférences, estimateur de séquence à maximum de vraisemblance conjoint.

----------------

Abstract:

This PHD thesis concerns the spatial automatic identification system dedicated to marine surveillance by satellite. This system covers a larger area than the traditional system corresponding to several satellite cells. In such a system, there are risks of collision of the messages sent by vessels located in different cells and received at the antenna of the same satellite. We present different approaches to address the considered problem. They are not always based on the same assumptions regarding the received signals and are not all applied in the same contexts (they depend on the number of used sensors, semi-supervised mode with use of training sequences and a priori information versus blind mode, problems with synchronization of signals, etc.).
Firstly, we develop several approaches for the source separation/de-collision in the over determined case (more sensors than messages) using joint matrix decomposition algorithms combined with detectors of particular time-frequency (delay-Doppler frequency) points to build matrix sets to be joint (block) or zero (block) diagonalized. Concerning joint matrix decomposition algorithms, four new joint block-diagonalization algorithms (with optimal step-size) are introduced based respectively on conjugate gradient, preconditioned conjugate gradient, Levenberg-Marquardt and Quasi-Newton optimization schemes. Secondly, a new problem called non-unitary joint zero-block diagonalization is introduced. It encompasses the classical joint zero diagonalization problem. It involves the choice of a well-chosen cost function and the calculation of quantities such as the complex gradient matrix and the complex Hessian matrices. We have therefore proposed three new algorithms (and their optimal step-size version) based respectively on conjugate gradient, preconditioned conjugate gradient and Levenberg-Marquardt optimization schemes.
Finally, we suggest other approaches based on multi-user joint detection techniques in an underdetermined context where we have only one sensor receiving simultaneously several signals. First, we have developed an approach by deflation based on a successive interferences cancelation technique. Then, we have proposed a second method based on the joint maximum likelihood sequence estimator which is a variant of the VITERBI algorithm.


Keywords: spatial automatic identification system, marine surveillance, decollision (avoidance), joint matrix decompositions, joint block & zero-bloc diagonalization algorithms, blind source separation, automatic detection, spatial bilinear and quadratic time-frequency spectra and distributions, time-frequency representations, joint multi-user detection, successive interference cancelation detection, joint maximum likelihood sequence estimator.

Ses publications : ici
Hoang-ha NGUYEN : Reconstruction de réseaux routiers realistes à partir de données SIG
Le vendredi 18 mars 2016 à 10h15 - amphi « Charve » à Saint Charles
Sous la direction de : Marc DANIEL - Brett DESBENOIT

La reconstruction de routes est un sujet important dans le domaine de la modélisation 3D. Récemment, le développement régulier de nombreuses applications nécessitant une grande précision a suscité une forte demande pour des modèles routiers réalistes, tenant compte des contraintes de conception de route issues du génie civil. Nous proposons dans cette thèse des méthodes pour construire des modèles de réseaux routiers réalistes à partir de données SIG.

Tout d'abord, les problèmes de la reconstruction d'un simple axe de route à partir d'une polyligne sont étudiés. Nous présentons un modèle de courbe par morceaux $G^1$ qui est non seulement fidèle à l'axe de la route réelle mais aussi pratique et pas onéreux à obtenir.
Notre algorithme Least Square Growing crée, comme dans le génie civil, une courbe horizontale et une courbe verticale, puis les combine pour produire un axe routier 3D approchant la polyligne.
Traiter individuellement des polylignes conduit à des discontinuités aux intersections des routes. C’est pourquoi nous introduisons une procédure pour détecter les relations entre les routes, afin de proposer un processus global pour reconstruire tous les axes routiers avec prenant en compte les nouvelles contraintes sur les extrémités des routes.

Enfin, sur la base de l'axe de la route et les propriétés résultant de la route dans la base de données SIG, nous définissons un modèle mathématique de la surface de la route en respectant les contraintes essentielles de surfaces routières réelles. Pour produire une géométrie représentant la surface de la route finale, nous construisons un maillage grossier de la carte d'élévation du terrain d'entrée, que nous subdivisons adaptativement le long de l'axe de la route, puis ajustons l'altitude des sommets concernés à la valeur définie par le modèle mathématique de la route afin de parvenir à une correspondance correcte entre le terrain et la vraie route

Ses publications : ici
Thi bich lien NGUYEN : Approche statistique pour le pronostic de défaillance : Application à l'industrie du semi-conducteur​
Le vendredi 04 mars 2016 à 10h00 - Salle de conférences Gérard JAUMES​ - Polytech​
Sous la direction de : OULADSINE Mustapha
Ce travail de thèse concerne le développement d'une méthode de pronostic de défaillance des systèmes de production en série. Une méthode de génération d'un indice de santé brut à partir d'un tenseur de données, appelée Méthode des Points Significatifs a été développée puis validée sur un exemple d'illustration. L'indice généré est ensuite traité par une nouvelle méthode appelée méthode des percentiles, qui permet de générer des profils monotones à partir d'un indice de santé brut. Les profils générés sont ensuite modélisés par un processus Gamma, et la fonction de densité de probabilité agrégée introduite dans ce travail a permis d'estimer le temps de vie résiduel (Remaining Useful Life (RUL)) dans un intervalle de confiance qui assure une marge de sécurité à l'utilisateur industriel. La méthode proposée est appliquée avec succès sur des données expérimentales issues des équipements de production industriel.

Ses publications : ici
Hassan MOUSSA-NAHIM : Contribution à la modélisation et à la prédiction de défaillances sur les Diesel marins
Le lundi 22 fevrier 2016 à 14h00 - Salle de conférences Gérard JAUMES​ - Polytech​
Sous la direction de : M. Mustapha Ouladsine, Professeur, Université Aix Marseille
Ce travail présente un modèle orienté envers le développement d’un simulateur pour le moteur diesel marin. Dans le but d’avoir un simulateur qui répond aux besoins du moteur étudié au niveau de l’efficacité, la rapidité et la prise en considération des défauts, le modèle étudié est basé sur des modélisations physiques, semi physique, empirique, mathématique et thermodynamique. Le modèle du moteur est divisé en plusieurs sous-modèles dont chacun présente un système réel. Ces systèmes sont : le refroidissement, la lubrification, l’admission de l’air, l’injection, la combustion et les émissions. Les sous-modèles et les caractéristiques dynamiques de chaque bloc sont conçus en respectant les équations principales du fonctionnement du moteur ainsi que les données expérimentales collectées sur un banc d’essai pour un moteur marin diesel fabriqué par la société SIMB sous la référence 6M26SRP1.
Ce modèle a été implémenté sur Matlab/Simulink, et la simulation permet d’obtenir les variables suivantes dans les différentes sous-blocs: pression, température, efficacité, échange de chaleur, angle de vilebrequin, débit du fuel et émissions. Le simulateur sera utilisé pour montrer les dégradations dans les performances du moteur lors de l’occurrence des défauts et peut aider dans l’application des stratégies de diagnostic et de pronostic.
Les différents défauts considérés dans le simulateur sont : défauts injecteur, fuite cylindre, avarie pompe fuel, casse du segment de piston, dégradation de turbocompresseur, dégradation filtre à air, dégradation refroidisseur d’air, fuite d’air, fuite d’eau, fuite et contamination d’huile, encrassement des échangeurs, dégradations pompes.

Ses publications : ici
Aleksandar PETROV : Understanding the relationships between aesthetic properties of shapes and geometric quantities of free-form curves and surfaces using Machine Learning Techniques Key words: Free-form curves and surfaces, geometric modeling, declarative modeling, machine l
Le lundi 25 janvier 2016 à 14h00 - Arts et Métiers Campus de d’Aix-en-Provence –2, cours des Arts et Métiers salle de conseille
Sous la direction de : Jean-Philippe PERNOT - Bianca FALCIDIENO
ABSTRACT :
Today on the market we can find a large variety of different products and different shapes of the same product and this great choice overwhelms the customers. In such situation, how to make a choice? Which product we would buy? It is evident that the aesthetic appearance of the product shape and its emotional affection will lead the customers to the decision for buying the product. Designing appealing objects plays a key role in the commercial success of a product. Therefore, it is very important to understand the aesthetic properties and to adopt them in the early product design phases. Additionally, being able to design shapes by manipulation their aesthetic properties while controlling the evoked positive emotions will help in faster reaching the customers on the market. The objectives of this thesis is to propose a generic framework for mapping aesthetic properties to 3D free-form shapes so as to be able to extract aesthetic classification rules and associated geometric properties. The extraction of the aesthetic classification rules is based on considering the perception of the aesthetic properties of non-professional designers (potential customers) by conducting interviews. The key element of the proposed framework is the application of the Data Mining (DM) methodology and Machine Learning Techniques (MLT’s) in the mapping of aesthetic properties to the shapes. The overall framework describes the main activities of how to investigate the mapping of aesthetic properties to free form shapes and by modifying any of its constitutive elements (i.e. base, beam, pillars and roof) to change the final results (i.e. the configured classifier). First, this framework has been validated on curves and its aesthetic property, i.e. straightness, and then extended to free form surfaces and its aesthetic property – Flatness. The application of the framework is to investigate whether there is a common judgment for the flatness perceived from non-professional designers. Despite this, the proposed framework also investigates two additional aspects: how the size of the surrounding and the transition towards the surrounding affects the perception of the flatness.
The aim of the framework is not only to the establish a structure for mapping aesthetic properties to free form shapes but also to be used as a guided path for identifying a mapping between different semantics and free form shapes. The integration of the aesthetic aspects in the industrial design process contributes in developing of the declarative modeling approach. The aim of the integration is to open new perspectives for developing of user-friendly manipulation tools for modifying the free form shapes. The long-term objective of this work is to define a methodology to efficiently integrate the concept of Affective Engineering in the Industrial Designing.


RESUME :
Aujourd’hui, sur le marché, on peut trouver une vaste gamme de produits différents ou des formes variées d’un même produit et ce grand assortiment fatigue les clients. Dans une telle situation, comment faire le choix ? Quel produit acheter ? Il est clair que la décision des clients d’acheter un produit dépend de l'aspect esthétique de la forme du produit et de l’affection émotionnelle. Concevoir des objets attirants joue un rôle essentiel dans le succès commercial d'un produit. Par conséquent, il est très important de comprendre les propriétés esthétiques et de les adopter dans la conception du produit, dès le début. En outre, être en mesure de concevoir des formes en utilisant leurs propriétés esthétiques tout en contrôlant les émotions positives évoquées aide à accéder plus rapidement vers les clients sur le marché. L'objectif de cette thèse est de proposer un cadre générique pour la cartographie des propriétés esthétiques des formes libres en 3D en façon d'être en mesure d’extraire des règles de classification esthétiques et des propriétés géométriques associées. L'extraction des règles de classification esthétique repose sur l'étude de la perception des propriétés esthétiques des concepteurs non-professionnels (clients potentiels) en menant des interviews. L'élément clé du cadre proposé est l'application des méthodologies de l’Extraction des données (Data Mining) et des Techniques d’apprentissage automatiques (Machine Learning Techniques) dans la cartographie des propriétés esthétiques des formes. Le cadre général décrit les activités principales de la façon d'enquêter la cartographie des propriétés esthétiques des formes libres et en modifiant l'un de ses éléments constitutifs (c'est-à-dire, la base, la poutre, les piliers et le toit) modifier les résultats finaux (c'est-à-dire, le classificateur configuré). Premièrement, ce cadre a été validé sur des courbes et sa propriété esthétique, à savoir la rectitude, ensuite, étendu aux surfaces de la forme libre et sa propriété esthétique - planéité. L'application du cadre est d'étudier s’il y a une opinion commune pour la planéité perçu de la part des concepteurs non-professionnels. À part cela, le cadre proposé étudie également deux autres aspects: comment la taille de l'environs et la transition vers l'entourage affectent la perception de la planéité.
Le but de ce cadre n'est pas seulement d’établir une structure pour repérer des propriétés esthétiques des formes libres, mais aussi pour être utilisé comme un chemin guidé pour l’identification d’une cartographie entre les sémantiques et les formes libres différentes. L'intégration des aspects esthétiques dans le processus du design industriel contribue au développement de l'approche de la modélisation déclarative. Le but de l'intégration est d'ouvrir de nouvelles perspectives pour le développement d'outils de manipulation pratiques pour modifier les formes libres. L'objectif à long terme de ce travail est de définir une méthodologie pour intégrer efficacement le concept de l’Ingénierie affective (c.à.d. Affective Engineering) dans le design industriel.

Ses publications : ici
Mohamed aymen SAHNOUN : CONTRIBUTION A LA MODELISATION ET AU CONTROLE DE TRAJECTOIRE DE TRACKER PHOTOVOLTAIQUES A HAUTE CONCENTRATION (HCPV)
Le vendredi 18 decembre 2015 à 10h00 - ENSAM d'Aix-en-Provence en amphi 1
Sous la direction de : Jean-claude CARMONA & Julien GOMAND
Résumé : Dans l’optique de maximisation de la production d’une part, et de réduction des coûts d’installation d’autre part, facilitant la maintenance et l’entretien des trackers solaires, équipés de modules photovoltaïques à haute concentration (HCPV), ces travaux de thèse se focalisent sur l’amélioration de la précision et la réduction du coût de la stratégie de génération de la trajectoire du tracker. Un simulateur de tracker HCPV est tout d’abord développé permettant une étude de l’influence de la performance du suivi du soleil sur la production des modules HCPV, ainsi que l’analyse et la comparaison des stratégies de génération de trajectoires. Ce simulateur est basé sur un modèle comportemental de module HCPV monté sur tracker permettant la prédiction de la puissance maximale du module HCPV en fonction de l’erreur de position du tracker face au soleil, de l’ensoleillement direct et de la température. Une première stratégie de commande dite de référence a été implémentée sur ce simulateur. C’est une commande hybride qui repose sur un viseur solaire pour corriger l’erreur de poursuite par un calcul astronomique. Ensuite, afin d’améliorer les performances et de réduire les coûts de mise en œuvre, une nouvelle approche sans capteur est développée s’appuyant sur une méthode d’optimisation du gradient de puissance pour la génération de la trajectoire du tracker. Dans la même optique, une étude est menée sur des algorithmes de recherche de la puissance maximale (MPPT) pouvant offrir des temps de réponse suffisamment rapides pour ne pas affecter la qualité de l’évaluation du gradient de puissance. Dans ce contexte, une commande MPPT P&O améliorée par un réseau de neurones à complexité réduite, est proposée, assurant un compromis entre précision, simplicité et rapidité.

CONTRIBUTION TO THE MODELING AND CONTROL OF HIGH CONCENTRATED PHOTOVOLTAIC TRACKER (HCPV)

ABSTRACT: This work focuses on improving the accuracy and on reducing the cost of the tracker generating trajectory strategy, in order to maximize the production and to reduce the installation and the maintenance cost of a solar tracker orienting high concentrated photovoltaic modules (HCPV). Firstly, we propose a behavioral modeling of the HCPV module mounted on a dual axis tracker in order to study the influence of the tracking performance on the module power production. Then, this simulator is used to test different control strategies and to compare their performances. A classical control strategy is initially implemented in the simulator. It is based on a hybrid control operating an astronomical calculation to follow the sun path, and a sun sensor to correct the tracking error. Further, a sensorless strategy is proposed in order to reduce the cost of the HCPV tracker control. This strategy is based on a gradient optimization algorithm to generate the tracker trajectory and to catch the sun path. Tested on the simulator, this strategy presents the same accuracy as the classical strategy while being less costly. The last study proposed in this thesis work concerns maximum power point tracking (MPPT) algorithms, in order to answer to a given problem relating to the practical implementation of gradient algorithm. In this context, we propose an original optimization of the P&O MPPT control with a neural network algorithm leading to a significant reduction of the computational cost required to train it. This approach, ensuring a good compromise between accuracy and complexity is sufficiently fast not to affect the quality of the evaluation of the gradient.

Ses publications : ici
Philippe POULET : Contrôle d’un système énergétique hybride à base de pompe à chaleur
Le jeudi 17 decembre 2015 à 10h00 - salle de conférences Gérard JAUMES,Bât. Polytech, Campus de Saint-Jérôme, Av Escadrille Normandie Niemen 13397 Marseille.
Sous la direction de : M. Rachid OUTBIB
Cette thèse est une contribution au problème du contrôle et de la gestion de l’énergie dans le cadre des systèmes hybrides à base de pompe à chaleur à entrée variable. Après un état de l’art sur les systèmes énergétiques et les pompe à chaleur, une présentation des outils expérimentaux, conçus et exploités tout le long de la thèse, est donnée. La troisième partie est constituée de la modélisation physique de la pompe à chaleur. Il s’agit du composant central utilisé pour le contrôle du système hybride. Ensuite, la stratégie de contrôle est décrite et validée à travers des résultats de simulation puis des expérimentations. La dernière partie est dédiée à la gestion d’énergie du système hybride. Plus précisément, un algorithme permettant d’optimiser l’énergie produite est proposé, puis, validé sur des sites représentatifs en France ; le cas d’étude considéré.

Ses publications : ici
Vincent BOUVIER : Approches numériques pour le filtrage de documents centré sur une entité - Un modèle diachronique et des méta critères
Le mercredi 16 decembre 2015 à 10h00 - salle de conférences Gérard JAUMES Bât. Polytech, Campus de Saint-Jérôme, Av Escadrille Normandie Niemen 13397 Marseille.
Sous la direction de : Patrice BELLOT
La recherche d’information concernant des entités nommées est un challenge qui trouve diverses applications de la veille informationnelle à la mise à jour automatique de base de données ou de connaissances. Cette problématique implique différents champs de recherche comme la désambiguïsation d’entités nommées, la qualification de la centralisation d’un document pour une entité en particulier et enfin la qualification de l’importance d’une information au regard de l’entité, mais également de l’histoire véhiculée par le document.

Les différentes approches que nous présentons ont pour ambition de faire converger différents domaines de recherche liés aux entités nommées, à la détection de nouveauté et à la détection d’évènements dans le but de réaliser un système capable de suivre en temps réel un ensemble d’entités en particulier (c.-à-d., les entités cibles). Le travail de cette thèse a été réalisé dans le cadre d’une Convention industrielle de Formation par la REcherche (CIFRE) entre le laboratoire du LSIS (Laboratoire des Sciences de l’Information et des Systèmes) et l’entreprise Kware. Cette entreprise est spécialisée dans le domaine de la recherche d’information appliquée au domaine du marketing où la réactivité est primordiale. Le problème que nous traitons dans cette thèse est une généralisation de la problématique industrielle sur laquelle nous travaillons qui consiste à retrouver sur le Web des documents concernant un ensemble de produits vendus.

Nos principales contributions peuvent être résumées en trois points :

la proposition d’un système de classification de documents centrés sur les entités à l’aide d’un profil d’entité et de méta critères dans le contexte de filtrage de documents. Nous avons mis en place une approche qui est indé- pendante des entités et qui utilise les principes du transfert de connaissances. En effet, notre approche permet l’apprentissage à partir d’un ensemble de données annotées pour un pool d’entités tout en étant capables de catégoriser des documents concernant des entités pour lesquels aucune donnée annotée n’a été fournie ;
la proposition d’un nouveau modèle de langue diachronique pour étendre la définition de profil d’entité afin de permettre la mise à jour de celui-ci. En effet, le suivi d’une entité nommée implique de pouvoir distinguer une information déjà connue d’une information nouvelle. Le modèle de langue diachronique permet la mise à jour automatique du profil d’entité tout en minimisant le bruit apporté ;
la proposition d’une méthode pour découvrir la popularité d’une entité afin d’améliorer la cohérence d’un modèle de classification sur tous les aspects temporels liés à une entité. Pour détecter l’importance d’un document au regard d’une entité, nous proposons d’utiliser, entre autres, des indicateurs temporels qui peuvent varier d’une entité à l’autre. Nous proposons de re- grouper les entités en fonction de leur popularité sur le Web à chaque instant pour tenter d’améliorer la cohérence des modèles et ainsi augmenter les performances des classifieurs.

Par ailleurs, nous apportons une autre contribution : l’amélioration d’un corpus de requêtes à l’aide d’une nouvelle mesure de similarité entre mots. Les requêtes, comme les noms d’entités, correspondent à un point d’entrée nécessaire pour re- chercher de l’information sur le Web. Il est donc impératif que ces dernières soient correctement formulées. Les requêtes que nous traitons sont souvent mal écrites (autant dans les documents que dans les requêtes). Nous avons alors mis en place une méthode de lexicalisation qui se base sur un corpus de requêtes et des mesures de similarité pour effectuer l’amélioration. Nous utilisons également cette mesure de similarité pour retrouver les mentions d’entités dans les documents.

Nous avons réalisé nos évaluations en partie sur des données issues du domaine industriel. Pour tester notre approche de manière standardisée, nous avons également utilisé les données issues de la tâche Knowledge Base Acceleration des campagnes d’évaluation TREC 2013 et 2014 auxquelles nous avons participé.

Mots clés : modèle de langue diachronique, profil d’entité, documents vitaux, filtrage d’informations, classification


Ses publications : ici
Thibaut ROUCHON : Contribution à la modélisation des couplages aéroélastiques rotor-structure en application à l'hélicoptère
Le mardi 15 decembre 2015 à 10h00 - Paris ENSAM
Sous la direction de : Lionel ROUCOULES
A - Contexte Les structures tournantes telles que l'hélicoptère sont le siège de nombreux couplages entre les charges aérodynamiques, le rotor et le fuselage. Ces couplages peuvent donner lieu à des réponses forcées et stationnaires, ou bien à des instabilités caractérisées par des vibrations divergentes ou l'apparition de cycles limites. Certains phénomènes peuvent conduire en quelques secondes à la rupture de pièces mécaniques et à la ruine de l'appareil. De fait, la maîtrise de ces couplages d'origine aéromécanique a toujours été un souci majeur lors de la conception d'un nouvel hélicoptère. A ce jour, la plupart de ces couplages sont bien connus des fabricants d'hélicoptères et en général bien maîtrisés. On peut citer les plus connus à titre d'exemple : − La résonance sol : il s'agit d'un couplage autoentretenu entre le mouvement de traînée des pales du rotor principal et les modes de roulis de l'appareil sur son train d'atterrissage lorsqu'il est posé au sol. Cette instabilité est habituellement maîtrisée par la conception du train d'atterrissage et l'utilisation d'amortisseurs de traînée entre la pale et le moyeu ou entre deux pales. L'objectif est de bien positionner en fréquence et en amortissement les modes du fuselage et de traînée du rotor, de telle sorte que ce couplage n'apparaisse pas dans la plage d'utilisation de l'hélicoptère et le cas échéant que ce couplage reste stable. − La résonance air : le couplage est assez similaire avec la résonance sol puisqu'il s'agit d'un couplage entre le mode pendulaire de l'appareil et les modes de battement et traînée des pales. − Le couplage battement-torsion, battement-traînée : il s'agit d'une instabilité aéroélastique, similaire au phénomène de flottement ou « flutter » que l'on peut retrouver sur les plans fixes des planeurs ou avions. Il se particularise ici du fait qu'il affecte les surfaces portantes en rotation (pales). − Le whirl-flutter : ce couplage est aussi un phénomène de flottement, tel qu'on le retrouve sur les turbomachines et les hélicoptères à rotor basculant, qui peut apparaitre pour un mouvement gyroscopique du rotor. − Le couplage entre la chaîne de transmission de puissance et le reste de la structure rotors / moteurs / BTP / arbres de transmission arrière / BTA. Il peut apparaître une instabilité d'asservissement : il s'agit ici d'un couplage entre la dynamique en torsion de l'ensemble de la chaine de transmission et la régulation moteur, le premier mode de la chaîne de puissance se situant dans la bande passante du moteur. Tous ces phénomènes physiques sont suffisamment compris et ont donné lieu au développement de nombreux outils de calcul basés sur des modélisations de comportements aéroélastiques dont on retrouve un grand nombre d'exemples dans la littérature. Ces outils sont capables pour les industriels de prédire l'apparition de ces phénomènes, de calculer l'influence des paramètres de design et des conditions extérieures (vitesse, densité de l'air, …) et de permettre ainsi le dimensionnement, avec des marges de sécurité suffisantes, des différents composants de l'hélicoptère. Il est cependant apparu ces dernières années, lors du développement de nouveaux appareils, des phénomènes de couplages instables non habituels entre le rotor principal et le fuselage. Une première analyse a pu montrer que ces couplages sont caractérisés par une fréquence relativement haute et qu'ils font intervenir des modes de pale et de structure d'ordres plus élevés que les couplages habituellement identifiés. Notamment on observe que le nombre de modes impliqués de la pale est plus important et que le phénomène ne se situe pas à un croisement de mode précis. De même, l'interaction entre les déformées des pales et les charges aérodynamiques est complexe et à ce jour mal identifiée. D'autre part, il a été révélé une influence parasite de la commande de pas, certainement due à la cinématique des commandes et aux déformations de la structure. B - Objectifs L'objectif général de cette thèse CIFRE est d'obtenir une compréhension physique approfondie de ce type de couplage rotor-structure et de développer un modèle physique aéroélastique permettant de les représenter et quantifier l'influence des principaux paramètres. Un premier verrou scientifique découle du fait que les phénomènes évoqués demeurent mal compris sur un bon nombre de points : − Quel est le mécanisme physique intrinsèque conduisant à la boucle divergente ? Par où le rotor génère des efforts sur la structure, et comment génère-t-elle en retour des déplacements du rotor ? − Quels sont les configurations de vol et paramètres permettant le déclenchement de ces phénomènes vibratoires ? − Comment formaliser le caractère instationnaire du phénomène ? − Quels sont les échanges énergétiques entre le flux d'air du rotor et l'énergie cinétique du rotor Une première contribution de cette thèse sera d'améliorer la compréhension du phénomène en s'appuyant sur la bibliographie et les données d'essais en vol déjà disponibles. La littérature sur les couplages rotor/structure classiques pouvant se produire sur des aéronefs de type hélicoptère ou convertible (Résonances sol, résonance air, flottement gyroscopique) est relativement abondante. En revanche les problèmes de stabilité à plus haute fréquence mettant en jeu d'autres modes que les premiers modes rigides de battement et de traînée du rotor n'ont été qu'extrêmement rarement abordés. Pour pallier à ce type de phénomène, des systèmes mécaniques d'atténuation des vibrations ont été brevetés. Le brevet 1 décrit un mécanisme d'apport d'amortissement sur le mode de la structure pour repousser la limite de stabilité, mais n'apporte pas d'éclairage particulier sur le couplage entre le rotor et la structure. Le sujet de thèse proposé revêt un caractère novateur indéniable tant sur le plan de la modélisation phénoménologique que sur les solutions technologiques qui pourraient découler d'une maîtrise de ce type de phénomène. Un deuxième verrou réside dans la difficulté à élaborer des modèles physiques suffisamment prédictifs de tels couplages rotor-structure. Il est impératif pour l'industriel de pouvoir disposer de tels outils afin d'analyser le risque d'apparition des phénomènes lors de nouveaux développements et de la définition d'architectures ou des solutions technologiques. Les modèles existant doivent être améliorés. Depuis une vingtaine d'années, Eurocopter développe un outil prédictif appelé HOST permettant d'effectuer des calculs variés en aéromécanique (calcul de mécanique du vol de l'hélicoptère, calcul de charges sur le rotor, calcul de stabilité). Des études préliminaires ont cependant montré que HOST ne possède pas actuellement toutes les capacités de modélisation nécessaires à la prévision des couplages rotor structure décrits précédemment. HOST est décomposé de différents modèles interconnectés permettant de représenter les sous-ensembles de l'hélicoptère (pale, moyeu, fuselage, amortisseur, ..) et de modèles aérodynamiques (modèles de ligne portante, de vitesse induite, d'aérodynamique instationnaire). Cet aspect modulaire permet une évolution des différents modèles, voire de les représenter par un modèle externe (modèle CFD pour l'aérodynamique, modèle EF ou multicorps pour la dynamique) quand le modèle HOST n'est pas suffisamment raffiné. Une deuxième contribution scientifique de cette thèse sera de faire évoluer HOST à un niveau adéquat et d'exploiter le modèle pour obtenir une maitrise scientifique suffisante des couplages rotor structure. A terme, la meilleure connaissance de ces phénomènes permettra de mieux optimiser les appareils lors de la conception en fournissant l'ensemble des critères de design (raideurs minimales, positionnement de modes, ..) et de limiter les risques d'itération lors du développement. Globalement, sur ces deux contributions, le doctorant pourra s'appuyer d'une part sur les compétences de l'industriel, dont c'est le cœur de métier, et de son expérience en matière de couplage aéroélastique et d'autre part sur les compétences de l'équipe projet INSM du LSIS. Les activités de l'équipe INSM du LSIS se focalisent depuis une dizaine d'année sur la maîtrise de la dynamique des systèmes complexes en application, entre autres, à l'hélicoptère. L'objectif est de proposer des modèles de connaissance de comportements multi-physiques alliant la représentation hybride de type corps solides indéformables, corps déformables et comportement aérodynamique en vue de modèles prédictifs pour la conception ou de modèles de commande pour la mise en place de lois de contrôle. L'équipe INSM est l'animateur principal de la chaire de la fondation d'entreprises EADS « dynamique des systèmes mécaniques complexes ». L'objectif est de proposer des démarches basées sur des considérations et des outils de représentations énergétiques afin de comprendre et hiérarchiser les interactions dynamiques entre sous-systèmes. Ceci afin de faciliter la modélisation d'un comportement global d'un système, comportement qui peut être instable ou avec une dynamique suffisamment importante pour être inacceptable. Les premiers résultats de ce projet pourront être utilisés pour la thèse proposée. Organisation des travaux de recherche Les travaux de recherche seront découpés en trois phases distinctes : analyse du phénomène, établissement des modèles physiques et mise en œuvre. Dans un premier temps, des données d'essais en vol déjà disponibles seront analysées pour caractériser le phénomène. Les chutes d'amortissement seront identifiées en fonction des conditions externes (température, densité d'air) et des configurations de vol. Les déformées de la structure supportant le rotor et celles des pales seront soigneusement reconstruites pour déterminer les variations d'incidence locale aux niveaux des pales par rapport aux déplacements et rotations du centre rotor. Le mécanisme physique de la divergence pourra ainsi être établi et l'étude bibliographique réalisée permettra de différencier ce type de couplage rotor-structure par rapport à ceux bien connus et maîtrisés. Dans un second temps, le logiciel HOST sera développé pour intégrer l'analyse faîte dans la première partie. Les manques actuels seront recherchés et corrigés au travers d'une succession de cas tests. Des couplages avec des codes externes seront réalisés pour représenter finement les déformées et les cinématiques de certains sous-ensembles comme la chaîne de commande. L'équipe INSM apportera spécifiquement son expérience sur la mise en œuvre des techniques de modélisation multicorps et systèmes couplés ainsi que sur l'établissement de critères de stabilité appropriés. Aujourd'hui l'étude de la stabilité repose sur une linéarisation autour d'une position d'équilibre suivie d'une recherche de valeurs propres, ce qui n'est pas forcément le plus pertinent sur ce type de phénomène. Les simplifications réalisées présentent des inconvénients dans la détermination des zones d'instabilité. Un modèle plus conservatif préservant les termes paramétriques et périodiques, tels que Floquet, pourra être développé. Dans un troisième temps, le modèle sera appliqué aux différentes architectures de structures utilisées en observant plus particulièrement l'effet de la déformée du pylône selon le type de suspension équipant le pylône. La part déstabilisatrice provenant de la réinjection du fait des souplesses dans la chaîne de commande et de ses attaches sera établie. On étudiera l'influence des caractéristiques du rotor et analysera ainsi si un placement approprié des modes de pale, ou des déports de masse ou de foyer aérodynamique, peut avoir un effet positif. Les transferts d'énergie entre le rotor et la structure seront étudiés.

Ses publications : ici
Georges TOD : Bioaéroelasticité d'aéronefs à voilure tournante par bond graphs
Le lundi 14 decembre 2015 à 10h00 - Paris ENSAM

Ses publications : ici
Myriam FAKHRI : PA𝝌: une vision des processus métier basée sur la co-ingénierie de compositions de services
Le lundi 14 decembre 2015 à 10h00 - salle de conférences Gérard JAUMES,Bât. Polytech, Campus de Saint-Jérôme, Av Escadrille Normandie Niemen 13397 Marseille.
Sous la direction de : Corine CAUVET, Professeur à Aix-Marseille Université


L’émergence du paradigme service conduit à des changements profonds d’architectures, d’usages et d’approches de développement des systèmes d’information.
L’intérêt pour ce paradigme est devenu plus important avec le développement des architectures orientées services offrant des fonctionnalités nouvelles pour accéder à des services web. Le paradigme service considère les services comme des ressources logicielles autonomes qui peuvent être publiées et partagées, découvertes, sélectionnées et composées dynamiquement pour produire des applications dédiées à un métier. Dans cette vision, la difficulté n’est pas le développement de nouveaux services mais plutôt celle d’assembler des services existants pour répondre aux besoins des acteurs métier. Par ailleurs, les environnements dans lesquels ces besoins sont exprimés et doivent être satisfaits sont aujourd’hui dynamiques. En conséquence, l’assemblage doit pouvoir être redéfini pour tenir compte des contraintes, éventuelles dynamiques (événementielles) définissant l’environnement.
Cette thèse aborde la composition de services à un niveau « métier » : un processus métier est vu comme une composition de services permettant de réaliser un objectif en tenant compte d’informations contextuelles sur l’environnement. En outre, dans ces travaux de recherche, l’idée de rendre persistante les compositions est développée à des fins de réutilisation et de partage. L’approche PA𝝌 propose des modèles de spécification de compositions avec différents niveaux d’abstraction (niveau intentionnel, niveau orchestré, niveau exécutable et niveau trace). Au niveau intentionnel, une composition de services est vue comme une composition de buts métier. À un niveau orchestré, une composition de services est spécifiée comme un processus métier dont les activités sont abstraites. À un niveau exécutable, une composition de services est un processus métier pour lequel les activités sont réalisées par des services identifiés. À un niveau trace, une compose de services est vue comme la trace de l’exécution d’un processus métier mis en œuvre par invocation de services.
L’approche PA𝝌 fournit aussi une démarche flexible et de type co-ingénierie pour la définition de processus métier satisfaisant un besoin métier et basée sur la réutilisation de services et de composition de services. La démarche proposée est flexible dans la mesure où la réalisation de certaines activités est dépendante du contexte de mise en œuvre de l’approche PA𝝌. La démarche est de type co-ingénierie : elle suggère de faire participer les acteurs métier à la conception d’un processus, i.e. d’une composition de services, pendant son exécution. La démarche de type co-ingénierie assure l’alignement entre le besoin métier et le processus permettant de le satisfaire. La solution proposée permet à la fois de spécifier et d’exécuter des compositions « statiques » mais aussi de construire entièrement ces compositions dynamiquement.
Les possibilités d’application de l’approche PA𝝌 sont ainsi nombreuses, depuis la définition de processus dont l’ordonnancement des activités est stable et prédéfini au moment de la conception jusqu’à des processus dont la définition est créée pendant leur exécution.

Mots clés : Composition de services, processus métier, variabilité, flexibilité, co-ingénierie.

Ses publications : ici
Radhia GADDOURI : Réseaux de Petri Lots Triangulaires pour la modélisation mésoscopique et l'étude de la congestion dans le trafic routier
Le vendredi 11 decembre 2015 à 10h30 - salle de conférences Gérard JAUMES, LSIS, Bât. Polytech, Campus de Saint-Jérôme, Marseille
Sous la direction de : Isabel Demongodin & Léonardo BrennerIsabel Demongodin & Léonardo Brenner
Le manque de fluidité dans le trafic routier peut entraîner de nombreux inconvénients dont la pollution, les accidents et la congestion. Ce problème peut être résolu en augmentant la capacité des autoroutes ou en diminuant la demande de trafic. Néanmoins, ces solutions sont coûteuses et longues à mettre en œuvre. Une solution accessible à plus court terme consiste à mettre en œuvre des systèmes de gestion de trafic. Ceux-ci permettent d'optimiser le flux et réduire la congestion sans ajouter d'infrastructures supplémentaires. Notamment, cette optimisation passe souvent par la simulation du trafic routier où différentes théories peuvent être testées avant d'être implémentées sur des infrastructures réelles.

Dans ce cadre, nous proposons dans cette thèse un formalisme, appelé Réseaux de Petri Lots Triangulaire (RdPLots Triangulaire), qui permet la modélisation et la simulation du trafic routier au niveau mésoscopique comme un système à événements discrets. Le RdPLots Triangulaire est une extension du formalisme RdPLots connu pour la représentation des retards variables au niveau des flux continus et la notion de lot c'est-à-dire un ensemble d'entités ayant le même comportement dynamique hybride.

Les contributions de ce travail visent à l'amélioration et l'extension de quelques concepts du formalisme RdPLots tels que la définition du régime décongestionné, une nouvelle dynamique pour le régime de congestion et décongestion des lots, une extension du calcul des flux instantanés de franchissement et la variation de la vitesse maximale des places lots et du flux maximal des transitions. Le RdPLots Triangulaire permet ainsi de décrire les caractéristiques globales du trafic routier (flux, densité, vitesse) à travers la proposition d'une nouvelle relation flux-densité triangulaire (dite aussi diagramme fondamental triangulaire dans le trafic routier). Une telle relation implique une modification de la dynamique précédemment définie pour les lots. Cette dynamique permet maintenant de représenter les deux états du trafic routier à savoir fluide et congestionné ainsi que les trois régimes dédiés au comportement libre, congestion et décongestion, liés à ces deux états. Le calcul des flux instantanés de franchissement des transitions est à présent réalisé par une méthode basée sur la technique de programmation linéaire en ajoutant une contrainte qui prend en compte l'état et le régime des lots. Nous avons également intégré au RdPLots Triangulaire des événements contrôlés qui permettent le changement de la vitesse maximale d'une place lot et du flux maximal d'une transition continue ou lot. Ces événements contrôlés sont utilisés pour modéliser des stratégies de contrôle telles que la variation de la vitesse limite (VSL), ainsi que les incidents qui perturbent le flux du trafic routier comme les accidents, les travaux, etc. Tous ces apports théoriques sont implémentés dans un logiciel que nous avons appelé SimuleauTri, sous lequel nous avons étudié des portions d'autoroute à partir des données réelles. Les résultats de simulation sont proches des mesures effectuées sur le terrain, et montrent la pertinence de RdPLots Triangulaire.

Ses publications : ici
Lamia TRIQUI : Gestion des stocks dans un réseau de distribution approvisionnement et échanges
Le mardi 08 decembre 2015 à 09h00 - centre de télé-enseignement à l'université Aboubekr Belkaid de Tlemcen, Algérie
Sous la direction de : HENNET Jean Claude, Directeur de Recherche CNRS, Universités, Aix-Marseille, Directeur - SARI Zaki, Professeur, Université de Tlemcen, Co Directeur
Un problème auquel sont confrontés de nombreux réseaux de distribution, en particulier dans la vente de détail, est celui du choix entre une installation locale de stockage de produits ou une installation commune pour tous les centres du réseau. Le stockage commun permet des économies d’échelle. En revanche, il peut occasionner des coûts de transport importants. Quant au stockage local, il est coûteux du point de vue de l’investissement mais bon marché en utilisation. Pour profiter des avantages des deux techniques tout en limitant leurs inconvénients, on envisage l’installation de stocks locaux pouvant aussi être utilisés par les autres entreprises. Dans ce cas, le problème qui se pose alors est double. Il s’agit d’une part pour chaque entreprise, de déterminer sa propre quantité à commander, en fonction de la demande estimée à chaque point de vente. Il s’agit d’autre part d’organiser les échanges de produits entre les entreprises en fonction des demandes locales réelles. Les travaux de recherche présentés dans ce mémoire de thèse proposent des mécanismes de coordination qui agissent d’une façon collective et non plus d’une façon individuelle, pour améliorer à la fois le rendement au niveau de chaque centre de distribution et la satisfaction des clients.. Notre principal défi dans cette thèse est de proposer une approche analytique innovante issue de la théorie des jeux pour traiter des problèmes de gestion de stock visant à réduire globalement les stocks dans les réseaux de distribution toute en garantissant un bon niveau de service

Mots clés : Gestion de stocks, Théorie des Jeux, Programmation stochastique

Abstract:
A problem facing many distribution networks, especially in retail, is the choice between a local product storage facility or a shared installation for all network centers. The common storage enables economies of scale. However, may cause significant transport costs. As for local storage, it is costly in terms of investment but cheap in use. To enjoy the benefits of both techniques while minimizing their drawbacks, it is envisaged the installation of local stocks can also be used by other companies. In this case, the problem that then arises is twofold. This is one for each company to determine its own order quantity, depending on the demand estimated at each point of sale. It is secondly to organize the exchange of products between companies based on actual local demands. The research presented in this thesis propose coordination mechanisms that act in a collective manner and not in an individual manner, to improve both the yield at each distribution center and customer satisfaction .. Our main challenge in this thesis is to propose an innovative analytical approach end of game theory to address inventory management problems to reduce overall inventory in the distribution networks throughout ensuring a good level of service

Keywords: Inventory Management, Game Theory, Stochastic programming

Ses publications : ici
Julien LACROIX : Vers un Cloud de confiance : modèles et algorithmes pour une provenance basée sur les contrôles d'accès
Le lundi 07 decembre 2015 à 14h00 - Salle de Conérence - Site de Saint-Jérôme, Polytech Marseille
Sous la direction de : Omar BOUCELMA
Ce document constitue l'aboutissement de trois années de thèse. Après avoir
introduit et dégagé la problématique générale se rapportant à mon sujet de thèse,
à savoir « comment utiliser les données de provenance pour favoriser un Cloud
de confiance ? », je présente une description des concepts, modèles et langages
se rapportant à ma thèse et l'état de l'art qui peut répondre en partie à cette problématique.
Les concepts, modèles et langages comprennent : (1) les systèmes
de Cloud et leurs problèmes ; (2) l'inventaire des modèles de provenance existants
et leur puissance d'expressivité ; et (3) les contrôles d'accès aux données
basés sur les rôles d'utilisateurs (RBAC). L'état de l'art comporte un éventail des
solutions de sécurité pour le Cloud et/ou la provenance, avec en particulier les
contrôles d'accès aux données. En second lieu, je présente la solution basée sur
la provenance que j'apporte aux contrôles d'accès, dans les systèmes distribués
comme le Cloud : PBAC². Elle repose sur un système combinant à la fois des
modèles de provenance (PROV-DM) et de contrôles d'accès (règles génériques
de type RBAC avec des politiques d'embrigadement ou de reglementation). Ce
système utilise un moteur d'exécution central appelé le médiateur pour renforcer
la sécurité et favoriser la confiance dans le Cloud, via la vérification de règles
sur une partie du graphe de provenance rétrospective qu'il a reçue. Un prototype
et une démonstration sur un exemple concret illustrent la portée de ce travail.
Par ailleurs, je décris l'étude que j'ai faite de trois extensions de PBAC² : (1)
l'intégration de l'ontologie PROV-O et ses avantages et inconvénients quant à la
taille du (sous-)graphe de provenance reçu par le médiateur ; (2) la construction
de l'adaptation de PBAC² avec l'approche de sécurité qu'est la réglementation ;
(3) la traduction des règles PBAC² en contraintes PROV-CONSTRAINTS. De plus,
PBAC² est appliqué sur un exemple réel propre au secteur médical. En conclusion
de la thèse, je propose quatre perspectives de ce travail.
Cette thèse a donné lieu à quatre publications internationales dont un poster,
et une communication nationale.

Ses publications : ici
Florence DANGLADE : Traitement de maquettes numériques pour la préparation de modèles de simulation en conception de produits à l'aide de techniques d'intelligence artificielle
Le lundi 07 decembre 2015 à 10h00 - Paris ENSAM
Sous la direction de : Philippe Veron et de Jean-Philippe Pernot
Le contexte de la thèse concerne la réduction du cycle de vie des produits manufacturés par la mise en œuvre de traitements de maquette numérique afin de la rendre le plus rapidement possible compatible avec les besoins liés aux différentes activités d'ingénierie. La multitude d'acteurs et d'outils qui interagissent avec le modèle numérique du produit tout au long de son cycle de vie fait que sa représentation est multiple et ne se limite pas à des données géométriques mais intègre également des informations complémentaires propres à chaque processus. Le processus de conception d'un produit donne ainsi naissance à un ensemble d'objets intermédiaires de conception qui sont des représentations intermédiaires du produit adaptées à des objectifs et activités multiples: simulation en fonctionnement (dynamique, vibratoire, fluides, thermique,…) ; simulation en service (calcul des déformations ou de la rupture par éléments finis, fatigue,…) ; simulation des processus de fabrication (fonderie, travail des métaux en feuille, enlèvement de matière,…) ; prototypage (simulation d'assemblage, prototypage virtuel pour l'industrialisation ou la visualisation, prototypage réel,…). Les besoins relatifs à l'adaptation, à la simplification et à l'idéalisation de la représentation géométrique du produit varient selon ces objectifs. Cette multiplicité d'objectifs et de besoins donne lieu, au travers d'un ensemble d'outils de traitements, à plusieurs types et niveaux de représentations géométriques intermédiaires du produit tels que : modèles géométriques 3D (modèle CAO natif, CSG, B-REP), modèles géométriques 2D, modèles maillés, nuages de points, etc… complétés par des informations technologiques et d'ingénierie propres à chaque processus et chaque activité. Il n'existe pas, à l'heure actuelle, un outil unique de traitement de la maquette numérique d'un produit pour un objectif donné, mais plutôt toute une chaîne d'opérations (obtenus avec différents outils) qui doivent prendre un compte un grand nombre de paramètres pour passer d'une représentation initiale à une représentation adaptée à une tâche donnée. Objectif : Il s'agit, à terme, de proposer et d'évaluer le coût d'une chaîne de traitement de la maquette numérique d'un produit en vue de faciliter l'exploitation de celle-ci pour des activités de simulation numérique et de visualisation. La finalité sera l'accélération des itérations de conception et de prise de décision. Le premier objectif est de définir les indicateurs de performance de l'ensemble des opérations utiles pour l'adaptation de maquettes numériques afin d'estimer le coût de chacune de ces opérations. Le deuxième objectif concerne la génération d'un outil capable d'évaluer et de proposer des stratégies globales de traitement de maquette numérique en s'appuyant sur des outils d'apprentissage artificiel. Puis, d'optimiser les stratégies pertinentes.


Ses publications : ici
Faicel CHAMROUKHI : H.D.R : Statistical learning of latent data models for complex data analysis
Le lundi 07 decembre 2015 à 10h00 - amphi 300 du bâtiment X, Université de Toulon - Campus La Garde.
Ce mémoire synthétise mes travaux développés principalement pendant les cinq dernières années, depuis la fin de ma thèse soutenue en 2010 à l'UTC. Mes activités de recherche sont à l'interface de l'informatique et les mathématiques appliquées (statistique), avec un intérêt particulier au traitement statistique du signal. Elles portent sur les aspects fondamentaux et appliquées de l'apprentissage statistique et de l'analyse de données complexes. Les modèles à variables latentes et les algorithmes d'inférence statistique dans un contexte non supervisé sont au cœur de mes travaux.

Ses publications : ici
El mehdi ROCHD : Modèles probabilistes de consommateurs en ligne : Recommandation et personnalisation
Le jeudi 03 decembre 2015 à 14h30 - salle des conférences Gérard Jaumes – Polytech Marseille
Les systèmes de recherche ont facilité l’accès à l’information disponible sur le web à l’aide de mécanismes de collecte, d’indexation et de stockage de contenus hétérogènes.

Ils génèrent des traces résultant de l’activité des internautes. Il s’agit ensuite d’analyser ces données à l’aide d’outils de data mining afin d’améliorer la qualité de réponse de ces systèmes ou de la personnaliser en fonction des profils des utilisateurs. Certains acteurs, comme la société Marketshot, se positionnent comme intermédiaires entre les consommateurs et les professionnels. Ils mettent en relation les acheteurs potentiels avec les grandes marques et leurs réseaux de distribution à travers leurs sites Internet d’aide à l’achat. Pour cela, ces intermédiaires ont développé des portails efficaces et stockent de gros volumes de données liées à l’activité des internautes sur leurs sites. Ces gisements de données sont exploités pour répondre favorablement aux besoins des internautes, ainsi qu’à ceux des professionnels qui cherchent à comprendre le comportement de leurs clients et anticiper leurs actes d’achats. C’est dans ce contexte, où on cherche à fouiller les données collectées du web, que se placent mes travaux de recherche. L’idée est de construire des modèles qui permettent d’expliciter une corrélation entre les activités des internautes sur les sites d’aide à l’achat et les tendances de ventes de produits dans la « vraie vie ». En effet, ma thèse se place dans le cadre de l’apprentissage probabiliste et plus particulièrement des modèles graphiques « Topic Models ». Elle consiste à modéliser les comportements des internautes à partir des données d’usages de sites web.

La contribution de cette thèse est concrétisée par les trois modèles suivants :

– LocLDA : modèle à structure partiellement prédéfinie, exploitant la corrélation locale entre les ressources consultées par chaque internaute. Ce modèle est utilisé pour la recommandation de produits.

– HpDP : modèle non paramétrique qui se base sur les processus hiérarchiques de Dirichlet en intégrant des variables caractérisant les profils des utilisateurs. Ce modèle est à la base de la recherche personnalisée de produits.

– DpTM : modèle Markovien, qui tient compte de la dimension temps pour modéliser l’évolution de l’intérêt de l’utilisateur et personnaliser de façon dynamique la recherche de produits.

La démarche adoptée consistait à formaliser les différents modèles et les comparer scientifiquement avec d’autres modèles de la littérature. La partie pratique consiste à appliquer ces modèles aux données réelles de Marketshot.

Ses publications : ici
Arnaud POLETTE : Analyse de maillages surfaciques par construction et comparaison de modèles moyens et par décomposition par graphes s’appuyant sur les courbures discrètes - Application à l’étude de la cornée humaine
Le jeudi 03 decembre 2015 à 14h00 - amphi du bâtiment A de Polytech, sur le campus de Luminy
Cette thèse se découpe en trois parties. Les deux premières portent sur le développement de méthodes pour la construction de modèles géométriques moyens et pour la comparaison de modèles. Ces approches sont appliquées à la cornée humaine pour l’élaboration d’atlas et pour l’étude biométrique robuste. La troisième partie porte sur une méthode générique d'extraction d'informations dans un maillage en s'appuyant sur des propriétés différentielles discrètes afin de construire une structure par graphe permettant l'extraction de caractéristiques par une description sémantique. Les atlas anatomiques conventionnels (papier ou CD-ROM) sont limités par le fait qu'ils montrent généralement l'anatomie d'un seul individu qui ne représente pas nécessairement bien la population d'où il est issu. Afin de remédier aux limitations des atlas conventionnels, nous proposons dans la première partie d’élaborer un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d'un organe, plus particulièrement de la cornée humaine. Plusieurs problématiques sont abordées, telles que la construction d'une cornée moyenne et la comparaison de cornées. Il existe à ce jour peu d'études ayant ces objectifs car la mise en correspondance de surfaces cornéennes est une problématique non triviale. En plus d'aider à développer une meilleure connaissance de l'anatomie cornéenne, la modélisation 3D de la cornée normale permet de détecter tout écart significatif par rapport à la "normale" permettant un diagnostic précoce de pathologies ou anomalies de la forme de la cornée. La seconde partie a pour objectif de développer une méthode pour reconnaître une surface parmi un groupe de surfaces à l’aide de leurs acquisitions 3D respectives, dans le cadre d’une application de biométrie sur la cornée. L’idée est de quantifier la différence entre chaque surface et une surface donnée, et de déterminer un seuil permettant la reconnaissance. Ce seuil est dépendant des variations normales au sein d’un même sujet, et du bruit inhérent à l’acquisition. Les surfaces sont rognées et trouées de façon imprévisible, de plus il n’y a pas de point de mise en correspondance commun aux surfaces. Deux méthodes complémentaires sont proposées. La première consiste à calculer le volume entre les surfaces après avoir effectué un recalage, et à utiliser ce volume comme un critère de similarité. La seconde approche s’appuie sur une décomposition en harmoniques sphériques en utilisant les coefficients comme des descripteurs de forme, qui permettront de comparer deux surfaces. Des résultats sont présentés pour chaque méthode en les comparant à la méthode la plus récemment décrite dans la littérature, les avantages et inconvénients de chacune sont détaillés. Une méthodologie en cascade utilisant ces deux méthodes afin de combiner les avantages de chacune est aussi proposée. La troisième et dernière partie porte sur une nouvelle méthode de décomposition en graphes de maillages 3D triangulés. Nous utilisons des cartes de courbures discrètes comme descripteur de forme afin de découper le maillage traité en huit différentes catégorie de carreaux (ou peak, ridge, saddle ridge, minimal, saddle valley, valley, pit et flat). Ensuite un graphe d'adjacence est construit avec un nœud pour chaque carreau. Toutes les catégories de carreaux ne pouvant pas être adjacentes dans un contexte continu, des jonctions intermédiaires sont ajoutées afin d'assurer une cohérence continue entre les zones. Ces graphes sont utilisés pour extraire des caractéristiques géométriques décrites par des motifs (ou patterns), ce qui permet de détecter des régions spécifiques dans un modèle 3D, ou des motifs récurrents. Cette méthode de décomposition étant générique, elle peut être appliquée à de nombreux domaines où il est question d’analyser des modèles géométriques, en particulier dans le contexte de la cornée.

Mots-clés : modélisation géométrique, maillages, surfaces, cornées, atlas anatomiques, biométrie cornéenne, topographie cornéenne, géométrie différentielle, courbures discrètes, descripteurs de forme.

Ses publications : ici
Hussam HAMDAN : Sentiment Analysis in Social media
Le mardi 01 decembre 2015 à 10h00 - alle de séminaire de la FRIIAM, au 2è étage du bâtiment 7, chimie B Bloc 7 C1 sur le plan : http://sciences.univ-amu.fr/sites/sciences.univ-amu.fr/files/plan_du_site_st_charles_02-12.pdf
Sous la direction de : Patrice BELLOT (LSIS) / Frédéric BECHET (LIF)
Résumé:
In this thesis, we address the problem of sentiment analysis. More specifically, we are interested in analyzing the sentiment expressed in social media texts such as tweets, restaurant, laptop, hotel reviews and the scholarly book reviews which are written by experts.
We will focus on two main tasks: sentiment polarity detection in which we aim to determine the polarity (positive, negative or neutral) of a given text and the opinion target extraction in which we aim to extract the targets that the people tend to express their opinions towards them (e.g. for restaurant we may extract targets as food, pizza, service).
Our main objective is constructing state-of-the-art systems which could do the two tasks. Therefore, we have proposed different supervised systems following three research directions: improving the system performance by term weighting, by enriching the document representation and by proposing a new model for sentiment classification.

For evaluation purpose, we have participated at an International Workshop on Semantic Evaluation (SemEval), we have chosen two tasks: Sentiment analysis in twitter in which we determine the polarity of a tweet and Aspect-Based sentiment analysis in which we extract the opinion targets in restaurant reviews, then we determine the polarity of each target, our systems has been among the first three best systems in all subtasks. We also applied our systems on a French book reviews corpus constructed by OpenEdition team for extracting the opinion targets and their polarities.

Membres du Jury :
- Julien VELCIN - Université Lyon II, laboratoire ERIC
- Patrick PAROUBEK - LIMSI (Paris Sud) CNRS
- Béatrice DAILLE, Université de Nantes, LINA CNRS
- Jacques SAVOY, Université de Neuchâtel (Suisse)
- Béchet Frédéric
- Bellot Patrice
- Invité : Marin Dacos, AMU-CNRS (directeur d’OpenEdition)



Ses publications : ici
Motaz AMER : Power Consumption optimization Based on Controlled Demand for Smart Home Structure
Le vendredi 27 novembre 2015 à 15h30 - Site de Saint-Jérôme - salle Gerard Jaumes -
Sous la direction de : Kouider nacer M'SIRDI & Aziz NAAMANE
Abstract: Energy is a major expense for most of the customers, naturally each home would be interested in minimizing the utility bill. But there is a need for tools to be suitable for both customers and utility, first for customers to understand what is driving their monthly energy spend and overcome complexity of managing energy effectively. On other hand for electrical companies to ensure stability on the grid, electricity supply and demand must remain in balance in real time. Traditionally utilities have called upon peaking power plants to increase power generation to meet rising demand. As a solution Demand Side Management (DSM), which includes energy efficiency and Demand Response (DR), works from the other side of the equation instead of adding more generation to the system, it pushes energy users to reduce consumption.
This thesis proposes a concept of power consumption optimization in smart homes based on demand side management that reposes on using Home Energy Management System (HEMS) that is able to control home appliances. The advantage of the concept is optimizing power consumption without reducing the users living comfort. An adaptive mechanism for smart home energy management system which composed of algorithms that govern the use of different types of loads in order of pre-selected priority in smart home is proposed. In addition a method for the optimization of the power generated from a Hybrid Renewable Energy Systems (HRES) in order to achieve the load demand. Particle Swarm Optimization Technique (PSO) is used as optimization searching algorithm due to its advantages over other techniques for reducing the Levelized Cost of Energy (LCE) with an acceptable range of the production taking into consideration the losses between production and demand sides. The problem is defined and the objective function is introduced taking into consideration fitness values sensitivity in particle swarm process. The algorithm structure was built using MATLAB software and Arduino 1.0.5 Software.
This work achieves the purpose of reducing electricity expense and clipping the Peak-to-Average Ratio (PAR). The experimental setup for the smart meter implementing HEMS is built relying on the Arduino Mega 2560 board as a main controller and a web application of URL http://www.smarthome-em.com to interface with the proposed smart meter using the Arduino WIFI Shield.



Ses publications : ici
Rana AHMED AMER : Energy Management and control for renewable energy sources in rural area
Le vendredi 27 novembre 2015 à 09h30 - Site de Saint-Jérôme - salle Gerard Jaumes -
Sous la direction de : Nacer M SIRDI
Abstract: Recently applied islanded DC micro-grids (MGs) in rural areas do not rely solely on single dominant power source. Various local renewable energy sources (RESs) integrates together forming the DC MG power generation units. RESs are characterized by their dependency on weather and environmental conditions. Hence, their maximum available generated power must be continuously tracked for efficiency improvement purposes. Owing to the intermittent nature of RESs and demand side variation, energy storage systems (ESSs) are mandatory to ensure system reliability and improve power quality. Insufficient/surplus power generation causes the MG DC bus voltage to drop/rise, yet it can be balanced through discharging/charging of the ESSs. Thus, the MG performance is deeply dependent on the ability of the energy management system (EMS) to perform the maximum power point tracking (MPPT) for local RESs, achieve coordinated control for RESs and ESSs integration and ensure DC bus voltage stabilization. For RESs MPPT control the most practical applied method is the well-known Perturb and Observe (P&O) for its simplicity and low cost implementation. However, conventional P&O algorithm suffers two main drawbacks; excessive oscillation around the MPP in steady-state and MPP mismatch under rapidly changing atmospheric conditions. In addition, hybridizing of RESs leads to the existence of continuous and discrete characteristics together in one converting system.
This thesis primarily proposes, an improved P&O based State-Flow MPPT algorithm featuring two degree of freedom, in which the event driven system (MPPT) behaviour is modelled by describing it in terms of transitions among states under certain conditions. Secondarily, an extended parallel operating State-Flow based MPPT algorithm is further proposed to be a challenging solution for the independent control of the hybrid system, where continuous control characteristic can present during a certain working state while discrete one is indicated along state transitions. Two possible configurations for the hybrid system are proposed; two separate DC/DC converters and dual input single output converter (DISO) configurations. Finally it is proposed, DC system behaviour modelling using State-Flow leading to the whole control strategy design which concern RESs MPPT, RESs and BESS coordination, power system stability and DC bus voltage regulation.
Simulation and experimental results validate the effectiveness and applicability of the proposed algorithm, both results show the superiority of the proposed State-Flow based MPPT in reducing the RESs power oscillations at steady-state in various operating conditions in addition to its faster start-up and transition operation without divergence from the MPP during sudden varying weather conditions. Hence, the proposed algorithm can overcome the main drawbacks of the conventional algorithm, in addition to applicability on hybrid RESs regardless of the system structure. The proposed EMS based State-Flow controller presents a generic structure, simplified implementation, seam-less smooth modes’ transition and fast dynamic response providing the system power stability required while considering battery limitations.

Ses publications : ici
Djamal MERAD : (H.D.R) De l’image à la mesure, de la mesure à la connaissance
Le lundi 23 novembre 2015 à 14h00 - amphi du département R&T de l’IUT, à Luminy
Mes activites de recherche sont fondees sur la Mesure a partir des Images. Que ce soit pour l’analyse du comportement humain ou pour l’analyse de scenes sous-marines, les outils employes s’appuient sur des techniques d’extraction d’informations bas niveaux couplees à des processus de mise en correspondance en vue de leur structuration, categorisation, et interpretation. En plus des thematiques habituelles comme le suivi de personnes, le recalage 3D, analyse du comportement, la reconnaissance d’objets, mes travaux visent a explorer les potentialites des ontologies pour faire le lien entre la Mesure et la Connaissance.

Ses publications : ici
Victor MAURANDI : Algorithmes pour la diagonalisation conjointe de tenseurs sans contrainte unitaire. Application à la séparation MIMO de sources de télécommunications numériques.
Le vendredi 30 octobre 2015 à 14h00 - Université de Toulon, Bâtiment X SEATECH
Sous la direction de : M. Eric Moreau
Cette thèse développe des méthodes de diagonalisation conjointe de matrices et de tenseurs d’ordre trois, et son application à la séparation MIMO de sources de télécommunications numériques. Après un état de l’art, les motivations et objectifs de la thèse sont présentés. Les problèmes de la diagonalisation conjointe et de la séparation de sources sont définis et un lien entre ces deux domaines est établi. Par la suite, plusieurs algorithmes itératifs de type Jacobi reposant sur une paramétrisation LU sont développés. Pour chacun des algorithmes, on propose de déterminer les matrices permettant de diagonaliser l’ensemble considéré par l’optimisation d’un critère inverse. On envisage la minimisation du critère selon deux approches : la première, de manière directe, et la seconde, en supposant être que les éléments de l’ensemble considéré sont quasiment diagonaux. En ce qui concerne l’estimation des différents paramètres du problème, deux stratégies sont mises en œuvre : l’une consistant à estimer tous les paramètres indépendamment et l’autre reposant sur l’estimation indépendante de couples de paramètres spécifiquement choisis. Ainsi pour la diagonalisation conjointe de matrices complexes symétriques ou hermitiennes, nous proposons trois algorithmes. Le premier repose sur la recherche des racines de la dérivée du critère, le second est basé sur une recherche de vecteur propre et le dernier utilise une méthode de gradient avec calcul du pas optimal d’adaptation. Dans le cadre de la diagonalisation conjointe d’ensembles de tenseurs admettant soit une décomposition symétrique, soit une décomposition INDSCAL, soit une décomposition non-symétrique, nous avons développé deux algorithmes. Pour chacun d’eux, le calcul des paramètres se fait par recherche des racines de la dérivée du critère considéré. Nous montrons aussi le lien existant entre la diagonalisation conjointe de tenseurs d’ordre trois et la décomposition canonique polyadique d’un tenseur d’ordre quatre et nous nous comparons à différentes méthodes de la littérature. Le bon comportement des algorithmes proposés est illustré au moyen de simulations. Puis, ils sont validés dans le cadre de la séparation de sources de signaux de télécommunications numériques. Les ensembles à diagonaliser sont construits à l’aide de statistiques d’ordre supérieur calculés à partir des signaux d’observation.


Ses publications : ici
Marius BARTCUS : “Modèles de mélanges Bayésiens non-paramétriques parcimonieux pour la classification automatique”. Ma soutenance aura lieu le 26 octobre 2015 à 13h00 dans l’amphi K018, Université de Toulon, devant le jury composé de:
Le lundi 26 octobre 2015 à 13h00 - amphi K018, Université de Toulon
Sous la direction de : M. Hervé GLOTIN Professeur
Cette thèse porte sur l'apprentissage statistique et l'analyse de données multi-dimensionnelles. Elle se focalise particulièrement sur l'apprentissage non supervisé de modèles génératifs pour la classification automatique. Nous étudions les modèles de mélanges Gaussians, aussi bien dans le contexte d’estimation par maximum de vraisemblance via l’algorithme EM, que dans le contexte Baéyesien d’estimation par Maximum A Posteriori via des techniques d’échantiollnnage par Monte Carlo. Nous considérons principalement les modèles de mélange parcimonieux qui reposent sur une décomposition spectrale de la matrice de covariance et qui offre un cadre flexible notamment pour les problèmes de classification en grande dimension. Ensuite, nous investigons les mélanges Bayésiens non-paramétriques qui se basent sur des processus généraux flexibles comme le processus de Dirichlet et le Processus du Restaurant Chinois. Cette formulation non-paramétrique des modèles est pertinente aussi bien pour l’apprentissage du modèle, que pour la question difficile du choix de modèle. Nous proposons de nouveaux modèles de mélanges Bayésiens non-paramétriques parcimonieux et dérivons une technique d’échantillonnage par Monte Carlo dans laquelle le modèle de mélange et son nombre de composantes sont appris simultanément à partir des données. La sélection de la structure du modèle est effectuée en utilisant le facteur de Bayes. Ces modèles, par leur formulation non-paramétrique et parcimonieuse, sont utiles pour les problèmes d’analyse de masses de données lorsque le nombre de classe est indéterminé et augmente avec les données, et lorsque la dimension est grande. Les modèles proposés validés sur des données simulées et des jeux de données réelles standard. Ensuite, ils sont appliqués sur un problème réel difficile de structuration automatique de données bioacoustiques complexes issues de signaux de chant de baleine. Enfin, nous ouvrons des perspectives Markoviennes via les processus de Dirichlet hiérarchiques pour les modèles Markov cachés.
Mots-clés: modèles de mélange, classification automatique, mèlanges parcimonieux, modèles de mélanges bayésiens non-paramétriques, processus de Dirichlet, sélection Bayésienne de modèle

Ses publications : ici
Renaud ANGLES : V-BPMI : une approche pour la conception, l’organisation et l’adaptation de processus flexibles Cas d’application : la sécurisation du circuit du médicament au sein de l’AP-HM
Le vendredi 23 octobre 2015 à 10h00 - Salle de conference G. Jaumes - LSIS St Jérôme
Sous la direction de : Cauvet Corine - Ramadour Philippe
La modélisation de processus est, depuis plusieurs années, utilisée en entreprise pour représenter et maîtriser l’organisation et les flux d’informations.
Parallèlement, la structure et les besoins des entreprises ont évolué : de plus en plus souvent, les mêmes processus métier sont déployés pour une entreprise
donnée mais dans des environnements différents. Un exemple flagrant est celui des processus médicaux au sein de structures hospitalières telles que l’AP‑HM
(Assistance Publique – Hôpitaux de Marseille) : le processus de circulation du médicament est déployé au sein des quatre hôpitaux composant cette structure.
Les organisations et entreprises ont donc besoin de pouvoir modéliser et déployer un même ensemble de processus métier dans des environnements divers
tout en les adaptant le mieux possible aux spécificités de chacun de ces environnements. Cette problématique, qui devient de plus en plus prégnante, est celle
de la flexibilité des processus afin de les adapter à la variabilité des environnements dans lesquels ils vont devoir être déployés.

La méthode V‑BPMI s’inscrit dans cette problématique de la flexibilité des processus. Elle préconise notamment d’adopter une double orientation
intentionnelle (en caractérisant formellement un processus par l’objectif qu’il permet d’atteindre) et contextuelle (en décrivant formellement les divers
environnements dans lesquels un processus peut être déployé et mis en œuvre de façon pertinente). Cette méthode introduit principalement les concepts
de lignes de processus, identifiées par des buts, et de variantes de processus, discriminées par des contextes, afin de supporter la flexibilité. Des opérateurs
et un langage de modélisation et d'adaptation de processus, V‑BPMN, sont également proposés. Par ailleurs deux démarches sont définies pour guider
la définition et l'adaptation de processus flexibles. De plus, la méthode V‑BPMI s’appuie sur un modèle de connaissances et est supportée par une architecture,
V‑BPME et un prototype ComAite.

Pratiquement, cette méthode, élaborée dans le cadre d’un partenariat avec l’AP‑HM au sein du projet PERICLES, a été présentée et testée en collaboration
avec des pharmaciens de l’AP‑HM, notamment dans le cadre du processus de circulation du médicament.

Ses publications : ici
Thi quynh giang NGUYEN : Méthodes de Monte-Carlo pour les diffusions discontinues : application à la tomographie par impédance électrique
Le lundi 19 octobre 2015 à 13h45 - amphi ISITV (bâtiment X)
Sous la direction de : MAIRE Sylvain
Cette thèse porte sur le développement de méthodes de Monte-Carlo pour calculer
des représentations Feynman-Kac impliquant des opérateurs sous forme divergence
avec un coefficient de diffusion constant par morceaux. Les méthodes proposées
sont des variantes de la marche sur les sphères à l'intérieur des zones avec un
coefficient de diffusion constant et des techniques de différences finies
stochastiques pour traiter les conditions aux interfaces aussi bien que les
conditions aux limites de différents types. En combinant ces deux techniques,
on obtient des marches aléatoires dont le score calculé le long du chemin fourni
un estimateur biaisé de la solution de l'équation aux dérivées partielles
considérée. On montre que le biais global de notre algorithme est en général
d'ordre deux par rapport au pas de différences finies. Ces méthodes sont ensuite
appliquées au problème direct lié à la tomographie par impédance électrique pour
la détection de tumeurs. Une technique de réduction de variance
est également proposée dans ce cadre. On traite finalement du problème inverse de
la détection de tumeurs à partir de mesures de surfaces à l'aide de deux
algorithmes stochastiques basés sur une représentation paramétrique de la tumeur
ou des tumeurs sous forme d'une ou plusieurs sphères.
De nombreux essais numériques sont proposés et montrent des résultats probants
dans la localisation des tumeurs.

Ses publications : ici
André ABRAME : Max-résolution et apprentissage pour la résolution du problème de satisfiabilité maximum
Le vendredi 25 septembre 2015 à 10h00 - Salle Gérard Jaumes, au rez-de-chaussée du bâtiment Polytech (site de St Jérôme, Marseille)
Sous la direction de : M. Djamal Habet - M. Philippe Jégou
Cette thèse porte sur la résolution du problème d'optimisation Maximum Satisfiability (Max-SAT). Nous y étudions en particulier les mécanismes liés à la détection et à la transformation des sous-ensembles inconsistants par la règle de la max-résolution. Dans le contexte des solveurs de type séparation et évaluation, nous présentons plusieurs contributions liées au calcul de la borne inférieure. Cela va du schéma d'application de la propagation unitaire utilisé pour détecter les sous-ensembles inconsistants à l'extension des critères d'apprentissage et à l'évaluation de l'impact des transformations par max-résolution sur l'efficacité des solveurs. Nos contributions ont permis l'élaboration d'un nouvel outil de résolution compétitif avec les meilleurs solveurs de l'état de l'art. Elles permettent également de mieux comprendre le fonctionnement des méthodes de type séparation et évaluation et apportent des éléments théoriques pouvant expliquer l'efficacité et les limites des solveurs existants. Cela ouvre de nouvelles perspectives d'amélioration, en particulier sur l'augmentation de l'apprentissage et la prise en compte de la structure interne des instances. Nous présentons également un exemple d'utilisation de la règle de la max-résolution dans un algorithme de recherche local.
---

This PhD thesis is about solving the Maximum Satisfiability (Max-SAT) problem. We study the mechanisms related to the detection and transformations of the inconsistent subsets by the max-resolution rule. In the context of the branch and bound (BnB) algorithms, we present several contributions related to the lower bound computation. They range from the study of the unit propagation scheme used to detect inconsistent subsets to the extension of the learning criteria and to the evaluation of the impact of the max-resolution transformations on the BnB solvers efficiency. Thanks to our contributions, we have implemented a new solver which is competitive with the state of art ones. We give insights allowing a better understanding of the behavior of BnB solvers as well as theoretical elements which contribute to explain the efficiency of these solvers and their limits. It opens new development perspectives on the learning mechanisms used by BnB solvers which may lead to a better consideration of the instances structural properties. We also present an example of integration of the max-resolution inference rule in a local search algorithm.

Ses publications : ici
Mouna RAHMOUNI : "optimisation combinée des approvisionnements et du transport dans une chaîne logistique".
Le mardi 15 septembre 2015 à 10h30 - Salle des conférences Polytech Marseille à Saint Jérôme
Sous la direction de : Jean-Claude HENNET
La plupart des politiques de réapprovisionnement périodiques précédemment proposées dans la littérature ne sont pas entièrement déterminées par leurs paramètres en raison des différentes possibilités de mise en place progressive de l'IGS (Indirect Grouping Strategy). Dans cette étude, l'hypothèse classique de livraisons périodiques pour chaque couple (produit, site) a été levée afin de mieux utiliser les degrés de liberté dans le programme de livraison sur un cycle commun, utilisé dans l’optimisation comme horizon de planification. En supposant fixé cet horizon de planification, la formulation proposée pour le modèle de livraison jointe (JDP) prend la forme d'une extension multi-site du problème LSP (lot sizing problem) multi-produits classique mais avec des coûts de set-up majeurs et mineurs. C’est un problème de programmation linéaire mixte (MILP) ayant des variables réelles et des variables binaires. En tant que tel, il est connu comme problème NP-difficile. Le modèle à cycle commun proposé ici permet aussi d’organiser les tournées de livraison, de façon à minimiser la fonction de coût total sur l'horizon de temps, tout en satisfaisant la demande et les contraintes de capacité de transport et de stockage. Pour chaque produit et sur chaque site, les niveaux des stocks à la fin de l’horizon sont imposés égaux aux niveaux initiaux, afin de construire une politique d’approvisionnement qui peut être répétée périodiquement.Le problème d’approvisionnement conjoint (JDP) est un problème de planification des tournées de livraisons sur un horizon de temps décomposé en périodes élémentaires, l’horizon de temps étant la période commune de livraison de tous les produits. La donnée de ces paramètres permet d’obtenir une formulation linéaire du problème, avec des variables de décision binaires. Le modèle intègre aussi des contraintes de satisfaction de la demande à partir des stocks et des quantités livrées, des contraintes sur les capacités de stockage et de transport.

Most periodic replenishment policies previously proposed in the literature are not entirely determined by their parameters because of the different possibilities of gradual introduction of the IGS (Indirect Grouping Strategy). In this study, the classical hypothesis of periodical deliveries for each pair (product, website) was lifted to better utilize the degrees of freedom in the delivery program on a common cycle, used in the optimization as planning horizon. Assuming this planning horizon fixed, the proposed formulation of the joint delivery problem (JDP) takes the form of a multi-site extension of the classical multi-product LSP (lot sizing problem), but with major and minor set-up costs. It is a mixed linear programming problem (MILP) with real variables and binary variables. As such, it is known as a NP-hard problem. The common cycle model proposed here also enables to organize delivery routes, to minimize the total cost depending on the time horizon, while meeting demand and capacity constraints for transport and storage. For each product and each site, the levels of stocks at the end of the horizon are imposed equal to the initial levels in order to build a procurement policy that can be periodically repeated.
The joint delivery problem (JDP) is a delivery tour planning problem on a time horizon decomposed into elementary periods or rounds, the time horizon being the common delivery period for all products. The data of these parameters provides a linear formulation of the problem, with binary decision variables. The model also incorporates the constraints of meeting demand from stock and the quantities supplied, storage and transport capacity constraints.

Ses publications : ici
Jean-charles ANTONIOLI : Spécification de lois de commande pour hélicoptères orientée Qualités de Vol
Le lundi 14 septembre 2015 à 14h00 - Base Aérienne 701 de Salon de Provence
Sous la direction de : OULADSINE Mustapha
Cette thèse s'inscrit dans le domaine de l’étude des lois de commandes de vol pour hélicoptères. Les automaticiens doivent régler les gains de ces lois de manière à respecter au mieux les exigences de Qualités de Pilotage extraites de la norme ADS-33. La norme traduit ces exigences en termes de critères de Qualités de Vol. Ils évaluent la qualité de la stabilité, de l'agilité, et du suivi des consignes du pilote par la machine. Ils traduisent la pilotabilité de l'hélicoptère pour un pilote « moyen » de référence.

A part une technique d’optimisation interactive développée à la NASA et à l'US Army depuis 40 ans, il n’existe pas de méthode appropriée à ce problème. Les réglages sont effectués de manière empirique et itérative. L’ONERA propose une approche méthodologique structurée. L’objectif de la thèse consiste à développer cette méthodologie de manière à gérer deux contraintes supplémentaires par rapport aux capacités des méthodes de synthèse classiques en automatique : la capacité à prendre en compte la structure contrainte des lois de commande et les exigences spécifiques en terme de Qualités de Vol selon la norme ADS-33.

Une technique d'amélioration des Qualités de Vol par analyse de sensibilités entre les gains et les critères est développée. Puis une méthodologie d’initialisation des gains est proposée, via la création et l’utilisation efficace de nouveaux abaques de Qualités de Vol pour modèles équivalents simplifiés. Afin d'améliorer l'efficacité de ce réglage initial, deux contraintes supplémentaires sont prises en compte (énergie et découplage). Enfin, un processus complet de réglage est proposé : initialisation, ajustement linéaire et ajustement non linéaire.

Ses publications : ici
Nesrine BEN BELDI : Modélisation et optimisation des systèmes complexes en conception innovante : application aux chaines de transmission hybrides
Le lundi 07 septembre 2015 à 10h30 - Arts et Métiers Campus de Paris – 151, bd de l’hôpital, 75013 Paris ; l’amphithéâtre Esquillan.
Sous la direction de : Lionel ROUCOULESDans un contexte industriel qui évolue rapidement et constamment, les constructeurs automobiles sont amenés à développer des produits qui soient en adéquation avec des demandes d’un marché international et qui respectent en même te
Dans un contexte industriel qui évolue rapidement et constamment, les constructeurs automobiles sont amenés à développer des produits qui soient en adéquation avec des demandes d’un marché international et qui respectent en même temps les contraintes réglementaires imposées. Les systèmes de chaine de transmission hybrides rentrent donc dans cette volonté des constructeurs à vouloir proposer des produits véhicules performants, à faible coût et respectant les contraintes d’émission de gaz polluants. A travers le travail effectué dans cette thèse, nous proposons une démarche de conception permettant de modéliser un système technique complexe à différents niveaux systémiques au cours du cycle de conception, de l’optimiser localement à partir des expertises métiers, de modéliser les connaissances collaboratives qui sont échangées entre les modèles métiers et d’optimiser l’espace de conception afin de converger vers une solution de conception optimale dans un contexte d’innovation ou nous partons de la feuille blanche.

L’objectif de ce travail est de proposer une nouvelle façon d’aborder les problèmes de conception des systèmes complexes, qui s’adapte au contexte de conception innovante tout comme la conception routinière. Ceci afin de permettre aux entreprises telles que PSA Peugeot Citroën de pouvoir proposer des produits avec des technologies à forte rupture tout en réduisant leurs coûts et garantir leurs images de marque. Ce travail a été illustré et validé à travers les résultats obtenus dans le cadre du projet de conception de chaine de transmission hybride MTI effectué au département d’innovation de PSA Peugeot Citroën.

Ses publications : ici
Mustapha AZNAG : Modélisation thématique probabiliste des services web.
Le vendredi 03 juillet 2015 à 14h30 - salle des conférences Gérard Jaumes du Bâtiment de Polytech Marseille
Les travaux sur la gestion des services web utilisent généralement des techniques du domaine de la recherche d'information, de l'extraction de données et de l'analyse linguistique. Alternativement, nous assistons à l'émergence de la modélisation thématique probabiliste (topic models) utilisée initialement pour l'extraction de thèmes d'un corpus de documents. Ces modèles, tels que LDA (Latent Dirichlet Allocation), CTM (Correlated Topic models), etc., sont un moyen efficace pour traiter de grands volumes de données en découvrant leur structure thématique cachée.
La contribution de cette thèse se situe à la frontière de la modélisation thématique et des services web. L'objectif principal de cette thèse est d'étudier et de proposer des algorithmes probabilistes pour modéliser la structure thématique des services web. Dans un premier temps, nous considérons une approche non supervisée pour répondre à différentes tâches telles que la découverte et le regroupement de services web. Ensuite, nous combinons la modélisation thématique avec l'analyse de concepts formels pour proposer une méthode de regroupement hiérarchique de services web. Cette méthode permet une nouvelle démarche de découverte interactive basée sur des opérateurs de généralisation et spécialisation des résultats obtenus. Enfin, nous proposons une méthode semi-supervisée pour l'annotation automatique (i.e. association de tags) de services web.
Nous avons concrétisé nos propositions par un moteur de recherche en ligne appelé WS-Portal. Notre portail de services contient actuellement 7063 fournisseurs, 115 sous-catégories de services et 22236 services collectés à partir d'Internet. Nous offrons alors différentes fonctions facilitant la gestion de services web, par exemple, la découverte et le regroupement de services web, la recommandation des tags, la surveillance des services, etc. Nous intégrons aussi différents paramètres tels que la disponibilité et la réputation de services web et plus généralement la qualité de service pour améliorer leur classement et donc, la pertinence du résultat de recherche.

Ses publications : ici
Amine MAHIDDINE : Recalage Hétérogène pour la reconstruction 3D de Scènes sous-Marines
Le mardi 30 juin 2015 à 09h30 - L’amphi A du PolyTech Marseille (ESIL Luminy)
Sous la direction de : M. Jean-marc BOÏ, Maître de conférences HDR, Université d'Aix-Marseille. M. Pierre DRAP, Chargé de recherche, CNRS M. Djamal MERAD Maître de conférences, Université d'Aix-Marseille.

Le relevé et la reconstruction 3D de scènes sous-marine deviennent chaque jour plus incontournable devant notre intérêt grandissant pour l’étude des fonds sous-marins. La majorité des travaux existants dans ce domaine sont fondés sur l’utilisation de capteurs acoustiques l’image n’étant souvent qu’illustrative.

Un tel capteur acoustique permettra l’acquisition d’un grand volume de données mais sera souvent inapproprié au relevé de sites complexes, parois verticales, surplomb, grottes, structures industrielles. Le manque d’information colorimétrique peut constituer lui aussi un problème pour l’exploration virtuelle de sites sous-marins. Afin de remédier à ces problèmes, l’utilisation d’un système photogrammétrique a été envisagée. En revanche, un tel système est soumis aux contraintes imposées par la nature du milieu sous-marin (turbidité de l’eau, présence de particules en suspension, diffusion et absorption de la lumière).

L’objectif de cette thèse consiste à développer des techniques permettant la fusion de données hétérogènes issues d’un système photogrammétrique et d’un système acoustique.

Les travaux présentés dans ce mémoire sont organisés en trois parties. La première est consacrée au traitement des données 2D afin d’améliorer les couleurs des images sous-marines pour augmenter la répétabilité des descripteurs en chaque point 2D. Puis, nous proposons un système de visualisation de scène en 2D sous forme de mosaïque.

Dans la deuxième partie, une méthode de reconstruction 3D à partir d’un ensemble non ordonné de plusieurs images a été proposée. Les données 3D ainsi calculées seront fusionnées avec les données provenant du système acoustique dans le but de reconstituer le site sous-marin.

Dans la dernière partie de ce travail de thèse, nous proposons une méthode de recalage 3D originale qui se distingue par la nature du descripteur extrait en chaque point. Le descripteur que nous proposons est invariant aux transformations isométriques (rotation, transformation) et permet de s’affranchir du problème de la multi-résolution. Nous validons à l’aide d’une étude effectuée sur des données synthétiques et réelles où nous montrons les limites des méthodes de recalages existantes dans la littérature. Au final, nous proposons une application de notre méthode à la reconnaissance d’objets 3D.

Mots clés: Traitement d'images sous-marines, Mosaïque, Reconstruction 3D, Recalage hétérogène, Reconnaissance de formes 3D.


Abstract
The survey and the 3D reconstruction of underwater become indispensable for our growing interest in the study of the seabed. Most of the existing works in this area are based on the use of acoustic sensors image.

The acoustic sensor acquires a large amount of data but will it is often inappropriate to survey complex sites, such as: vertical walls, overhangs, caves, industrial structures. The lack of color information can also be a problem for virtual exploration of underwater sites. To address these problems, the use of a photogrammetric system was considered. However, such a system is subject to the constraints imposed by the nature of the underwater environment (water turbidity, presence of suspended particles, scattering and absorption of light).

The objective of this thesis is to develop techniques for the fusion of heterogeneous data from a photogrammetric system and an acoustic system.

The presented work is organized in three parts. The first is devoted to the processing of 2D data to improve the colors of the underwater images, in order to increase the repeatability of the feature descriptors. Then, we propose a system for creating mosaics, in order to visualize the scene.

In the second part, a 3D reconstruction method from an unordered set of several images was proposed. The calculated 3D data will be merged with data from the acoustic system in order to reconstruct the underwater scene.

In the last part of this thesis, we propose an original method of 3D registration in terms of the nature of the descriptor extracted at each point. The descriptor that we propose is invariant to isometric transformations (rotation, transformation) and addresses the problem of multi-resolution.

We validate our approach with a study on synthetic and real data, where we show the limits of the existing methods of registration in the literature. Finally, we propose an application of our method to the recognition of 3D objects.

Keywords: Underwater image processing, mosaicing, 3D reconstruction, Heterogeneous 3D registration, 3D object recognition.

Ses publications : ici
Yannick LUFIMPU-LUVIYA : Analyse multimodale des consommateurs dans une surface de vente
Le lundi 29 juin 2015 à 14h00 - Amphithéâtre de l'Institut Universitaire de Technologie d'Aix-Marseille, sur le campus de Luminy.
Sous la direction de : M. Bernard FERTIL

Actuellement, sept décisions d’achat sur dix sont réalisées dans des
points de vente physiques. Par ailleurs, la majorité de ces actes
d’achat est intimement liée aux habitudes des clients. De cefait,
l'étude du parcours et des déplacements de ces derniers dans les points
de vente mais également l'analyse de la positions du regard dans les
linéaires constituent des supports clés pour pouvoir appréhender avec
davantage de finesse les décisions d'achat. Il est donc capital pourun
industriel de la distribution de disposer de ce panel d’informations
afin d’optimiser sa stratégie de commercialisation.
En ce sens, cette thèse propose une analyse multimodale des
consommateurs dans une surface de vente. Dans un premier temps, nous
effectuons la reconnaissance de deux caractéristiques du client àsavoir
sa tranche d’âge et son genre, en utilisant des descripteursde texture
faciale. L'identification des tranches d’âge est mise en exergue grâce à
un modèle hybride régression/classification. Dans une seconde partie,
nous effectuons une analyse prédictive du degré ainsi que de laclasse
d’indécision des consommateurs. Cette analyse s'appuie sur des
descripteurs oculométriques et des descripteurs de préhension,mais
également des machines à vecteurs de support et un modèle de Markov
caché. En troisième lieu, nous modélisons différentessituations
d’achat. Les modèles d’identification des situationsd’achat sont
construits en minimisant l’influence du facteur temps. Cette thèse a été
initiée au sein du projet ANR ORIGAMI2 : Observation du Regard et
Interprétation du Geste pour une Analyse Marketing non Intrusive.

Mots clés : Apprentissage/classification, Reconnaissance de formes,
oculométrie, marketing comportemental, psychologie cognitive.


Abstract
Currently, seven out of ten buying decisions are made at physical points
of purchase. Furthermore, the majority of these purchasing actions is
intimately related to customers’ habits. As a result, the study of paths
and movements in points of sales and the study of gaze position on store
shelves are key bearing points for a better understanding of purchasing
decisions. It is important for major retailers to get these information
so as to define their commercial strategy.
In that sense, this thesis proposes a multimodal analysis of customers
in a selling area. In the first part, we made the identification of
physiologist patterns such: gender and age bands. We perform, using
facial texture descriptors, the identification of two physiological
patterns of the customer: gender and age band. The identification of age
band is highlighted thanks to a hybrid model based on regression and
classification algorithms. In the second part, we made a predictive
analysis of the customer’s indecisiveness degree and indecisiveness
class. This analysis relies on eye-tracking descriptors and gesture
descriptors, and on support vector machines and a hidden Markov model.
In a third part, we model several decision making situations. The
identification models are built minimizing the influence of the time
factor. This thesis was initiated within the behavioral marketing
project ORIGAMI2: observation of gaze and interpretation of gesture for
a non-intrusive marketing analysis (Observation du Regard et
Interprétation du Geste pour Analyse Marketing non-Intrusive).

Keywords: machine learning/classification, pattern recognition,
behavioral marketing, cognitive psychology, behavioral marketing.

Ses publications : ici
Mohamad CHAKAROUN : Identification de la source de défaut dans une ligne de production du semi-conducteur
Le lundi 29 juin 2015 à 10h00 - salle des conférences Gérard Jaumes - Bâtiment du département GII de Polytech Marseille, campus de Saint-Jérome
Sous la direction de : Mustapha Ouladsine
Un système de production High-Mix Low-Volume est caractérisé par une grande variété de technologies, des faibles volumes de production, et des produits de courte durée de vie. L’introduction de la technique d’échantillonnage dynamique à ce système de production a permis un gain important sur le rendement de production. Cet échantillonnage est basé, en temps réel, sur les états des équipements et sur l’ensemble des produits en cours de fabrication. Les méthodes classiques d’analyse des rendements, nécessitant un grand nombre de mesure par produit, ne sont plus aussi performantes. Afin d’adapter le diagnostic au nouvel environnement de production, les travaux de cette thèse proposent une approche de diagnostic qui consiste à localiser l'équipement à l'origine de défauts dans une ligne de fabrication du semi-conducteur. Elle est composée de trois modules principaux. Le premier module est constitué d’une méthode d’identification de l’équipement en mode de fonctionnement anormal. Cette méthode est basée sur l’analyse d’éléments communs. Le deuxième est un module de tri de données. Un algorithme d’alignement de séquences a été utilisé afin de comparer les caractéristiques des échantillons et calculer le taux de similarité. Le troisième module est l’échantillonnage réactif pour le diagnostic. Cet échantillonnage est basé sur un modèle d’optimisation linéaire qui permet de trouver l’équilibre entre le nombre d’échantillons et le temps d’analyse. L’approche proposée est validée sur des données expérimentales issues de la ligne de fabrication de la compagnie STMicroelectronics à Rousset-France.

Mots clés: High-Mix Low-Volume, Localisation de la source de défauts, Analyse des éléments communs, Alignement de séquences, Programmation linéaire.

Ses publications : ici
Laurent GAJNY : Approximation de fonctions et de données discrètes au sens de la norme L1 par splines polynomiales
Le vendredi 15 mai 2015 à 10h00 - Paris ENSAM
Sous la direction de : Olivier GIBARU Eric NYIRI
L'approximation de fonctions et de données discrètes est fondamentale dans des domaines tels que la planification de trajectoire ou le traitement du signal (données issues de capteurs). Dans ces domaines, il est important d'obtenir des courbes conservant la forme initiale des données. L'utilisation des splines L1 semble être une bonne solution au regard des résultats obtenus pour le problème d'interpolation de données discrètes par de telles splines. Ces splines permettent notamment de conserver les alignements dans les données et de ne pas introduire d'oscillations résiduelles comme c'est le cas pour les splines d'interpolation L2. Nous proposons dans cette thèse une étude du problème de meilleure approximation au sens de la norme L1. Cette étude comprend des développements théoriques sur la meilleure approximation L1 de fonctions présentant une discontinuité de type saut dans des espaces fonctionnels généraux appelés espace de Chebyshev et faiblement Chebyshev. Les splines polynomiales entrent dans ce cadre. Des algorithmes d'approximation de données discrètes au sens de la norme L1 par procédé de fenêtre glissante sont développés en se basant sur les travaux existants sur les splines de lissage et d'ajustement. Les méthodes présentées dans la littérature pour ces types de splines peuvent être relativement couteuse en temps de calcul. Les algorithmes par fenêtre glissante permettent d'obtenir une complexité linéaire en le nombre de données. De plus, une parallélisation est possible. Enfin, une approche originale d'approximation, appelée interpolation à delta près, est développée. Nous proposons un algorithme algébrique avec une complexité linéaire et qui peut être utilisé pour des applications temps réel.

Ses publications : ici
Diego HOLLMANN : Translation and Systematic and Automatic Validation of DEVS Abstracts Models
Le vendredi 06 mars 2015 à 10h00 - Rosario, Argentine
Sous la direction de : Claudia Frydman, Maximiliano Cristia
This thesis presents two original contributions on the modeling and simulation field, more precisely, of models based on the DEVS formalism.

The first contribution is a language that allows the description of DEVS abstract models (based on mathematics and logic) and later can be translated automatically into different simulation languages. This allows describing a DEVS model without having to know the input language of the target simulation tool. In general, models are written directly in the concrete language or the translation of the abstract model to a concrete model (in the simulator) is done manually. Both alternatives are error prone during the modeling phase and requires the specialist having programming skills or he or she needs someone to translate its models. Then, with the modeling language proposed, the insertion of errors during the modeling phase is avoided and, on the other hand, allows the specialist to describe its models without knowing any particular programming language. Moreover, it allows using several simulation tools to simulate the model.

The second contribution is a new methodology to rigorously and systematically val- idate DEVS models allowing the semi-automation of this process. In general, DEVS models are validated through simulation, comparing the behavior and the results against the requirements of the system being modeled. The number of simulation scenarios is usually infinite, therefore, selecting which scenarios must be simulated be- comes a crucial task. The selected scenarios must include those that can reveal possible errors in the model, leaving no aspect of the model without analyzing and excluding redundant scenarios, turning the validation task in an efficient process (number of er- rors found over the number of simulations performed). This selection, is currently done by following the experience or intuition of an specialist. The methodology presented in this thesis is based on a family of simulation criteria to guide the selection of simu- lation scenarios in a disciplined way covering the most significant simulation. This is achieved by analyzing the mathematical and logical structure of the DEVS model. To automate this process, it is necessary that the model be described in its most abstract form, possibly, using the modeling language presented in this thesis.


















Ses publications : ici
Juan esteban MOTA CRUZ : control and fault diagnosis of fuel cells
Le dimanche 21 decembre 2014 à 10h00 - ENSAM
Sous la direction de : CARMONA Jean-Claude, ALVARADO Victor

Ses publications : ici
Mouna ABARKAN : Modélisation et Analyse du comportement d'un Bâtiment équipé d'un Système Multi Sources d'énergie Le résumé est ci joint
Le vendredi 19 decembre 2014 à 10h00 - Université de Fès
Sous la direction de : M'SIRDI Nacer - NAAMANE Aziz
La problematique est d'etudier la gestion d'un systeme multi-energies, en fonction de la
demande, dedie au b^atiment en milieu urbain. L'energie peut ^etre fournie par des panneaux photovolta
ques, une eolienne, des capteurs thermiques et peut ^etre stockee dans des batteries et une pompe
a chaleur. L'etude de ces systemes complexes necessite une bonne strategie de contr^ole, de commande
et la mise au point de methodes de gestion ecace.
Le travail consiste a realiser un modele able et une simulation (realiste en temps reel) du systeme
multi-sources et d'un b^atiment de trois pieces, avec di erentes charges domestiques, comme une machine
a laver, un congelateur, un refrigerateur et des systemes de chau age, en demandes d'energie
et puissance electrique. Un systeme de gestion des sources d'energie qui permet d'ajuster et d'optimiser
la consommation d'une facon adaptee aux ressources energetiques disponibles tout en satisfaisant
la demande et maximisant le confort des occupants dans le b^atiment est ensuite etudie. Ainsi, la
de nition d'outils d'analyse permettra d'etudier le probleme de la gestion de l'energie pour reduire la
consommation d'energie primaire et baisser la production de gaz a e et de serre tout en couvrant les
besoins energetiques et en repondant a la demande.
Apres un etat de l'art, le besoin en energie d'un b^atiment et ses charges, en temps reel, est etudie
pour developper un modele de simulation (chapitre 2). Ensuite, dans le chapitre 3, le b^atiment est
couple a un systeme multi-sources pour la production de l'energie necessaire a la demande. L'avant
dernier chapitre est dedie a l'amelioration de la poursuite du point de production maximale d'energie
qui peut ^etre fournie par le generateur PV, en exploitant des techniques d'observation et de commande
pour Systemes Automatises a Structure Variable. La production d'energie est couplee, en plus des
charges d'utilisation domestique, a un stockage sur batterie. Ces m^emes techniques SASV sont ensuite
exploitees, dans le dernier chapitre, pour l'observation, l'estimation et la prediction des reserves et la
gestion de l'energie stockees sur batterie.


Abstract:
The studied problem is the management of a multi-energy systems dedicated to buildings
and their loads in urban areas. The energy can be supplied by photovoltaic panels, wind turbines,
solar thermal collectors and can be stored in batteries. Such systems requires a good strategy for
monitoring, control and e ective management. This needs a good strategy which is based on ecient
systems modeling and analysis.
In a rst step we develop a reliable model of a building composed by three rooms and various
domestic loads such as washing machine, freezer, refrigerator and some electrical power demands.
In order to develop optimized solutions for multiple sources used in urban areas, we develop a realtime
simulation model of an example of a realistic system. Thus, the de nition of analytical tools to
study the problem of energy management allows to reduce primary energy consumption and lower the
production of greenhouse gases while covering the energy needs answering demand.
After a short state of the art, the building energy requirement and expenses, are studied and a real
time simulation model is developed in chapter two. In the third chapter, the building is connected
to a multiple sources system to produce the required energy. Then a proposed controller is applied
for energy management. Chapter 4 is dedicated to improve the Maximum Power Point Tracking for
the PV generator, exploiting techniques of Variable Structure Systems for observation and control.
Energy production is coupled, for domestic uses, to battery storage (for short and long durations).
These same VSAS technique is then used in Chapter 5, for observation, estimation, prediction and
management of stored energy.

Ses publications : ici
Nadim EL HAYEK : Contribution à la reconstruction de surfaces complexes à partir d'un grand flot de données non organisées pour la métrologie 3D
Le jeudi 18 decembre 2014 à 10h00 - ENSAM Lille
Sous la direction de : GIBARU Olivier
Les surfaces complexes ont des applications dans divers domaines tels que ceux de la photonique, de l'énergie, du biomédical, du transport... Par contre, elles posent de véritables défis quant à leur spécification, fabrication et mesure ainsi que lors de l'évaluation de leur défaut de forme. Les processus de fabrication et de mesure de surfaces complexes sont fortement tributaires des dimensions, des tolérances et des formes spécifiées. Afin de rendre exploitable les informations données par le système de mesure, une étape importante de traitement s'impose. Il s'agit ici de la reconstruction de surfaces afin de reconstituer la géométrie et la topologie de la surface sous-jacente et d'en extraire les informations nécessaires pour des besoins de métrologie dimensionnelle (caractéristiques dimensionnelles et évaluation des défauts de forme). Dans la catégorie des surfaces asphériques pour lesquelles un modèle mathématique est associé, le processus de traitement de données géométriques, non nécessairement organisées, se fait par l'association du modèle aux données. Les résidus d'association recherchés en optique sont typiquement de l'ordre du nanomètre. Dans ce cadre, nous proposons l'utilisation de l'algorithme L-BFGS qui n'a encore jamais été utilisé en métrologie. Ce dernier permet de résoudre des problèmes d'optimisation non-linéaires, sans contraintes et d'une manière robuste, automatique et rapide. La méthode L-BFGS reste efficace pour des données contenant plusieurs millions de points. Dans la catégorie des surfaces gauches et notamment des aubes de turbines, la fabrication, la mesure et le traitement sont à une toute autre échelle, sub-micrométrique. Les surfaces gauches ne sont généralement pas définies par un modèle mathématique mais sont représentées par des modèles paramétriques de type B-Spline et/ou NURBS. Dans ce cadre, nous exposons un état de l'art détaillé et proposons une nouvelle approche itérative d'association B-Spline. L'algorithme s'affranchit de tous les problèmes liés à l'initialisation et au paramétrage initial. Par conséquent, un tel algorithme constitue une nouveauté dans ce domaine. Nous établissons une étude approfondie en évoquant les avantages et les limites actuelles de cette approche sur des exemples de courbes fermées en 2D. Nous complétons ensuite cette étude par des perspectives d'amélioration et de généralisation aux surfaces en 3D.

Ses publications : ici
Yann DOH : l'identification acoustique des cétacés. Application à la surveillance de la biodiversité du littoral PACA et prévention des risques dus aux activités humaines liées à l'urbanisation des côtes
Le mercredi 17 decembre 2014 à 10h00 - Toulon, Provence, France
Sous la direction de : GLOTIN Hervé

Ses publications : ici
Diogone SYLLA : Fusion de données provenant de différents capteurs satellitaires pour le suivi de la qualité de l'eau en zones côtières. Application au littoral de la région PACA
Le mardi 16 decembre 2014 à 10h00 - Touon
Sous la direction de : MINGHELLI-ROMAN Audrey

Ses publications : ici
Benjamin BOUDON : Méthodologie de modélisation des systèmes mécatroniques complexes à partir du multi-bond graph : application à l’hélicoptère
Le vendredi 12 decembre 2014 à 10h00 - amphi 1 du centre d’Aix-en-Provence d’Arts-et-Métiers PARISTECH
Sous la direction de : CARMONA jean-Claude - MALBURET Francois
Le jury sera composé de :



Rapporteurs :



M. Wilfrid MARQUIS-FAVRE - Professeur des universités, Laboratoire AMPERE, INSA de Lyon

M. Olivier VERLINDEN - Professeur des universités, Laboratoire ISMR, Université de Mons (Belgique)



Examinateurs :



M. Wolfgang BORUTZKY - Professeur des universités, Bonn-Rhein-Sieg University of Applied Sciences (Allemagne)

M. Rogelio FERRER – Ingénieur-Docteur, Airbus Helicopters



Directeurs de thèse :



M. Jean-Claude CARMONA – Professeurs des universités, Laboratoire LSIS, Arts-et-Métiers ParisTech

M. François MALBURET – Maître de conférence, Laboratoire LSIS, Arts-et-Métiers ParisTech



Résumé : De par le fonctionnement de son rotor, l’hélicoptère est le siège de vibrations mécaniques importantes impactant notamment la fatigue des pièces mécaniques et le confort des passagers. La liaison BTP-Fuselage équipée du système SARIB est un système anti-vibratoire qui permet d’atténuer mono-fréquentiellement les vibrations transmises au fuselage. Des solutions intelligentes semi-actives sont donc étudiées afin que la filtration soit réglable en fonction des vibrations excitatrices. Ce type d’études souffre, par contre, d’un manque d’outils et de méthodes indispensables, d’une part, à la modélisation de systèmes mécaniques complexes et d’autre part, à l’élaboration d’une liaison intelligente. Ces travaux proposent une démarche de modélisation à partir d’un outil de modélisation structurel tel que le multi-bond graph (MBG) permettant une vision globale et modulaire pour l’étude de systèmes mécaniques complexes tels qu’on peut les trouver sur un hélicoptère. Dans un premier temps, une analyse des outils de modélisation conduisant au choix du MBG a été présentée. Dans un second temps, les développements ont porté sur la modélisation MBG de la liaison BTP/ Fuselage 3D d’un banc d’essai réel qui a été conçu et réalisé au sein du laboratoire. Cette liaison est un système mécanique cinématiquement bouclé. Les équations de la dynamique d’un tel système forment un système d’équations algébro-différentiel (DAE) nécessitant des techniques de résolution spécifiques. Le modèle MBG de la liaison BTP-fuselage entier a été simulé à l’aide du logiciel 20-sim. Les résultats obtenus ont été vérifiés à l’aide du logiciel multicorps LMS Virtual Lab. Une comparaison des résultats obtenus par les deux méthodes a donné, pour différents cas d’excitations de la BTP (pompage, roulis, tangage), une corrélation très satisfaisante. Dans un troisième temps, le modèle MBG a été exploité pour la mise en place d’un dispositif de contrôle semi-actif. Le modèle du dispositif SARIB développé également sous 20-sim permet de régler la position des masses mobiles en fonctionnement de manière à minimiser le niveau de vibratoire du fuselage. L’algorithme de contrôle (algorithme de gradient) permet de calculer les consignes de position des masses mobiles sur les batteurs SARIB. La position des masses mobiles actionnée par un moteur électrique à courant continu et un système vis-écrou est ensuite asservie aux consignes générées par l’algorithme de contrôle. Enfin, la commande a pu être mise en place sur un modèle bond graph non-linéaire qui n’a pas nécessité une linéarisation en vue d’une transformation en fonction de transfert.



Mots clés : multi-bond graph/ systèmes multi-corps/ modélisation multi-corps/ systèmes mécaniques cinématiquement bouclés/ mécatronique/ vibrations/ aéronautique.

Ses publications : ici
Ismaïl FAKHFAKH : Modeling and Diagnosis of Dynamic Process from Timed Observations : Application to Hydraulic Dam,
Le mercredi 10 decembre 2014 à 14h30 - salle Gérard Jaumes du Département GII de Polytech'Marseille
Sous la direction de : LE GOC Marc - TORRES-GIRARDIN Lucile
Le jury est composé de:
M. Guillaume Deffuant, DR au LISC (IRSTEA de Clermont-Ferrand), Rapporteur
M. Christophe Gonzales, PR au LIP6, UPMC, Rapporteur
Mme Louise Travé-Massuyès, DR au LAAS, Examinatrice
M. Laurent Peyras, Ingénieur en Chef des Ponts, des Eaux et des Forêts à l'IRSTEA Aix-En-Provence, Examinateur
Mme Corine Curt, Ingénieur de Recherche (HDR) à L'IRSTEA Aix-En-Provence, Tutrice de thèse
M. Marc Le Goc, PR au LSIS, AMU, Directeur de thèse
Mme Lucile Torres-Gérardin, MCF au LSIS, AMU, Co-directrice de thèse
Résumé
Cette thèse concerne le diagnostic de processus dynamiques basé sur la Théorie des Observations Datées,
une théorie mathématique conçue pour la modélisation et le raisonnement à partir de données datées. Les
contributions présentées dans ce mémoire sont 1) une extension de la méthodologie d'ingéniérie des con-
naissances TOM4D (Timed Observation Modeling for Diagnosis) aux réseaux de processus dynamiques, 2)
l'algorithme temps réel et any-time TOM4E (Timed Observation Management for Explanation) qui utilise
les modèes TOM4D pour diagnostiquer les comportements dans un réseau de processus dynamiques à
partir de données datées et 3) l'application de TOM4D et TOM4E au diagnostic du barrage hydraulique
des Sapins (France), un problème particulièrement difficile. TOM4D est une approche de diagnostic à
partir de multiples modèles dirigée par la syntaxe où l'introduction de la sémantique est contrôlée par la
combinaison de l'approche conceptuelle de CommonKADS au tétraèdre des états de la physique newtoni-
enne. Les fonctions Detect, Describe et Explain de TOM4E utilisent les modèles d'observation déduits des
modèles de comportement de TOM4D pour identifier les comportements potentiels des processus. Pour
des raisons de simplicité, la présentation de TOM4D et de TOM4E est effectuée à l'aide d'un exemple
didactique tiré de la littérature spécialisée dans le domaine du diagnostic. L'application au diagnostic
du barrage des Sapins démontre l'intérêt de l'approche : leur usage aurait permis d'identifier le premier
problàme huit ans avant sa quasi-destruction, la présence d'eau étant mise en évidence sept ans avant.

Mots clés : Diagnostic à base de Modèles Multiples, Modélisation de réseau de processus dynamiques,
Ingéniérie des connaissances, Barrage hydraulique

Abstract
This thesis proposes a diagnosis approach of dynamic process based on the Timed Observation Theory,
a mathematical framework for modeling and reasoning about dynamic process from timed data. The
contributions of this works are i) an extension of the TOM4D (Timed Observation Modeling for Diagnosis)
Knowledge Engineering methodology to networks of dynamic processes, ii) a real-time and any-time
diagnosis algorithm called TOM4E (Timed Observation Management for Explanation) that uses the
TOM4D models to diagnose behaviors in a network of dynamic processes and iii) the application of
TOM4D and TOM4E to the diagnosis of the French Sapin's hydraulic dam, a particularly difficult real-
world diagnosis problem. TOM4D is a is a primarily syntax-driven approach of Multi-Model Based
Diagnosis where semantic content is introduced in a gradual and controlled way through the combination
of the CommonKADS conceptual approach and the Tetrahedron of States of Newton's physical laws.
TOM4E algorithm is based on the Dectect, Describe and Explain functions which uses observation models
translated from the TOM4D behavioral models. For simplicity reasons, the presentation of TOM4D and
TOM4E is made with a unique didactic example provided from the literature of the diagnosis domain.
The example of Sapin's dam makes the demonstration of the interest of the proposed approach: using
them, the first Sapin's dam problem would have been identified eight years before its quasi-failure, and
the presence of water being highlighted seven years before.

Keywords: Multi Model Based Diagnosis, Network of Dynamic Process Modeling, Knowledge Engi-
neering, Hydraulic Dam

Ses publications : ici
Anis REZGUI : Rôle d'une université numérique dans la structuration d'un territoire : une mise en oeuvre possible pour la tunisie.
Le lundi 08 decembre 2014 à 10h00 - Faculté de St Jérôme - Marseille
Sous la direction de : AGOSTINELLI Serge

Ses publications : ici
Donia TOUMI GATFAOUI : Analyse de conflits et méthodes incomplètes pour la satisfiabilité propositionnelle
Le jeudi 04 decembre 2014 à 14h00 - salle des conférences Gérard Jaumes du bâtiment Polytech Marseille (site de Saint-Jérôme)
Sous la direction de : JEGOU Philippe - HABET Djamal
- Chu Min Li (Rapporteur), Professeur à l'Université de Picardie Jules Verne
- Lakhdar Saïs (Rapporteur), Professeur à l'Université d'Artois
- Michel Vasquez (Examinateur), Enseignant-Chercheur HDR à l’École des
Mines d'Alès
- Phillipe Jégou (Directeur de thèse), Professeur à Aix-Marseille Université
- Djamal Habet (Co-Directeur de thèse), Maître de conférences à
Aix-Marseille Université
Résumé de la thèse :

Les progrès importants autour de la résolution pratique du problème de
satisfiabilité (SAT) permettent aujourd'hui de traiter avec succès des
instances de grande taille et de différents types, structurées et
aléatoires.
Dans ce contexte, l'un des objectifs de cette thèse est de contribuer
à la compréhension du comportement empirique de la composante
d'analyse de conflits des solveurs SAT de type CDCL (Conflict-Driven
Clause Learning), dédiés essentiellement à la résolution des instances
structurées. Cette composante est primordiale car elle détermine les
niveaux retours-arrières dans l'arbre de recherche et génère les
clauses qui sont apprises lors de la résolution.
Le deuxième objectif de nos travaux de recherche s'intéresse aux
méthodes de recherche locale pour SAT. D'une part, nous présentons un
algorithme de recherche locale basé sur Walksat et guidé par l'analyse
de conflits afin d'exploiter les dépendances entre les variables
particulièrement présentes dans des instances structurées et
d'accroître l'effet de la propagation unitaire. D'autre part, nous
élaborons un autre algorithme de recherche locale basé sur la notion
de Configuration Checking et dédié à la résolution des instances k-SAT
aléatoires.

--

Ses publications : ici
Achref EL MOUELHI : Classes polynomiales pour CSP : de la théorie à la pratique
Le mercredi 03 decembre 2014 à 10h15 - Salle Gérard Jaumes, bâtiment Polytech
Sous la direction de : JEGOU Philippe - TERRIOUX Cyril
Jury :
-Mr Philippe JEGOU Directeur de thèse
-Mr Christophe LECOUTRE Rapporteur
-Mr Thomas SCHIEX Rapporteur
-Mme Christine SOLNON Examinatrice
-Mr Cyril TERRIOUX Directeur de thèse
Résumé :

Les travaux de recherche de ma thèse portent sur l'analyse des classes polynomiales et leur applicabilité pour la résolution pratique de problèmes de satisfaction de contraintes (CSP) à domaines finis. Les travaux s'articulent en deux parties principales. Dans la première partie, nous proposons dans un premier temps plusieurs formes de microstructures pour les CSP d'arité quelconque. Il s'agit là d'outils théoriques qui doivent faciliter l'étude des classes polynomiales quand les contraintes ne sont pas uniquement binaires.

Dans un second temps, nous proposons de nouvelles classes polynomiales de CSP dont la mise en évidence doit permettre d'une part de contribuer à l'explication, pour partie, de l'efficacité pratique des solveurs de l'état de l'art, mais aussi, d'offrir des perspectives d'intégration simple dans ces solveurs. Cela passe notamment par la définition de nouvelles classes polynomiales traitables directement par les solveurs, sans recours comme c'est le cas traditionnellement, à des algorithmes ad hoc. Ces nouvelles classes polynomiales sont liées notamment au nombre de cliques maximales présentes dans les microstructures de CSP binaires ou non binaires.

Dans la dernière partie, nous nous intéressons à la présence d'instances appartenant à des classes polynomiales dans les benchmarks classiques utilisés par la communauté CP. Nous étudions en particulier la classe BTP et une extension de BTP que nous proposons pour les contraintes d'arité quelconque. Nous introduisons pour cela un cadre formel et nous développons le concept de classe polynomiale cachée que nous exploitons ensuite d'un point de vue expérimental.

Ses publications : ici
Idris IGOULALENE : Développement d’une approche floue multicritère d’aide à la coordination des décideurs pour la résolution des problèmes de sélection dans les chaines logistiques
Le mardi 02 decembre 2014 à 10h00 - salle des conférences Gérard Jaumes de Polytech Marseille
Sous la direction de : BENYOUCEF Lyes
Jury :
Mr François Peres : Professeur à l’Ecole Nationale d'Ingénieurs de Tarbes. (Rapporteur)

Mr Farouk Yalaoui : Professeur à l’Université de Technologie de Troyes. (Rapporteur)

Mme Valerie Botta-Genoulaz : Professeur à l’INSA Lyon. (Examinateur)
Mr Jean-Claude Hennet : Directeur de Recherche au CNRS. (Examinateur)

Mme Marie-Anne Ledain : Maitre de Conférences HDR à l’INP Grenoble. (Examinateur)

Lyes Benyoucef : Professeur à Aix-Marseille Université. (Directeur de thèse)


Les entreprises, qui par le passé se sont senties protégées de la concurrence étrangère à bas prix, constatent de plus en plus qu'elles doivent non seulement créer de la valeur pour leurs clients, mais garantir des prix inférieurs à ceux proposés par la concurrence. Fournir le produit et/ou le service désiré par le client, plus rapidement, à moindre coût et de manière plus performante que les autres est de nos jours le souci majeur de chaque entreprise à l'échelle locale et/ou internationale. Dans ce contexte, la coordination entre les différents décideurs d'une entreprise/chaîne logistique est certainement l'un des facteurs clés de la réussite.


De plus en plus, le management des chaînes logistiques est une tâche complexe nécessitant l'intervention de plusieurs décideurs/experts de différents services avec, le plus souvent, différents objectifs. Par conséquent, il est plus que nécessaire de mettre en place des outils d'aide à la coordination entre décideurs pour obtenir le meilleur pilotage possible de la chaîne.


Dans le cadre de cette thèse, notre objectif est de développer une approche multicritère d'aide à la coordination des décideurs pour la résolution des problèmes de sélection dans les chaines logistiques. En effet, nous considérons le cas où nous avons k décideurs/experts notés ST1,…,STk qui cherchent à classer un ensemble de m alternatives/choix notées A1,…,Am évaluées en termes de n critères conflictuels notés C1,..., Cn. L'ensemble des données manipulées est flou. Chaque décideur est amené à exprimer ses préférences pour chaque alternative par rapport à chaque critère à travers une matrice dite matrice des préférences. Notre approche comprend principalement deux phases, respectivement une phase de consensus qui consiste à trouver un accord global entre les décideurs et une phase de classement qui traite le problème de classement des différentes alternatives.


Comme résultats, pour la première phase, nous avons adapté deux mécanismes de consensus, le premier est basé sur l'opérateur mathématique neat OWA et le second sur la mesure de possibilité. De même, nous avons développé un nouveau mécanisme de consensus basé sur la programmation par but goal programming. Pour la phase de classement, nous avons adapté dans un premier temps la méthode TOPSIS et dans un second, le modèle du goal programming avec des fonctions de satisfaction. Pour illustrer l'applicabilité de notre approche, nous avons utilisé différents problèmes de sélection dans les chaines logistiques comme la sélection des systèmes de formation, la sélection des fournisseurs, la sélection des robots et la sélection des entrepôts.


Ses publications : ici
Chirine WOLLEY : Apprentissage Supervisé à Partir de Multiples Annotateurs Incertains
Le lundi 01 decembre 2014 à 14h00 - Salle de conference G. Jaumes - LSIS St Jérôme
Sous la direction de : QUAFAFOU Mohamed
Jury :
Younes Bennani (Professeur, Université Paris Nord) - Rapporteur
Philippe Leray (Professeur, Université de Nantes) - Rapporteur

Thierry Artière ( Professeur, Université d'Aix-Marseille) - Examinateur
Faicel Chamroukhi (Maitre de Conférences, Université de Toulon) - Examinateur

Jean Sallantin (Directeur de Recherche, Université de Montpellier) - Examinateur


Mohamed Quafafou (Professeur, Université d'Aix-Marseille) - Directeur de thèse

Ses publications : ici
Valentin LEONARDI : Modélisation dynamique et suivi de tumeur dans le volume rénal
Le jeudi 13 novembre 2014 à 10h30 - amphi A de Polytech Sud sur le campus de Luminy
Sous la direction de : Daniel Marc, Mari Jean-Luc
Le jury sera composé de :

Rapporteurs :
Jacques de Guise, Professeur, ETS Montréal
Behzad Shariat, Professeur, Université Claude Bernard Lyon 1

Examinateurs :
Stefanie Hahmann, Professeur, INP Grenoble
Jocelyne Troccaz, Directrice de Recherche CNRS, TIMC-IMAG Grenoble
Vincent Vidal, Professeur, AP-HM et Aix-Marseille Université

Directeurs :
Marc Daniel, Professeur, Aix-Marseille Université
Jean-Luc Mari, Maître de Conférences HDR, Aix-Marseille Université


Résumé :

Ce travail de thèse porte sur la modélisation dynamique 3D du rein et le suivi d?une tumeur de cet organe. Il s?inscrit dans le projet KiTT (Kidney Tumor Tracking) qui regroupe des chercheurs issus de plusieurs domaines : la modélisation géométrique, la radiologie et l?urologie. Le cadre de cette thèse suit une tendance de mini-invasivité des gestes chirurgicaux observée ces dernières années (HIFU, coelioscopie). Sa finalité est d?aboutir à un nouveau protocole de destruction de tumeurs rénales totalement non-invasif, par la diffusion d?agents physiques (ondes d?ultrasons) à travers la peau et focalisés sur la tumeur. Devant le mouvement et la déformation que le rein présente au cours du cycle respiratoire, la problématique de ces travaux de recherche est de connaître en permanence la position de la tumeur afin d?ajuster à moyen terme la diffusion des ondes en conséquence.

Les travaux présentés suivent un processus logique qui se décompose en trois étapes. Dans un premier temps, nous proposons une méthode de détection de l?organe par croissance de région afin de déterminer les bords du rein dans l?ensemble des coupes d?une acquisition IRM ou scanner. Le nuage de points ainsi obtenu est ensuite injecté en entrée d?un algorithme de reconstruction 3D dans le but d?obtenir un modèle surfacique et triangulé. Cette première étape est réalisée pour la phase d?inspiration, la phase médiane et la phase d?expiration. La deuxième étape consiste à générer un modèle dynamique à partir des trois modèles statiques en fusionnant leurs topologies via une approche de mesh morphing entièrement automatique. Ce formalisme prend le contre-pied des méthodes existantes dans le domaine en s?appuyant uniquement sur des informations géométriques. Enfin, les approximations inhérentes aux méthodes d?interpolation sont traitées par des contraintes adjointes au mesh morphing, établies en exploitant les informations de courbures discrètes des modèles. Nous présentons les résultats obtenus en fin de manuscrit et nous les validons en estimant l?erreur intrinsèque du modèle dynamique inférieure à la marge de sécurité prise par les praticiens lors d?une intervention.

Mots-clés : modélisation géométrique, maillage, segmentation, IRM, scanner, reconstruction 3D, modélisation dynamique, morphing, courbures discrètes.


------------------------------------------------------------
Abstract :

This Ph.D. thesis deals with the 3D dynamic modeling of the kidney and tracking a tumor of this organ. It is in line with the KiTT project (Kidney Tumor Tracking) which gathers researchers from different fileds: geometric modeling, radiology and urology. This work arised from the tendency of nowadays surgical gestures to be less and less invasive (HIFU, coelioscopy). Its goal is to result in a totally non-invasive protocol of kidney tumors eradication by transmitting ultrasound waves through the skin without breaking in it. As the kidney presents motions and deformations during the breathing phase, the main issue is to know the kidney and tumor positions at any time in order to adjust the waves accordingly.

The work presented here follows a logical process and is composed of three parts. First, we propose a method based on a region growing approach to segment the organ from a set of MRI or CT-scan slices. The point cloud obtained is then considered as the input data of a 3D reconstruction algorithm. Thus, a triangulated surface model of the kidney is computed. This first step is done three times for the inhale phase, mid-cycle phase and exhale phase. In this way, the second stage consists in generating a dynamic model by merging the topologies of the three static models using an automatic mesh morphing approach. As this principle is only based on geometric data, it is the opposite stance of the existing work in the domain. Finally, the approximations due to interpolating methods are reduced thanks to constraints added to the mesh morphing. They are built upon the discrete curvature data of the models. Results are presented at the end of the thesis and are validated by estimating the inherent error of the dynamic model to be inferior than the safety margin practitioners use.

Keywords : geometric modeling, mesh, segmentation, IRM, CT-scan, 3D reconstruction, dynamic modeling, morphing, discrete curvature.

Ses publications : ici
Manuel PARIS : Identification du comportement en torsion à fort facteur d’avancement des pales d’hélicoptère conventionnel – Application à la réduction des efforts de commandes sur une formule hybride haute vitesse de type X3
Le mercredi 05 novembre 2014 à 10h00 - ENSAM
Sous la direction de : CARMONA Jean-Claude, MALBURET François

Ses publications : ici
Jinnian WANG : Caractérisation des sols par l'analyse d'images hyperspectrales en télédétection
Le vendredi 31 octobre 2014 à 10h00 - Aix Marseille
Sous la direction de : Jean SEQUEIRA
Les images hyperspectrales fournissent des informations intéressantes quant à la composition des sols, en particulier au niveau minéral, ce qui permet de caractériser efficacement les « groupements de minerai » et les « minerais isolés ». Ce travail de recherche avait pour objectif d'établir un système de cartographie 3D des minerais qui intègre des informations de surfaces (acquises par satellite ou à partir d'un aéronef) et des informations souterraines (par forages) à partir de données hyperspectrales. Le travail décrit dans ce mémoire s'articule de la manière suivante :- Pour la cartographie de surface, nous avons développé et optimisé des algorithmes pour mesurer de manière à la fois précise et homogène au niveau des transitions, le taux de minerais à toutes les longueurs d'ondes (de 0.2 à 12m) à partir de l'imagerie hyperspectrale par satellite et aéroportée. Un travail a été également fait à ce sujet pour améliorer la correction atmosphérique. Nous avons utilisé le modèle de BRDF de Hapke pour étudier la composition, linéaire et non linéaire, des modèles spectres- Pour la cartographie minéralogique souterraine, nous avons développé un système que nous avons appelé Field Imaging Spectrometer System (FISS), dont le verrou scientifique était dans le calcul et la mise en oeuvre de la précision sur les produits minéraux recherchés.- Nous avons mis cela en application par la suite, de manière à mieux comprendre le système minéral, et ce à partir de méthode utilisant les données hyperspectrales. Pour cela, nous avons utilisé les Systèmes d'Information Géographique (SIG), ce qui nous a permis de produire des simulations relatives à l'exploitation minière.

Ses publications : ici
Zongcheng LI : Conceptual design of shapes by reusing existing heterogeneous shape data through a multi-layered shape description model and for VR applications Key words: Virtual Environment, conceptual design, shape description, hybrid object, heterogeneous data, optim
Le dimanche 28 septembre 2014 à 14h30 - Arts et Métiers Campus de d’Aix-en-Provence –2, cours des Arts et Métiers l’Amphithéâtre 1
Sous la direction de : Jean-Philippe PERNOT
Les récentes avancées en matière de systèmes d’acquisition et de modélisation ont permis la mise à disposition d’une très grande quantité de données numériques (e.g. images, vidéos, modèles 3D) dans différents domaines d’application. En particulier, la création d’Environnements Virtuels (EVs) nécessite l’exploitation de données numériques pour permettre des simulations et des effets proches de la réalité. Malgré ces avancées, la conception d’EVs dédiés à certaines applications requiert encore de nombreuses et parfois laborieuses étapes de modélisation et de traitement qui impliquent plusieurs experts (e.g. experts du domaine de l’application, experts en modélisation 3D et programmeur d’environnements virtuels, designers et experts communication/marketing). En fonction de l’application visée, le nombre et le profil des experts impliqués peuvent varier. Les limitations et difficultés d’aujourd’hui sont principalement dues au fait qu’il n’existe aucune relation forte entre les experts du domaine qui ont des besoins, les experts du numérique ainsi que les outils et les modèles qui prennent part au processus de développement de l’EV. En fait, les outils existants focalisent sur des définitions souvent très détaillées des formes et ne sont pas capables de supporter les processus de créativité et d’innovation pourtant garants du succès d’un produit ou d’une application. De plus, la grande quantité de données numériques aujourd’hui accessible n’est pas réellement exploitée. Clairement, les idées innovantes viennent souvent de la combinaison d’éléments et les données numériques disponibles pourraient être mieux utilisées. Aussi, l’existence de nouveaux outils permettant la réutilisation et la combinaison de ces données serait d’une grande aide lors de la phase de conception conceptuelle de formes et d’EVs. Pour répondre à ces besoins, cette thèse propose une nouvelle approche et un nouvel outil pour la conception conceptuelle d’EVs exploitant au maximum des ressources existantes, en les intégrant et en les combinant tout en conservant leurs propriétés sémantiques. C’est ainsi que le Modèle de Description Générique de Formes (MDGF) est introduit. Ce modèle permet la combinaison de données multimodales (e.g. images et maillages 3D) selon trois niveaux : Conceptuel, Intermédiaire et Données. Le niveau Conceptuel exprime quelles sont les différentes parties de la forme ainsi que la façon dont elles sont combinées. Chaque partie est définie par un Elément qui peut être soit un Composant soit un Groupe de Composants lorsque ceux-ci possèdent des caractéristiques communes (e.g. comportement, sens). Les Eléments sont liés par des Relations définies au niveau Conceptuel là où les experts du domaine interagissent. Chaque Composant est ensuite décrit au niveau Données par sa Géométrie, sa Structure et ses informations Sémantiques potentiellement attachées. Dans l’approche proposée, un Composant est une partie d’image ou une partie d’un maillage triangulaire 3D. Quatre Relations sont proposées (fusion, assemblage, shaping et localisation) et décomposées en un ensemble de Contraintes qui contrôlent la position relative, l’orientation et le facteur d’échelle des Composants au sein de la scène graphique. Les Contraintes sont stockées au niveau Intermédiaire et agissent sur des Entités Clés (e.g. points, des lignes) attachées à la Géométrie ou à la Structure des Composants. Toutes ces contraintes sont résolues en minimisant une fonction énergie basée sur des grandeurs physiques. Les concepts du MDGF ont été implémentés et intégrés au sein d’un outil de design conceptuel développé par l’auteur. Différents exemples illustrent le potentiel de l’approche appliquée à différents domaines d’application.

Due to the great advances in acquisition devices and modeling tools, a huge amount of digital data (e.g. images, videos, 3D models) is becoming now available in various application domains. In particular, virtual environments make use of those digital data allowing more attractive and more effectual communication and simulation of real or not (yet) existing environments and objects. Despite those innovations, the design of application oriented virtual environment still results from a long and tedious iterative modeling and modification process that involves several actors (e.g. experts of the domain, 3D modelers and VR programmers, designers or communications/marketing experts). Depending of the targeted application, the number and the profiles of the involved actors may change. Today’s limitations and difficulties are mainly due to the fact there exists no strong relationships between the expert of the domain with creative ideas, the digitally skilled actors, the tools and the shape models taking part to the virtual environment development process. Actually, existing tools mainly focus on the detailed geometric definition of the shapes and are not suitable to effectively support creativity and innovation, which are considered as key elements for successful products and applications. In addition, the huge amount of available digital data is not fully exploited. Clearly, those data could be used as a source of inspiration for new solutions, being innovative ideas frequently coming from the (unforeseen) combination of existing elements. Therefore, the availability of software tools allowing the re-use and combination of such digital data would be an effective support for the conceptual design phase of both single shapes and VR environments. To answer those needs, this thesis proposes a new approach and system for the conceptual design of VRs and associated digital assets by taking existing shape resources, integrating and combining them together while keeping their semantic meanings. To support this, a Generic Shape Description Model (GSDM) is introduced. This model allows the combination of multimodal data (e.g. images and 3D meshes) according to three levels: conceptual, intermediate and data levels. The conceptual level expresses what the different parts of a shape are, and how they are combined together. Each part of a shape is defined by an Element that can either be a Component or a Group of Components when they share common characteristics (e.g. behavior, meaning). Elements are linked with Relations defined at the Conceptual level where the experts in the domain are acting and exchanging. Each Component is then further described at the data level with its associated Geometry, Structure and potentially attached Semantics. In the proposed approach, a Component is a part of an image or a part of a 3D mesh. Four types of Relation are proposed (merging, assembly, shaping and location) and decomposed in a set of Constraints which control the relative position, orientation and scaling of the Components within the 3D viewer. Constraints are stored at the intermediate level and are acting on Key Entities (such as points, a lines, etc.) laying on the Geometry or Structure of the Components. All these constraints are finally solved while minimizing an additional physically-based energy function. At the end, most of the concepts of GSDM have been implemented and integrated into a user-oriented conceptual design tool totally developed by the author. Different examples have been created using this tool demonstrating the potential of the approach proposed in this document.

Ses publications : ici
Zhongliang LI : Diagnostic guidé par les données pour les systèmes pile à combustible de type PEMFC
Le mardi 16 septembre 2014 à 10h00 - faculté des sciences Louis Néel - Belfort
Sous la direction de : OUTBIB Rachid
Cette thèse est consacrée à l'étude de diagnostic de pannes pour les systèmes pile à combustible de type PEMFC. Le but est d'améliorer la fiabilité et la durabilité de la membrane électrolyte polymère afin de promouvoir la commercialisation de la technologie des piles à combustible. Afin d'assurer un diagnostic précis et applicable en temps réel, les approches explorées dans cette thèse sont celles du diagnostic guidé par les données.

Parmi les mèthodes dédiées au diagnostic guidé par les données, les techniques basées sur la reconnaissance de forme sont les plus utilisées. Dans ce travail, les variables considérées sont les tensions des cellules et la démarche adoptée se compose de deux étapes. La première étape consiste à extraire les caractéristiques, et la deuxième étape permet d'établir une classification. Les résultats établis dans le cadre de la thèse peuvent être regroupés en trois contributions principales.

La première contribution est constituée d'une étude comparative. Plus précisément, plusieurs méthodes sont explorées puis comparées en vue de déterminer une stratégie précise et offrant un coût de calcul optimal.

La deuxième contribution concerne le diagnostic online sans connaissance complète des défauts au préalable. Il s'agit d'une technique adaptative qui permet d'appréhender l'apparition de nouveaux types de défauts. Cette technique est fondée sur la méthodologie SSM-SVM et les règles de détection et de localisation ont été améliorées pour répondre au problème du diagnostic en temps réel.

La troisième contribution est obtenue à partir méthodologie fondée sur l'utilisation partielle de modèles dynamiques. Le principe de détection et localisation de défauts est fondé sur des techniques d'identification et sur la génération de résidus directement à partir des données d'exploitation.

Toutes les stratégies proposées dans le cadre de la thèse ont été testées à travers des données expérimentales et validées sur un système embarqué.

Mots clés : système PEMFC, diagnostic en ligne, des tensions cellulaires, classification de modèle, l'extraction d'entité, la précision du diagnostic, le coût de calcul, systèmes embarqués, la détection des défauts roman, adaptation en ligne, l'identification du modèle, l'espace de parité, conception résiduelle, dynamique processus

Ses publications : ici
Mehdi IRAQI HOUSSAINI : Environnement logiciel basé sur les modèles pour l'ingénierie collaborative de produit
Le lundi 15 septembre 2014 à 10h00 - ENSAM
Sous la direction de : ROUCOULES Lionel - KLEINER Mathias

Ses publications : ici
Faris DJOHOR : Perception, actions et synchro,isations dans un simulateur de conduite d'engin.
Le jeudi 11 septembre 2014 à 13h30 - LSIS St Jérôme
Sous la direction de : M'SIRDI Nacer - NAAMANE Aziz
Résumé Ce travail s’inscrit dans le cadre du projet ActiSurTT, qui porte comme objectif de concevoir
des systèmes de sécurité actifs contre le renversement des véhicules en milieu tout-terrain. Une modélisation
orientée tout terrain est proposée autour de la problématique de contact roue-sol et est, par la
suite, intégrée dans un simulateur de véhicules doté d’un modèle global à 16 DDL. L’utilisation de l’outil
SCANeR Studio dans l’étude des phénomènes de renversement constitue un élément important du projet,
parce qu’il permet d’éviter les coûts et surtout les dangers relatifs à l’utilisation d’un banc d’essai ou
d’un véhicule réel conduit par un opérateur. L’étude a permis de mettre au point un simulateur réaliste
sous l’environnement SCANeR Studio, comportant le modèle dynamique et la CAO d’un véhicule tout
terrain évoluant sur un terrain d’essai. Ce dernier a été reconstitué à partir d’un terrain existant, grâce à
l’utilisation des données satellites et de la modélisation 3D sous Google SketchUp. Des observateurs et des
estimateurs ont été, par la suite, développés afin de caractériser l’état de stabilité du véhicule en fonction
des variables mesurées à l’aide de capteurs. Une étude accidentologique menée par la CCMSA (Mutualité
Sociale Agricole) partenaire du projet ActiSurTT, démontre trois classes de situations de renversement
recensées et qui constituent la majeur partie des accidents constatés. Ces trois classes sont traitées, dans
notre étude, à l’aide des outils de diagnostic, de perception et de caractérisation de stabilité. En suite, des
systèmes d’alerte ont été mis en place en choisissant des seuils des déclenchement de manière à anticiper le
renversement et offrir la possibilité d’agir sur les actionneurs et mettre en place un stratégie stabilisante.
Finalement, plusieurs solutions d’actions sont proposées afin d’avoir un impact direct sur les situation
dangereuses.
Mots clés Modélisation contact roue-sol, véhicule tout terrain, caractérisation de la stabilité, système
de sécurité actif.
Abstract This work was realized in the context

Ses publications : ici
Shirin MIRDAMADI : Système d'aide à la décision pour la génération des processus de suivi de fabrication par la fédération des expertises métier
Le jeudi 04 septembre 2014 à 10h00 - ENSAM
Sous la direction de : DANTAN- JY - ROUCOULES Lionel - MARTIN Lionel

Système d’aide à la décision pour la génération des processus d'inspection par la fédération des expertises métier
par Shirin Mirdamadi

Thèse de doctorat en Génie industriel

Sous la direction de Jean-Yves Dantan, Ali Siadat, Lionel Roucoules et de Lionel Martin.

Soutenue le 04-09-2014

à Paris, ENSAM , dans le cadre de Ecole Doctorale Sciences des Métiers de l'Ingénieur - SMI (Paris) , en partenariat avec LCFC - Laboratoire de Conception, Fabrication et Commande - EA 4495 (laboratoire) .

Le président du jury était Benoît Iung.

Le jury était composé de Jean-Yves Dantan, Ali Siadat, Lionel Roucoules, Lionel Martin, Jean-Régis Hadj-Minaglou.

Les rapporteurs étaient Maurice Pillet, Luc Mathieu.

Description en français
Description en anglais

mots clés mots clés
Inspection
Maitrise des variabilités
Contrôle de conformité
Suivi de fabrication
Amélioration de peformance
Génie industriel
Protocole d'automatisation industrielle


Résumé

Dans le contexte économique et compétitif actuel, ce qui permet aux entreprises de se distinguer c'est leur réactivité à fournir des produits de plus en plus complexes sen répondant à des besoins toujours plus diversifiés. Pour faire face à cette exigence de réactivité et malgré ces contraintes, les approches d'ingénierie intégrée sont apparues pour une meilleure gestion du cycle de vie des produits. Dans ce contexte la prise en compte des variabilités et leurs interdépendances a été démontrée comme étant indispensable à l'amélioration des performances (coût, risque, qualité, …). Ce travail de thèse est consacré à l'élaboration d'un plan d'inspection optimal pour : la maîtrise de ces variabilités et leurs effets sur le comportement du produit, l'usage et les fonctionnalités de celui-ci. Pour cela un cadre méthodologique pour la co-conception des activités de contrôles de conformités et celles de suivi de fabrication a été formalisé. Ce cadre permet une prise de décision opérationnelle grâce à l'utilisation des outils opérationnels et assure la satisfaction des objectifs stratégiques (réduction des coûts, amélioration de la qualité, augmentation de la productivité, …). Suite à une synthèse approfondie de la littérature relative à la planification la qualité et de l'amélioration (conjointe) de la performance, les outils AMDEC, KC flowdown, et Activity Based Costing (ABC) ont été retenus. Cependant ces outils présentent certains manques à combler et ont fait donc l'objet de certaines modifications (adaptations) pour convenir au mieux aux besoins du cadre méthodologique proposé. L'intégration d'AMDEC et de KC flowdown a abouti à un nouvel outil nommé ACDE (Analyse de la Causalité, des Défaillances, et leurs Effets). Ainsi l'adaptation d'ABC à l'estimation de coût de la qualité par « Quality-Driven ABC » a été proposée. L'application de ces derniers a été proposée dans le cadre de la planification d'inspection « au juste nécessaire ».


Système d’aide à la décision pour la génération des processus d'inspection par la fédération des expertises métier
par Shirin Mirdamadi

Thèse de doctorat en Génie industriel

Sous la direction de Jean-Yves Dantan, Ali Siadat, Lionel Roucoules et de Lionel Martin.

Soutenue le 04-09-2014

à Paris, ENSAM , dans le cadre de Ecole Doctorale Sciences des Métiers de l'Ingénieur - SMI (Paris) , en partenariat avec LCFC - Laboratoire de Conception, Fabrication et Commande - EA 4495 (laboratoire) .

Le président du jury était Benoît Iung.

Le jury était composé de Jean-Yves Dantan, Ali Siadat, Lionel Roucoules, Lionel Martin, Jean-Régis Hadj-Minaglou.

Les rapporteurs étaient Maurice Pillet, Luc Mathieu.

Description en français
Description en anglais

mots clés mots clés
Inspection
Maitrise des variabilités
Contrôle de conformité
Suivi de fabrication
Amélioration de peformance
Génie industriel
Protocole d'automatisation industrielle


Résumé

Dans le contexte économique et compétitif actuel, ce qui permet aux entreprises de se distinguer c'est leur réactivité à fournir des produits de plus en plus complexes sen répondant à des besoins toujours plus diversifiés. Pour faire face à cette exigence de réactivité et malgré ces contraintes, les approches d'ingénierie intégrée sont apparues pour une meilleure gestion du cycle de vie des produits. Dans ce contexte la prise en compte des variabilités et leurs interdépendances a été démontrée comme étant indispensable à l'amélioration des performances (coût, risque, qualité, …). Ce travail de thèse est consacré à l'élaboration d'un plan d'inspection optimal pour : la maîtrise de ces variabilités et leurs effets sur le comportement du produit, l'usage et les fonctionnalités de celui-ci. Pour cela un cadre méthodologique pour la co-conception des activités de contrôles de conformités et celles de suivi de fabrication a été formalisé. Ce cadre permet une prise de décision opérationnelle grâce à l'utilisation des outils opérationnels et assure la satisfaction des objectifs stratégiques (réduction des coûts, amélioration de la qualité, augmentation de la productivité, …). Suite à une synthèse approfondie de la littérature relative à la planification la qualité et de l'amélioration (conjointe) de la performance, les outils AMDEC, KC flowdown, et Activity Based Costing (ABC) ont été retenus. Cependant ces outils présentent certains manques à combler et ont fait donc l'objet de certaines modifications (adaptations) pour convenir au mieux aux besoins du cadre méthodologique proposé. L'intégration d'AMDEC et de KC flowdown a abouti à un nouvel outil nommé ACDE (Analyse de la Causalité, des Défaillances, et leurs Effets). Ainsi l'adaptation d'ABC à l'estimation de coût de la qualité par « Quality-Driven ABC » a été proposée. L'application de ces derniers a été proposée dans le cadre de la planification d'inspection « au juste nécessaire ».


Ses publications : ici
Lama EL SARRAJ : Exploitation d'un entrepôt de données guidée par des ontologies. Application au management hospitalier
Le jeudi 10 juillet 2014 à 14h00 - salle des conférences Gérard Jaumes – Laboratoire LSIS, Bâtiment de Polytech Marseille
Sous la direction de : ESPINASSE Bernard - LIBOUREL Thérèse

Ses publications : ici
Alexis THIEULLEN : Méthodologie pour la détection de défaillances des procédés de fabrication par ACP : application à la production de dispositifs semi-conducteurs
Le mercredi 09 juillet 2014 à 10h30 - salle des conférences Gérard Jaumes du Bâtiment de Polytech Marseille, campus de Saint-Jérome
Sous la direction de : OULADSINE Mustapha - PINATON Jacques

Ses publications : ici
Ali OULHACI : Évaluation individuelle et collective dans les jeux sérieux collaboratifs : application à la gestion de crise
Le vendredi 20 juin 2014 à 14h30 - salle des conférences Gérard Jaumes – Polytech Marseille - LSIS
Sous la direction de : ESPINASSE Bernard - TRANVOUEZ Erwan

Ses publications : ici
Nabil KARAMI : Control of a Hybrid System Based PEMFC and Photovoltaic Panels
Le vendredi 20 decembre 2013 à 10h30 - salle de conférence "Gérard Jaumes" du département Génie Industriel et Informatique de Polytech Marseille
Sous la direction de : OUTBIB Rachid

Ses publications : ici
Zeineb CHIKHAOUI : Contribution à la modélisation énergétique des hélicoptères en vue de la maîtrise de leurs comportements dynamiques
Le mercredi 18 decembre 2013 à 10h00 - amphithéâtre numéro 1 du centre d?Aix en Provence d?Arts-et-Métiers Paristech
Sous la direction de : Pierre-Jean BARRE - Julien GOMAND - François MALBURET
Résumé : Les hélicoptères sont le siège de comportements dynamiques difficiles à maîtriser et récurrents en phase de conception. Ces comportements sont essentiellement liés à des couplages mal maîtrisés entre certains sous-systèmes. Un état de l?art sur les pratiques de modélisation existantes met en évidence un manque de prise en compte des interactions énergétiques entre sous-systèmes, rendant difficile l'analyse et la maîtrise de ces phénomènes et conduisant à des solutions ponctuelles, sans capitalisation possible des méthodes mises en ?uvre. Ces travaux offrent une introduction à une approche de représentation multiphysique et multiniveau, complémentaire aux approches existantes, offrant une vision énergétique et structurelle pour la maîtrise de la dynamique des systèmes tels que les hélicoptères. Une réflexion sur les outils de représentation existants a conduit au choix du bond graph (BG), du multibond graph (MBG) et de la Représentation Energétique Macroscopique (REM) en tant qu'outils complémentaires pour la modélisation et la commande des systèmes multiphysiques multicorps. Une analyse énergétique d?hélicoptère a conduit à la proposition d'une description macroscopique basée sur le MBG à mots, complétée par deux autres niveaux détaillant le modèle MBG du sous-système rotor-fuselage. Les hypothèses de modélisation sont choisies de manière à reproduire les conditions d'apparition du phénomène de résonance air, phénomène de couplage connu sur les hélicoptères. Cette étude met en évidence le potentiel des représentations énergétiques en application aux hélicoptères et ouvre de nombreuses perspectives, tant pour l'analyse des appareils existants que pour la conception d'aéronefs innovants.


Abstract: Rotorcraft are complex systems and are thus sources of recurring (i.e. for many new design projects) and poorly understood problems. Considering a specific phenomenon, implying interactions between many subsystems, the analysis of the system from a global but "sufficiently" detailed point of view becomes necessary. Current global modeling methodologies are mainly based on a subsystem-by-subsystem approach and the knowledge of their interactions is insufficient. This work proposes an introduction to a multiphysic and multilevel representation, complementary to existing modeling approaches, offering an energetic and structural view to support analysis and control of rotorcraft. A first study leads to the choice of, the bond graph (BG), the multibond graph (MBG) and the Energetic Macroscopic Representation (EMR) as complementary multiphysic tools for the modeling and control of multiphysic and multibody systems. Then, an energetic analysis of helicopter dynamics is presented and a global energetic and macroscopic representation, using the word bond graph, is proposed. After that, the MBG is used for rotor-fuselage modeling in order to reproduce the air resonance phenomenon. This work shows the potential of energetic representations on rotorcraft and opens many perspectives, not only for the analysis of the existing rotorcraft, but also for the design of innovative rotorcraft.

Ses publications : ici
Yanal WAZAEFI : Diagnostic automatique de mélanome à partir d'images numériques de tumeurs mélanocytaires: Approches analytique et comparative
Le mardi 17 decembre 2013 à 14h00 - amphithéâtre Jean-Jacques Aubert du bâtiment A du PolyTech (ex- ESIL), site de Luminy
Sous la direction de : Bernard Fertil - Sébastien PARIS
Résumé : Cette thèse a contribué au développement de deux approches complémentaires pour le diagnostic assisté par ordinateur du mélanome: l’approche analytique et l’approche comparative.

L'approche analytique imite le comportement du dermatologue en détectant les caractéristiques de malignité des naevus sur la base de méthodes analytiques classiques dans une première étape, et en combinant ces caractéristiques dans une deuxième étape. Le classifieur proposé a montré une meilleure performance que les dermatologues invités à donner leur diagnostic sur 1097 images dermoscopique de lésions cutanées. Nous avons aussi étudié comment le classifieur peut contribuer à améliorer l’efficacité du dermatologue dans sa pratique quotidienne.

L'approche comparative, appelée concept du Vilain Petit Canard (VPC), suppose que les naevus chez le même patient ont tendance à partager certaines caractéristiques morphologiques. VPC est le naevus qui ne rentre dans aucun de ces groups; il est susceptible d'être un mélanome. Nous avons utilisé deux méthodes de classification supervisées, l'approche appariée et l'approche structurelle, pour modéliser la capacité des dermatologues à réaliser cette tâche qu’ils effectuent le plus souvent de manière intuitive. Ces méthodes ont appris à estimer la similarité entre les lésions cutanées des patients telle que les dermatologues la perçoivent. La combinaison des approches analytique et comparative a amélioré de manière significative la spécificité du système automatique de diagnostic du mélanome.

Ses publications : ici
Yves DUBROMELLE : Contribution au pilotage holonique et ambiant, via des technologies infotroniques
Le lundi 16 decembre 2013 à 10h30 - salle de conférence "Gérard Jaumes" du département Génie Industriel et Informatique de Polytech Marseille
Sous la direction de : PUJO Patrick - OUNNAR Fouzia

Ses publications : ici
Alain VISSIERE : Contribution à la mesurede cylindricité de très haute exactitude.
Le vendredi 13 decembre 2013 à 10h00 - Paris ENSAM
Sous la direction de : GIBARU
Le Laboratoire Commun de Métrologie LNE-CNAM (LCM) souhaite affiner sa maîtrise des références de pression afin de réaliser des appareillages de tout premier rang au niveau international. L'incertitude relative visée sur les références de pression est de l'ordre de 10-6. Cet objectif se traduit par une problématique de métrologie dimensionnelle où une mesure de la forme des pistons/cylindres utilisés dans les balances manométriques doit être menée. La mesure de cylindricité est également impliquée dans un très grand nombre d'applications industrielles comme la qualification d'étalons de référence destinés à la qualification d'appareillages de mesure. Notre travail de recherche, réalisé dans le cadre d'une convention CIFRE avec la SAS GEOMNIA, concerne la réalisation d'un instrument de référence de très haute précision permettant la mesure de forme de cylindres creux ou pleins. Nous proposons un saut technologique pour satisfaire un niveau d'incertitude sur la mesure de l'écart de cylindricité de l'ordre de 10 nanomètres dans un volume de mesure cylindrique de Ø350 mm et de hauteur 150 mm. La mesure de forme est habituellement pratiquée en déplaçant un capteur par rapport à la surface à mesurer par un guidage de haute précision. Il n'est cependant pas possible de réaliser un guidage entre deux solides d'un niveau de précision permettant de garantir les incertitudes souhaitées, même en utilisant les techniques de correction d'erreurs dont la précision est limitée par le défaut de répétabilité des guidages. Pour satisfaire à ce niveau d'incertitude, nous proposons une démarche basée sur le concept de structure métrologique dissociée. La mesure d'une pièce consiste alors à comparer sa forme à celle d'une pièce cylindrique de référence. Cette dernière doit seulement présenter une stabilité de forme parfaite. La cartographie d'écart de forme de la référence cylindrique doit cependant être identifiée au même niveau d'incertitude visé.Le travail de recherche développé propose une analyse détaillée des machines actuelles et de leurs limitations. Suite à cette analyse, une architecture de machine a été proposée pour lever ces limitations. Cette architecture tient compte des écarts « secondaires » liés à la position des capteurs et des effets de second ordre, pour satisfaire le niveau de précision visé. Une procédure complète d'étalonnage de la machine a été élaborée en s'inspirant des méthodes de séparation d'erreurs. Cette procédure originale permet de séparer les défauts de forme du cylindre de référence de ceux d'une pièce de qualification cylindrique mesurée simultanément. La méthode employée ne présente pas de limitations en termes d'exactitude. Cette procédure a été expérimentalement validée. Une analyse des effets liés à la mesure de surfaces cylindriques par des capteurs capacitifs a été menée. Ces essais ont conduit au développement de stratégies d'étalonnage de ces capteurs in situ utilisant des interféromètres à laser intégrés dans la machine. La traçabilité métrologique des résultats des mesures est ainsi garantie. Deux bancs de tests ont été développés pour caractériser les diverses influences et valider les procédures d'étalonnage des capteurs. La conception détaillée de l'instrument est issue de la synthèse des réflexions menées sur l'architecture, sur l'étalonnage et sur la maîtrise de la mesure de déplacements par capteurs capacitifs. Ce travail a abouti à la réalisation de ce nouvel instrument de référence ; sa conception, son montage et son réglage sont présentés.

Ses publications : ici
Shereen ALBITAR : "De l'usage de la sémantique dans la classification supervisée de textes: Application au domaine médical"
Le jeudi 12 decembre 2013 à 15h00 - salle des conférences du département GII de Polytech Marseille
Sous la direction de : ESPINASSE Bernard - FOURNIER Sébastien
Face à la multitude croissante de documents publiés sur le Web, il est apparu nécessaire de développer des techniques de classification automatique efficaces à base d?apprentissage généralement supervisé. La plupart de ces techniques de classification supervisée utilisent des sacs de mots (BOW- bags of words) en tant que modèle de représentation des textes dans l?espace vectoriel. Ce modèle comporte trois inconvénients majeurs : il considère les synonymes comme des caractéristiques distinctes, ne résout pas les ambiguïtés, et il considère les mots polysémiques comme des caractéristiques identiques. Ces inconvénients sont principalement liés à l?absence de prise en compte de la sémantique dans le modèle BOW. De plus, les mesures de similarité utilisées en tant que fonctions de prédiction par certaines techniques dans ce modèle se basent sur un appariement lexical ne tenant pas compte des similarités sémantiques entre des mots différents d?un point de vue lexical. La recherche que nous présentons ici porte sur l?impact de l?usage de la sémantique dans le processus de la classification supervisée de textes. Cet impact est évalué au travers d?une étude expérimentale sur des documents issus du domaine médical et en utilisant UMLS (Unified Medical Language System) en tant que ressource sémantique. Cette évaluation est faite selon quatre scénarii expérimentaux d?ajout de sémantique à plusieurs niveaux du processus de classification. Le premier scénario correspond à la conceptualisation où le texte est enrichi avant indexation par des concepts correspondant dans UMLS ; le deuxième et le troisième scénario concernent l?enrichissement des vecteurs représentant les textes après indexation dans un sac de concepts (BOC ? bag of concepts) par des concepts similaires. Enfin le dernier scénario utilise la sémantique au niveau de la prédiction des classes, où les concepts ainsi que les relations entre eux, sont impliqués dans la prise de décision. Le premier scénario est testé en utilisant trois des méthodes de classification les plus connues : Rocchio, NB et SVM. Les trois autres scénarii sont uniquement testés en utilisant Rocchio qui est le mieux à même d?accueillir les modifications nécessaires. Au travers de ces différentes expérimentations nous avons tout d?abord montré que des améliorations significatives pouvaient être obtenues avec la conceptualisation du texte avant l?indexation. Ensuite, à partir de représentations vectorielles conceptualisées, nous avons constaté des améliorations plus modérées avec d?une part l?enrichissement sémantique de cette représentation vectorielle après indexation, et d?autre part l?usage de mesures de similarité sémantique en prédiction.
manuscrit_shereen_albitar.pdf

Ses publications : ici
Romain RAFFIN : Contribution à l’étude des surfaces discrètes et continues, transformation et reconstruction
Le mercredi 11 decembre 2013 à 10h15 - grand Amphi du site de Saint-Charles
Mes travaux de recherche couvrent plusieurs thèmes de modélisation géométrique : la déformation de maillages surfaciques, les courbes et surfaces paramétriques pour la reconstruction, les surfaces de subdivision (vues comme un passage des surfaces aux maillages, et vice-versa) et les surfaces fermées épaisses (offset). Les applications de ces modèles ont été diverses (reconstruction à partir de données médicales, trajectographie, CAO - conception assistée par Ordinateur, normalisation). Ces projets m'ont permis d'asseoir de futurs travaux de traduction de modèles, sous contraintes de qualité ou de contenus, en s'appuyant sur des descriptions sémantiques des objets.

Ses publications : ici
Radouane OULADSINE : Sur le pronostic des systèmes stochastiques
Le lundi 09 decembre 2013 à 10h30 - salle des conférences du département GII de Polytech Marseille.
Sous la direction de : OUTBIB Rachid
Cette thèse porte sur la problématique du pronostic des systèmes. Plus précisément, elle est dédiée aux systèmes stochastiques et deux contributions principales sont proposées. La première contribution concerne la problématique du pronostic à base de connaissances d’expert. Le système considéré est supposé être exploité en vue de réaliser une mission. Durant cette dernière, on suppose disposer d’information, à travers les connaissances d’expert, sur l’environnement ; c’est-à-dire les conditions opérationnelles dans lesquelles évolue le système. Cependant, à cause des phénomènes aléatoires, ces connaissances peuvent être que partielles. Par conséquent, une méthodologie de pronostic, basée sur des techniques probabilistes, est proposée.

Dans ce travail, en vue d’estimer la distribution de probabilité de l’environnement, une analyse des connaissances, fondée sur le principe de Maximum d’Entropie Relative (MER), est proposée. Ensuite, pour modéliser l’impact de cet environnement aléatoire sur le système, les trajectoires de dégradation sont construites à travers un cumul stochastique basé sur la méthode Monte Carlo chaine de Markov.

La deuxième contribution est dédiée au pronostic à base de modèle d’état non-linéaire et stochastique. Dans ce travail, on suppose que seule la structure de la fonction de dégradation est connue. Cette structure est supposée dépendre de la dynamique d’un paramètre inconnu. L’objectif ici, est d’estimer ce paramètre en vue de déterminer la dynamique de la dégradation. Dans ce cadre, une stratégie, du pronostic basée sur la technique de filtre bayésien, est proposée. La technique consiste àcombiner deux filtres de Kalman. Le premier filtre est utilisé afin de déterminer le paramètre inconnu. Puis, en utilisant la valeur du paramètre estimée, le deuxième filtre assure la convergence de la dégradation.

Une série d’exemples dans le domaine du transport est traitée afin d’illustrer notre contribution.

English version :
This thesis focuses on the problem of the systems prognostic. More precisely, it is dedicated to stochastic systems and two main contributions are proposed. The first one is about the prognostic of stochastic systems based on the expert knowledge and the proposed approach consists in assessing the system availability during a mission. This mission is supposed to model the user profile that express the environment in which the system will evolve. We suppose also that this profile is given through a partial knowledge provided by the expert. In fact, since the complexity of systems under consideration and the possible random phenomena the expert can provide only incomplete information.

The aim of the contribution is to estimate the system’s damage trajectory and analyse the mission success. In this case, a three steps methodology is proposed. The first step consists on estimating the environment probability distribution. Indeed, a probabilistic method based on maximum relative entropy (MRE) is used. The second step is dedicated to the damage trajectory construction. This step is performed by using a Markov Chain Monte Carlo (MCMC) simulation. Finally, the prediction of the mission success is performed through damage trajectories analysis. Note that, the models describing the damage behaviour, and in order to be more realistic, is supposed to be stochastic.

The second contribution of this thesis, concerns the model-based prognosis approach. More precisely, it about the use of the Bayesian filtering on the prognosis problem. The aim of the proposed approach is identify the damage parameter by using an Ensemble Kalman Filtre (EnKF). Then, estimate the RUL based on the damage propagation.

To illustrate our contributions, a series of examples is treated.

Ses publications : ici
Sara BOUZID : "Approche Sémantique de Gestion de Ressources d’Information pour le Contrôle de Processus Industriels: Application au Processus de Fabrication chez STMicroelectronics".
Le vendredi 06 decembre 2013 à 14h00 - salle des conférences du département GII de Polytech Marseille
Sous la direction de : CAUVET Corine - FRYDMAN Claudia
Résumé:
Afin d’assurer la fabrication de produits conformes et à faible coût dans les industries, la maîtrise des procédés de fabrication avec des méthodes fiables et des indicateurs standards de suivi est devenue un enjeu majeur. Les systèmes d'information dans les industries sont assez complexes et les besoins métier évoluent en permanence, rendant ainsi difficile la recherche de ressources fournissant les informations manufacturières pour le suivi et l’analyse des procédés industriels. De plus, l’utilisation de plateformes logicielles commerciales dans les industries pour le traitement des données ne facilite pas l’accès à l’information produite car ces plateformes ne permettent pas la gestion sémantique de l’information. Cette thèse défend l’idée qu’il faut réduire la distance entre les ressources disponibles en entreprise et les besoins métier des experts qui assurent le contrôle de processus industriels.
L’approche S3 est proposée pour supporter la maîtrise des procédés de fabrication grâce à un système de gestion de ressources d’information manufacturière permettant de supporter à la fois la description et la recherche de ces ressources. L’approche S3 repose sur deux stratégies de recherche complémentaires: une stratégie de type ascendante (« bottom up ») permettant la création de descripteurs sémantiques de ressources, et une stratégie de type descendante (« top-down ») permettant la capture des besoins métier dans des patterns de recherche. Deux structures sémantiques sont proposées pour supporter les mécanismes de description et de recherche: une ontologie « manufacturing process » et un dictionnaire « process control ». Chaque stratégie de recherche, appuyée par les structures sémantiques apporte un niveau de description différent et permet l’alignement de différents types de connaissances métier. Cette approche a été expérimentée au sein de l’entreprise STMicroelectronics et a révélé des résultats prometteurs.

Abstract:
In order to ensure the manufacturing of conforming products with the least waste, the manufacturing process control has ever more become a major issue in industries nowadays. The complexity of information systems in industries and the permanent evolution of the business needs make difficult the retrieval of the resources that provide manufacturing information related to the process control. In addition, the use of commercial software platforms in industries for the processing of data does not facilitate the access to the information produced, because these platforms do not support the semantic management of information.
This thesis argues the need to reduce the distance between the used resources in industries and the business needs of the experts that ensure the control of manufacturing processes.
The S3 approach is proposed to support the manufacturing process control through a resource management system intended for both resource description and retrieval. The S3 approach relies on two complementary retrieval strategies: a bottom-up strategy enabling the creation of semantic descriptors of resources, and a top-down strategy enabling the capture of business needs in search patterns. Two semantic structures are proposed to support the resource description and retrieval mechanisms: a manufacturing process ontology and a process control dictionary. Basing on these semantic structures, each retrieval strategy provides different levels of description to the resources and enables the alignment of different types of business knowledge. The experimentation of the approach within STMicroelectronics showed promising results.

Ses publications : ici
Mouna GOUIA BENZINA : Proposition d'une approche sur la maximisation des compétences de la foule au sein des plateformes de "CROWDSOURCING" (cas de plateformes de bascklinks)
Le vendredi 29 novembre 2013 à 10h00 - Faculté de St Jérome
Sous la direction de : AGOSTINELLI Serge

Ses publications : ici
Régis ABEILLE : « Algorithmes d'extraction robuste de l'intervalle-inter pulse du biosonar du cachalot, applications éthologiques et suivi des populations »
Le mercredi 27 novembre 2013 à 14h00 - 'Université du Sud Toulon-Var, Campus de la Garde, bâtiment A, salle des Commissions,
Sous la direction de : GLOTIN Hervé
Le cachalot, Physeter macrocephalus, le plus grand des odontocètes, a été longtemps exposé à la pêche pour extraire l'huile contenue dans sa tête (spermaceti), et est maintenant vulnérable. Les cachalots nagent dans toutes les mers ouvertes et atteignent les plus grandes profondeurs, où ils chassent par écholocation. Ils émettent des sons, des clics à large bande, à structure multi-pulsée générée par des réflexions intra-tête. Ces clics contiennent de l'information sur la taille de l'animal et sur son orientation, reposant sur les délais entre les pulses qui le composent (intervalle inter-pulse 'IPI'). Ces mesures sont utiles dans la préservation et les efforts de suivi populationnel du cachalot, puisqu'il est impossible de filmer ces mammifères nageant en grandes profondeurs. Les avancées technologiques permettant un essor considérable de la qualité des enregistrements sous-marins, des algorithmes d'analyse sont requis pour un suivi de cette population et des études comportementales et mesures de protection. La littérature offre une variété de méthodes pour le calcul de l'IPI. Cependant, elles souffrent d'un mélange des différents délais entre pulses résultant en une estimation de taille peu précise, sans permettre l'extraction de l'orientation de l'animal. Dans cette thèse, une nouvelle méthode pour une analyse fine de l'IPI est présentée. Elle ne mélange pas les différents délais entre pulses, mais sélectionne les pulses à travers une analyse combinatoire et statistique. Il en résulte une meilleure estimation de la taille du cachalot. De plus une information supplémentaire, sur son orientation, est extraite. Notre algorithme est comparé avec ceux de l'état de l'art. Nous en discutons ses forces et faiblesses. Les résultats expérimentaux sont donnés autant sur des exemples avec un ou plusieurs cachalots émettant en même temps, que sur des données obtenues à travers différentes zones géographiques (France, Italie, Etats-Unis) et différents systèmes d'enregistrement. Ceci démontre la robustesse de la méthode proposée, et donne des perspectives pour le suivi des cachalots à l'échelle du globe.




Le Bureau des Études Doctorales a le plaisir de vous informer que


Monsieur Régis ABEILLE

Doctorant au laboratoire LSIS - Laboratoire des Sciences de l'Information et des systèmes - UMR 7296, rattaché à l'école doctorale 548 « Mer et Sciences », sous la direction de M. le professeur Hervé Glotin et M. Giraudet, co-encadrante,

soutiendra publiquement sa thèse en vue de l'obtention du doctorat en informatique sur le thème suivant :


« Algorithmes d'extraction robuste de l'intervalle-inter pulse du biosonar du cachalot, applications éthologiques et suivi des populations »

Le mercredi 27 novembre 2013 à 14h00, à l'Université du Sud Toulon-Var, Campus de la Garde, bâtiment A, salle des Commissions,

devant un jury composé de :

- M. Adam OLIVIER, Professeur à l'Université Paris 6, rapporteur,

- M. Jérôme SUEUR, Habilité à diriger des recherches au Muséum National d'Histoire Naturelle de Paris, rapporteur,

- M. Gianni PAVAN, Professeur à l'Université de Pavia, Italie,

- M. Pascale GIRAUDET, Docteur PRAG à l'Université de Toulon,

- M. Hervé GLOTIN, Professeur à l'Université de Toulon.


Résumé :

Le cachalot, Physeter macrocephalus, le plus grand des odontocètes, a été longtemps exposé à la pêche pour extraire l'huile contenue dans sa tête (spermaceti), et est maintenant vulnérable. Les cachalots nagent dans toutes les mers ouvertes et atteignent les plus grandes profondeurs, où ils chassent par écholocation. Ils émettent des sons, des clics à large bande, à structure multi-pulsée générée par des réflexions intra-tête. Ces clics contiennent de l'information sur la taille de l'animal et sur son orientation, reposant sur les délais entre les pulses qui le composent (intervalle inter-pulse 'IPI'). Ces mesures sont utiles dans la préservation et les efforts de suivi populationnel du cachalot, puisqu'il est impossible de filmer ces mammifères nageant en grandes profondeurs. Les avancées technologiques permettant un essor considérable de la qualité des enregistrements sous-marins, des algorithmes d'analyse sont requis pour un suivi de cette population et des études comportementales et mesures de protection. La littérature offre une variété de méthodes pour le calcul de l'IPI. Cependant, elles souffrent d'un mélange des différents délais entre pulses résultant en une estimation de taille peu précise, sans permettre l'extraction de l'orientation de l'animal. Dans cette thèse, une nouvelle méthode pour une analyse fine de l'IPI est présentée. Elle ne mélange pas les différents délais entre pulses, mais sélectionne les pulses à travers une analyse combinatoire et statistique. Il en résulte une meilleure estimation de la taille du cachalot. De plus une information supplémentaire, sur son orientation, est extraite. Notre algorithme est comparé avec ceux de l'état de l'art. Nous en discutons ses forces et faiblesses. Les résultats expérimentaux sont donnés autant sur des exemples avec un ou plusieurs cachalots émettant en même temps, que sur des données obtenues à travers différentes zones géographiques (France, Italie, Etats-Unis) et différents systèmes d'enregistrement. Ceci démontre la robustesse de la méthode proposée, et donne des perspectives pour le suivi des cachalots à l'échelle du globe.


Abstract :

The sperm whale, Physeter macrocephalus, belongs to toothed whales and it is the largest within the suborder. Exposed to years of whaling due to the extensive use of liquid wax located in its head (spermaceti) in industrial products, it is now considered a vulnerable species and it is highly protected globally. Given that sperm whales are not restricted geographically, but can be located anywhere in open seas, major international efforts have been brought forth to create protected environments and parks. A successful example of such measures is PELAGOS, a marine sanctuary spanning Italy, France and Monaco with the goal of protecting the ecosystem by monitoring and preserving the marine biodiversity present in the area. Sperm whales are also part of the deepest-diving mammals. As a result, their main mechanism for navigating and foraging is the use of echolocation. Specifically, they emit broadband clicks that are comprised of a multi-pulse structure. This multi-pulse structure is generated due to various reflections within the sperm whale's head (spermaceti). Scientists have long reasoned that by recording and studying the click sounds, information can be extracted regarding the whale's size and orientation based on the delays between the pulse structure within the clicks, known as the Inter-Pulse-Interval (IPI). This observation has had a major impact in global preservation and monitoring efforts since it is highly difficult to have visual access to these deep-diving mammals. Moreover, with the increasing technological advances allowing for an exponential growth of high quality underwater recordings, the use of computational methodologies that analyze the click sounds of sperm whales offer a rigorous and large scale assessment for monitoring populations and studying marine ecosystems, which can aid decision makers for creating preservation policies. The current literature offers a variety of methodologies for calculating the IPI in order to measure the size of a sperm whale. However, these methodologies suffer by merging the different pulse delays and thus obtaining a less accurate estimate of the whale's size. Moreover, given these merged methods no additional information regarding the orientation of the sperm whale can be easily extracted. In this work, a new methodology for accurate IPI estimation is presented without merging the different pulse delays, but by selecting the unique pulse candidates through a combinatorial and statistical analysis allowing for better precision in the final estimation of the sperm whale's size and providing additional information on the whale's orientation. Our methodologies are compared with the known state of the art algorithms and the strengths and weaknesses are discussed to provide a better insight. Experimental results are showcased for single and multi-whale examples for a variety of data obtained from different locations such as France, Italy and Canada in order to account not only for the possible bias due to the different recording apparatus, but also to provide a generalised understanding of the importance of this work for sperm whale monitoring in diverse environments.

Ses publications : ici
Hammad SQALLI : Vers une communication collective efficiente : le rôle des méthodes agiles dans l'intelligence collaborative.
Le mardi 26 novembre 2013 à 10h00 - Faculté de St Jérôme
Sous la direction de : AGOSTINELLI Serge

Ses publications : ici
Claire CAPANNA : Reconstruction 3D de petits corps par photoclinométrie
Le jeudi 14 novembre 2013 à 13h30 - Laboratoire d'Astrophysique de Marseille
Sous la direction de : Gesquière Gilles
La reconstruction 3D en astrophysique permet d’effectuer des études géologiques d’objets très éloignés, elle peut également être utilisée pour des besoins opérationnels de certaines missions spatiales. Ma thèse se situe dans le cadre de la mission Rosetta de l’Agence Spatiale Européenne dont la sonde a été lancée en mars 2004. La mission a pour principal objectif l’observation du noyau de la comète 67P/Churyumov-Gerasimenko, à partir de juillet 2014. La sonde restera en orbite autour du noyau pendant 18 mois. Au cours de son périple, Rosetta a déjà survolé deux astéroïdes : Steins (en 2008) et Lutetia (en 2010). La méthode décrite dans cette thèse appartient à la catégorie des méthodes dites de “photoclinométrie”. Ces méthodes utilisent les niveaux de gris des images observées pour reconstruire les pentes de la surface. Nous appelons la méthode de photoclinométrie développée, au cours de cette thèse, MPCD : “Multirésolution Photoclinométrie par Déformation”. Elle s’appuie sur la déformation de modèle de forme au cours d’un processus d’optimisation. La fonction à minimiser résulte d’un calcul de maximum de vraisemblance, mesurant la similitude entre un jeu d’images observées et les images synthétiques correspondantes créées à partir du modèle de forme. Les astéroïdes Steins et Lutetia servent à la validation de la méthode avec des données réelles.

Ses publications : ici
Amir PIRAYESH : Un cadre décisionnel pour l'évaluation de la performance de la collaboration dans le processus de conception du produit : une analyse d'intéropérabilité
Le dimanche 10 novembre 2013 à 10h00 - ENSAM
Sous la direction de : ROUCOULES Lionel - ETIENNE Alain

Ses publications : ici
Mikaël MARTIN : CONTRIBUTION A L’INTÉGRATION D'UN ACTIONNEUR INTELLIGENT A RETOUR D'EFFORT AU SEIN D'UN SYSTÈME COMPLEXE – APPLICATION AUX COMMANDES DE VOL HÉLICOPTÈRES”
Le jeudi 07 novembre 2013 à 10h30 - ENSAM Aix-en-Provence AMPHI 1
Sous la direction de : PJ. BARRE, J. GOMAND
RESUME : Les pilotes d’hélicoptères disposent à l’heure actuelle de plusieurs dispositifs d’assistance en effort. Insérés dans les commandes de vol de l’appareil, ces dispositifs évitent au pilote de subir des efforts trop importants dans les manches de pilotage, mais permettent aussi de donner aux pilotes une indication des efforts demandés à l’appareil. Au cours du temps et des besoins, les Commandes De Vol (CDV) se sont complexifiées par l’ajout de nouveaux équipements sans nécessairement étudier au préalable les possibilités d’évolution des éléments déjà existant. Majoritairement composés d’éléments hydro-électro-mécaniques, ces dispositifs permettent peu d’adaptation en temps réel et sont parfois antagonistes. Dans ce travail, une alternative aux commandes de vol d’aujourd’hui est proposée via l’introduction d’un élément actif, en substitution des éléments dédiés à l’assistance et au ressenti d’effort. Cette transition doit être accompagnée d’une méthodologie qui doit permettre de garantir « au global » la fonction des CDV actuelles : le changement doit être transparent pour le pilote. Dans un premier temps, un modèle des commandes de vol existantes est construit en mettant en œuvre une approche énergétique et graphique, structurée selon des lois de causalité physique. Puis une évolution des commandes de vol est proposée pour introduire le modèle de l’élément actif. L’utilisation de la Représentation Energétique Macroscopique permet ensuite, à partir des techniques d’inversion de modèle, de déduire des architectures de commande offrant la gestion optimisée de l’énergie au plus près des éléments qui la transforment. Des essais expérimentaux, effectués à partir d’un prototype monté sur un banc d’essais représentatif des commandes de vol d’un hélicoptère, complètent les résultats de simulation. La représentation du modèle des commandes de vol actuelles est exploitée dans la commande de l’élément actif pour générer, avec méthode, une référence d’effort permettant de conserver les sensations de pilotage existantes.


Mots clés : Hélicoptère, Retour d’effort actif, Commande par Modèle Interne, Représentation Energétique Macroscopique

Ses publications : ici
Cang PHAN ANH : CRACK REMOVAL AND HOLE FILLING ON COMPOSITE SUBDIVISION MESHES
Le vendredi 25 octobre 2013 à 13h30 - à Polytech Marseille, campus de Luminy, salle de réunion bâtiment A, 2e étage
Les techniques de traitement de la géométrie sont devenues essentielles pour une large gamme d'applications d'ingénierie allant de la simulation de chirurgie virtuelle, en passant par l'infographie, la visualisation scientifique, la réalité virtuelle, la simulation et l'imagerie médicale.

Construire une surface lisse d'un objet 3D est un problème important dans de nombreuses applications graphiques. En particulier, les méthodes de subdivision permettent de passer facilement d'un maillage discret à une surface continue. Un problème général résultant de la subdivision de deux maillages initialement connectés le long d'un bord est l'apparition de fissures ou de trous entre eux. Ces fissures produisent non seulement des formes indésirables, mais induisent aussi des difficultés pour les traitements ultérieurs. Il faut donc réparer ces défauts de sorte que la surface obtenue soit lisse et puisse être subdivisée ou modifiée.
Nous proposons de nouvelles méthodes pour relier deux maillages avec des résolutions différentes en utilisant une transformée en ondelettes B-splines et une approximation locale ou une interpolation locale à l'aide de fonctions de base radiales (RBF). Ces procédés génèrent un maillage de connexion où la continuité est contrôlée. La résolution du maillage est ajustable pour respecter le changement de résolution entre les zones grossières et fines. En outre, nous présentons des méthodes pour combler les trous à n-côtés, et le raffinement des maillages grâce à un schéma de subdivision adaptative.

Cette thèse présente d'abord de nouvelles méthodes de remplissage des trous à n-côtés. L'idée principale est de générer la connexion par une surface continue en construisant un maillage de contrôle extrapolé à partir des sommets de la frontière du trou sur la base des méthodes d'interpolation locales (interpolation RBF, interpolation par arcs de cercle, ajustement des plans tangents) et de schémas de subdivision communs (Loop, Butterfly et Doo-Sabin). Ensuite, les méthodes de connexion des maillages sont introduites pour relier deux maillages avec des résolutions différentes, même avec des schémas de subdivision différents. Les sommets du maillage de liaison sont produits localement par l'application d'une transformée en ondelettes B-splines et une interpolation locale RBF ou une approximation locale des plans tangents. Ensuite, on introduit un procédé de subdivision adaptative pour subdiviser les zones d'intérêt d'un maillage, en particulier à l'intérieur du maillage de connexion. Il est ainsi possible d'ajouter des détails géométriques avec différentes résolutions. Cette méthode est basée sur l'information de sommets dits $dead$ qui sont des sommets de délimitation entre les zones des maillages triangulaires afin de déterminer si les faces doivent être subdivisées ou non à l'étape de subdivision suivante. De plus, notre système peut éviter de produire des fissures qui sont causées par une différence de résolution entre les maillages.

Nous avons conçu, implémenté et testé les algorithmes en MatLab pour illustrer nos méthodes et montrer des résultats expérimentaux. Ces algorithmes sont mis en oeuvre sur de nombreux modèles d'objets 3D avec des formes complexes. En outre, nous avons fourni des approches différentes pour chaque problème. Ainsi, les résultats des différentes approches sont comparés et évalués afin d'exploiter les avantages et les inconvénients de ces approches.

Mots clés: Connexion de maillages, régularité, fonctions de base radiales, approximation locale, ondelettes B-splines.

Ses publications : ici
Van-sinh NGUYEN : 3D Modeling of elevation surfaces from voxel structured point clouds extracted from seismic cubes
Le vendredi 25 octobre 2013 à 09h30 - Polytech Marseille, campus de Luminy, salle de réunion bâtiment A, 2e étage
Reconstruire des surfaces avec des données provenant d’une technique d’acquisition automatique entraîne toujours le problème de la masse des données acquises. Cela implique que les procédés habituels ne peuvent pas être appliqués directement. Par conséquent, un processus de réduction des données est indispensable. Un algorithme efficace pour un traitement rapide préservant le modèle original est un outil précieux pour la construction d’une surface optimale et la gestion des données complexes.

Dans cette thèse, nous présentons des méthodes pour construire une surface géologique optimale à partir d’une quantité énorme de points 3D extraits de cubes sismiques. Appliquer le processus à l’ensemble des points induit un risque important de contraction de la surface de sorte que l’extraction de la frontière initiale est une étape importante permettant une simplification à l’intérieur de la surface. La forme globale de la surface sera alors mieux respectée pour la reconstruction de la surface triangulaire finale. Nos propositions sont basées sur la régularité des données qui permet, même si des données sont manquantes, d’obtenir facilement les informations de voisinage.

Tout d’abord, nous présentons une nouvelle méthode pour extraire et simplifier la frontière d’une surface d’élévation définie par un ensemble de voxels dans un grand volume 3D où des données sont manquantes. Deuxièmement, une méthode pour simplifier la surface à l’intérieur de sa frontière est présentée. Elle comprend une étape de simplification grossière optionnelle suivie par une étape plus fine basée sur l’étude des courbures. Nous tenons également compte du fait que la densité de données doit changer graduellement afin de recevoir à la dernière étape d’une surface triangulée avec de meilleurs triangles. Troisièmement, nous avons proposé une nouvelle méthode rapide pour trianguler la surface après simplification.

Ses publications : ici
Arnault TREMOLET : Contribution aux méthodes et outils pour les études conceptuelles giravions.
Le mardi 22 octobre 2013 à 10h00 - ONERA
Sous la direction de : OULADSINE Mustapha - BASSET Pierre-Marie

Ses publications : ici
Mathieu CHOUCHANE : Optimisation spatio-temporelle d'efforts de recherche pour cibles manoeuvrantes et intelligentes
Le jeudi 17 octobre 2013 à 15h30 - salle de conférence "Gérard Jaumes" du département Génie Industriel et Informatique de Polytech Marseille
Sous la direction de : OULADSINE Mustapha - PARIS Sébastien

Ses publications : ici
Yassine KHELIL : Analyse des données en vue de diagnostic des moteurs Diesel de grande puissance
Le vendredi 04 octobre 2013 à 10h00 - salle des conférences du département GII de Polytech'Marseille
Cette thèse a été réalisée dans le cadre d'un projet industriel (BMCI), dont l'objectif est d'augmenter la disponibilité des équipements sur les navires. Dans cette thèse, nous proposons une approche qui met à contribution deux approches différentes, à savoir une approche à base de données pour la détection des défauts et une approche à base de connaissances d'experts pour l'isolation des défauts. Cette approche se veut générique et applicable à différents sous-systèmes du moteur ainsi qu'à divers moteurs et offre une ouverture pour une éventuelle application sur d'autres équipements. De plus, elle est tolérante vis-à-vis des éventuels changements au niveau de l'instrumentation disponible. Cette approche a été testée sur la détection et l'isolation des défauts les plus fréquents et aux conséquences graves auxquels les moteurs Diesel sont sujets. Tous les sous-systèmes du moteurs Diesel sont inclus et l'approche de diagnostic prend en considération les interactions existantes entre les sous-systèmes. L'approche de diagnostic a été testée sur un banc d'essai et sur le navire militaire Adroit de DCNS. Les défauts réalisés sur divers circuits du banc moteur et les défauts apparus en fonctionnement sur certains moteurs de l'Adroit, ont été majoritairement détectés et isolés avec succès. De plus, pour pallier à l'incertitude et au caractère flou des relations expertes utilisées dans la procédure d'isolation, une validation des relations de cause à effet a été réalisée, dans le cadre de cette thèse, par la réalisation d'un modèle analytique de simulation de défauts.

Ses publications : ici
Jean-philip ROYER* : Identification aveugle de mélanges et décomposition canonique de tenseurs : application à l'analyse de l'eau.
Le vendredi 04 octobre 2013 à 10h00 - 'Université du Sud Toulon-Var, Campus de la Garde, bâtiment A, salle des Commissions,
Sous la direction de : THIRION-MOREAU Nadege

Ses publications : ici
Alain AJAMI : Modélisation et simulation d'une station mono-opérateur pour le contrôle de drones et la planification de trajectoire.
Le jeudi 03 octobre 2013 à 13h30 - Université du Sud Toulon-Var, Campus de la Garde, bâtiment K, salle K018,
Sous la direction de : Gauthier Jean-Paul / Balmat Jean-François
e travail s'inscrit dans le projet plus global SHARE dont l'objectif principal est de concevoir une station de contrôle sol universelle mono-opérateur de nouvelle génération pour le contrôle et la commande de drones à voilure fixe et voilure tournante.

L'objectif de cette thèse est de développer un simulateur générique de la station de contrôle capable de simuler en temps réels les différents types de drones, les capteurs embarqués (caméra), l'environnement et les différentes missions militaires définies par le standard STANAG 4586. Après une modélisation des différentes parties de la station, nous présentons l'architecture adoptée pour le simulateur et le module de contrôle. Ce dernier est divisé en plusieurs niveaux hiérarchiques, dont le niveau supérieur contient les algorithmes de planification de trajectoire pour les drones à voilure fixe HALE (haute altitude, longue endurance). Ces algorithmes servent à calculer un chemin admissible entre un point de départ et un point d'arrivée en minimisant une fonction de coût.

Enfin nous avons développé un système d'aide à la décision pour la gestion en ligne des missions, capable de réaliser une sélection d'objectifs, et une sélection du meilleur chemin proposé par les algorithmes de planification de trajectoire. Cet outil a pour objectif d'aider l'opérateur de la station à prendre la meilleure décision en maximisant les récompenses obtenues lors de la réalisation des objectifs et en minimisant certains critères tels que la consommation des ressources, le danger, les conditions météorologiques, etc.

The presented work is part of a larger project called SHARE, which consists in developing a universal new generation ground control station for the monitoring and the control of fixed and rotary wing UAVs (Unmanned Aerial Vehicle).

The objective of this PhD thesis is to develop a generic ground control station simulator capable of simulating in real time different types of UAVs, onboard sensors, several flight environments, and various military missions which are defined according to the STANAG 4586 standard. First, we introduce the model of the different parts of the station, and then we present the architecture adopted for the simulator and the control module. The latter is divided into several hierarchical levels ; the upper level contains the path planning algorithms for fixed wing HALE (High Altitude, Long Endurance) UAV. These algorithms are used to calculate an admissible path between initial and final position by minimizing a cost function.

Finally, in order to manage missions online, we developed a decision support system that is capable of performing a variety of objectives. This system also supplies the operator the best paths proposed by planning algorithms. This tool aims to help the station operator to make the decision by maximizing the rewards obtained during the achieving the objectives and minimizing certain criteria (resource consumption, danger, weather,..).

Ses publications : ici
Adil MEHDARY : Développement d'outils de contrôle et de diagnostic pour l'optimisation et la gestion de l'énergie pour véhicules hybrides.
Le jeudi 03 octobre 2013 à 10h00 - Faculté de St Jérome
Sous la direction de : M'SIRDI - NAAMANE - TRIHI

Ses publications : ici
Thibault MAILLOT : Planification de trajectoire pour drones de combat
Le jeudi 03 octobre 2013 à 10h00 - UTLN
Sous la direction de : GAUTHIER Jean-Paul

Ses publications : ici
Marco POCCI : Test and diagnosis of discrete event systems using Petri nets
Le lundi 23 septembre 2013 à 10h00 - Salle des conférences du département GII de Polytech'Marseille

Ses publications : ici
Olivier COULON : Variabilité et organisation corticale dans le cadre de l'analyse de données cérébrales
Le jeudi 05 septembre 2013 à 13h30 - l'amphithéâtre du bâtiment A de Polytech Sud/ESIL
Le jury sera composé de :

Christian Barillot, projet VISAGE, IRISA, Rennes
Habib Benali, Lab LIF, INSERM, Paris
Louis Collins, Montreal Neurological Institute, McGill University, Montreal
Rachid Deriche, projet Athena, INRIA, Sophia-Antipolis
Bernard Fertil, Lab LSIS, CNRS, Marseille
Jean-François Mangin, Lab LNAO, Neurospin, CEA, Gif/Yvette

La soutenance sera suivie d'un pot sur la terrasse de Polytech.

Ses publications : ici
Thamer LOUATI : Etude et réalisation d'un contrôle isoarchique de flux de personnes via des capteurs biométriques et infotroniques
Le mardi 16 juillet 2013 à 10h30 - Polytech-DGII, Campus de St Jérôme
Sous la direction de : PUJO Patrick, OUNNAR Fouzia
Les travaux effectués dans le cadre de cette thèse porte sur le contrôle intelligent, isoarchique et multicritère de flux de personnes dans une zone fermée. Nous proposons un système de contrôle basé sur la biométrie multimodale et le RFID qui sont deux techniques complémentaires pour une sécurisation robuste et flexible du flux de personnes. La biométrie multimodale est utilisée pour une reconnaissance plus fiable des individus, et le RFID pour la sécurisation et le stockage des informations identitaires des personnes à surveiller. Ce système est complètement décentralisé et la décision concernant une demande d’accès est prise de manière autonome au niveau de chaque porte de chaque zone sous contrôle. Les entités internes participantes au processus de prise de décision répondent à des concepts et principes exprimés via le paradigme holonique. L’ouverture automatique d’une porte est conditionnée à la conjonction de plusieurs critères (identifications biométriques, identification RFID, autorisations d’accès, trajectoires de déplacements autorisées, état de la zone à l’instant t, etc.). Une méthode d’aide multicritère àla décision est ainsi déployée au sein de chaque porte d’accès pour fusionner les réponses des identifications biométriques et pour traiter automatiquement et en temps réel les demandes d’autorisation d’accès. Tout d’abord, un état de l’art a été réalisé sur la reconnaissance biométrique, l’apport de la multimodalité biométrique, la technologie RFID et les systèmes de contrôle d’accès physique basé sur la biométrie. Ensuite, un système de contrôle intelligent, isoarchique et multicritère a été proposé, intégrant l’utilisation simultanée de la multimodalité biométrique et du RFID. Enfin, un démonstrateur du système a été implémenté dans le cadre du contrôle de flux de détenus dans une prison. Il supporte l’opérationnalisation de différentes technologies biométriques et RFID. Ce démonstrateur a été testé et validé à travers différents scénarii de demandes d’accès.

Ses publications : ici
Aïmen KHACHAREM : Effet de l'utilisation de l'image sur l'apprentissage et l'amélioration des performances tactiques chez les footballeurs.
Le mercredi 03 juillet 2013 à 10h00 - ?
Sous la direction de : ZOUDJI Bachir - RIPOLL Hubert

Ses publications : ici
Habib NASSER : Systèmes mécatroniques à base d'observateurs embarqués pour la surveillance et le pilotage des systèmes Automatisés à structures variables
Le jeudi 27 juin 2013 à 10h30 - Polytech-DGII, Campus de St Jérôme
Sous la direction de : M'SIRDI Nacer - NAAMANE Aziz
L'intérêt de la mécatronique est de modéliser, de concevoir et de produire des nouveaux systèmes automatisés, plus performants et de nouvelles machines dites « intelligentes ».

Dans cette thèse nous nous intéressons à la modélisation, la simulation et la commande de systèmes complexes (robots, engins mobiles ou véhicules). En utilisant le logiciel de calcul symbolique Maple Nous avons généré des modèles, orientés suivant différents objectifs dictés par les impératifs du diagnostic, de la surveillance et de l'aide à la conduite. Ces modèles basés aussi bien sur les approches robotiques qu'énergétiques, mettent en évidence d’une part les propriétés et les particularités de la dynamique du véhicule en fonction de la trajectoire suivie (routes, nature de chaussée, …) et permettent d'autres parts de préciser les causes d'éventuelles défauts. Ce premier travail a conduit à une analyse mécatronique et énergétique appliquées aux véhicules.

Ainsi nous avons proposé un découpage dynamique du véhicule en plusieurs blocs fonctionnels, dont nous avons étudié l’évolution des termes de couplages et nous avons présenté un découpage énergétique du système global. Dans le cadre d’un projet ANR, nous avons mis en œuvre l’approche robotique afin de développer le modèle dynamique à 16 degrés de liberté (ddl) pour un tracteur 'Grégoire G7' robotisé et nous avons validé nos algorithmes d’identification de paramètres dynamiques en utilisant des données réelles et un simulateur de conduite réaliste développé sur Scaner Studio (environnement de simulation de conduite proposé par Oktal).
Concernant l’observation, nous avons développé des observateurs robustes par mode glissants, avec des matrices inconnues, assurant la convergence de l'estimation. Les attributs de la route (la pente, le dévers et la dérive) sont estimés avec des observateurs. Le critère de renversement a été testé sur la dynamique d'une voiture Citroën C5 et du tracteur G7.240.

Afin de disposer d'un démonstrateur expérimental servant à l'implémentation des observateurs précédemment proposés et pour la suite être en mesure de valider toutes les approches souhaitées. Un dispositif à base d'une boite des capteurs a été conçu en utilisant la nouvelle technologie Arduino. La boite contient plusieurs capteurs (Gyroscope, Accéléromètre, GPS …) et elle est dotée d'une communication sans fil (ZigBee, Wi-Fi). L'ensemble de capteurs assure la localisation du véhicule ou mobile et transfère les mesures à une plateforme (fixe ou mobile).
Enfin nous avons modélisé le comportement dynamique d'un kart électrique ainsi que la commande vectorielle de sa machine électrique. Avec Matlab/Simulink, nous avons réalisé un simulateur pour le kart électrique. En parallèle nous avons modélisé son analogie en se basant sur l'approche énergétique Bond Graph. Afin de robotiser le kart électrique nous avons intégré plusieurs capteurs et nous avons mis en place les actionneurs nécessaires pour l’objectif d’un pilotage autonome.
--------------------------------

Ses publications : ici
Livio DE LUCA : HDR : Caractérisation sémantique de représentations géométriques d’artefacts patrimoniaux
Le lundi 21 janvier 2013 à 10h30 - Aix-Marseille Université, école doctorale "Mathématiques et Informatique"
Nos travaux de recherche, à l’intersection entre les nouvelles technologies de l’information et de la communication et la documentation du patrimoine architectural, se concentrent sur l’acquisition, la modélisation et l’enrichissement sémantique de données spatiales à l’échelle de l’édifice via la formulation de méthodes, la définition de formalismes et le développement d’outils informatiques. Suite à un travail de thèse focalisé sur la définition d’une approche hybride (mêlant balayage laser 3D et photogrammétrie) pour la reconstruction 3D sémantique d’édifices, nos recherches se sont concentrées sur la définition et sur le développement de systèmes d’informations spatialisées à l’échelle architecturale. Ces travaux plus récents (conduits au sein de projets de recherche ANR, du ministère de la Culture et de la Communication, d’actions de recherche de l’Union Européenne ainsi que de thèses de doctorat) abordent différents thèmes visant à expliciter le potentiel de la structuration d’informations hétérogènes autour de modèles de description sémantiques d’édifices patrimoniaux : documentation de l’état de conservation et suivi des altérations, indexation et recherche visuelle de sources iconographiques, analyse et représentation des transformations spatio-temporelles.

Ses publications : ici
Hector ROMERO : Méthodologie d'idientification de modèles non linéaires utilisant l'approche neuronale.
Le mardi 01 janvier 2013 à 10h00 - ENSAM Aix-en-Provence AMPHI 1
Sous la direction de : CARMONA Jean-Claude

Ses publications : ici
Pierre MACHART : Coping with the Computational and Statistical Bipolar Nature of Machine Learning
Le vendredi 21 decembre 2012 à 11h00 - Saint-Charles (amphi de Chimie)
Sous la direction de : Hervé GLOTIN et Liva RALAIVOLA

Ses publications : ici
Mehdi RAHIM : Caractérisation de la dynamique des déformations de contours. Application à l'imagerie pelvienne
Le mercredi 19 decembre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : Rémy BULOT - Marc-Emmanuel BELLEMARE
Cette thèse présente une méthodologie appliquée à la caractérisation de la dynamique de structures déformables sur des séquences temporelles (2D+t). Des indicateurs sont proposés pour l'estimation de la mobilité de formes non-rigides, à partir de leurs contours.
Deux approches complémentaires sont développées : En premier lieu, les descripteurs de forme sont utilisés pour quantifier les variations morphologiques globales des formes, et pour estimer des repères géométriques spécifiques. La deuxième approche repose sur l'appariement difféomorphique pour déterminer une paramétrisation unifiée des contours des formes, et pour ensuite décrire les déformations.
Une étape d'évaluation permet d'apprécier la qualité des indicateurs en termes de coût algorithmique, de robustesse face aux données altérées, et de capacité à différencier deux séquences distinctes.
Cette approche de caractérisation est appliquée à des séquences IRM dynamiques de la cavité pelvienne, où sont observés les principaux organes pelviens (vessie, utérus-vagin, rectum). Il s'agit d'organes à tissus-mous d'une grande variabilité morphologique qui se déplacent et se déforment.
Aussi, cette caractérisation est validée dans le cadre de deux applications.
D'une part, l'analyse statistique effectuée sur un ensemble de séquences permet de mettre en évidence des comportements caractéristiques des organes, d'identifier des références anatomiquement significatives, et d'aider à l'interprétation des diagnostics des organes pelviens.
D'autre part, dans le contexte de la réalisation d'une modélisation de la dynamique pelvienne patiente-spécifique, la caractérisation vise à évaluer quantitativement la précision de la modélisation, en utilisant l'IRM dynamique comme vérité-terrain. Ainsi, elle apporte des indications sur la correction des paramètres du modèle physique.


Ses publications : ici
Gwénolé LE MOAL : Multisensor monitoring of aeronautical drilling and countersinking operations
Le mercredi 19 decembre 2012 à 10h00 - ENSAM Amphi 1
Sous la direction de : Philippe VERON - Georges MORARU
L'assemblage de structures aéronautiques nécessite de nombreuses opérations de perçage et de fraisurage. Les deux problématiques principales concernant ces opérations sont que les alésages réalisés correspondent aux standards de qualité exigés, et que les outils coupants soient utilisés de manière optimale afin de réduire les coûts. Ces deux objectifs nécessitent l'implémentation d'une solution de surveillance en ligne des opérations de perçage. De nombreuses études ont été réalisées à ce sujet. Pourtant, une grande partie des méthodologies développées ont peu de chance de quitter les laboratoires au profit des sites de production industrielle en raison de leur difficulté d'implémentation et de leur manque de robustesse. L'utilisation de plusieurs capteurs, couplés à des techniques avancées de traitement de l'information a permis une meilleure appréhension de la complexité du procédé de perçage et une augmentation flexibilité des systèmes de surveillance. Cependant, la majorité des études ont été réalisées en laboratoire et dans conditions favorables, et les problématiques relatives à la flexibilité des conditions opératoires, ou encore à la qualité des données issues des capteurs n'ont pas été abordées. Cette étude a pour but de démontrer les améliorations potentielles que peuvent apporter les développements récents concernant la modélisation et la fusion de connaissances imparfaites pour la surveillance robuste des opérations de perçage. Une approche sera proposée pour l’implémentation industrielle de systèmes de surveillance de procédés. La méthodologie proposée doit pouvoir être transposée à un champ d'application plus large incluant la plupart des procédés de fabrication automatisés.

Ses publications : ici
Youssef AGREBI ZORGANI : Estimation Adaptative de la Vitesse et de la Résistance Rotorique pour la Commande par Orientation du Flux Statorique d’un Moteur Asynchrone sans Capteur Mécanique
Le samedi 15 decembre 2012 à 10h30 - Ecole Nationale d'Ingénieurs de Sfax (ENIS)- Tunisie
Sous la direction de : Mohamed BOUSSAK/Yassine KOUBAA

Ses publications : ici
Didier PIN : Le rôle du système de communication dans l'organisation humaines des systèmes d'information.
Le jeudi 13 decembre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : AGOSTINELLI Serge

Ses publications : ici
Régis ALENDA : Sémantique Préférentielle et méthodes de preuve pour les logiques de similarité comparative.
Le jeudi 13 decembre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : Nicola OLIVETTI
Les logiques de similarité comparative des concepts ont été introduites pour formaliser une forme de raisonnement qualitatif sur la similarité entre concepts dans des ontologies. Leur sémantique est basée sur une notion générale de distance, et ces logiques sont très liées à d'autres formalismes pour le raisonnement spatial ainsi qu'aux logiques du conditionnel.
Les précédents travaux sur le sujet ont portés sur les propriétés computationnelles de ces logiques. Ici, nos axes de recherches sont: 1. développer une sémantique relationnelle pour abstraire les valeurs numériques; 2. axiomatiser ces logiques; 3. construire des procédures de à tableaux; 4. préciser le lien avec les logiques du conditionnel.
Tout d'abord, nous montrons que la sémantique de ces logiques peut être reformulée en termes d'une relation de préférence ternaire similaire à celles des logiques du conditionnel. Les propriétés de cette sémantique par rapport à différentes classes d'espaces de distance sont étudiées.
Ensuite nous utilisons cette sémantique préférentielle pour trouver des axiomatisations et donner des procédures de décisions à tableau pour ces logiques.
Finalement, nous montrons que les logiques de similarité comparative sont en fait des logiques du conditionnel déguisées. Une nouvelle sémantique pour l'implication conditionnelle, basée sur les espaces de distance, est proposée.

Ses publications : ici
Maud RIO : A l'interface de l'ingenierie et de l'analyse environnementale.
Le vendredi 07 decembre 2012 à 10h00 - UTT Université de technologie de Troyes
Sous la direction de : Lionel Roucoules - T. Reyes
Malgré le développement rapide d'outils et de méthodes appropriés, la pratique de l'écoconception reste difficile en industrie. En particulier par le manque de dynamisme et de flexibilité des échanges d'informations entre les concepteurs multi-métier et l'expert environnement durant le processus de conception. Ainsi, ces recherches proposent une méthode leur permettant d'améliorer l'interopérabilité de leurs outils en utilisant la fédération fondée sur l'approche d'Ingénierie Dirigée par les Modèles (IDM). La méthode se décline en une étape de création de modèles associés aux outils des concepteurs et de l'expert environnement, et en une étape d'utilisation des modèles pour déployer le processus de conception suivant la tactique définie par les chefs de département. La proposition a été expérimentée sur deux cas d'études des entreprises Parkeon et Quiksilver. Les résultats des expérimentations montrent que la méthode est applicable au milieu industriel et confère trois propriétés : (1) la capacité de s'adapter aux différents contextes que nécessite la pratique de l'éco-conception (2) l'échange dynamique des données disponibles entre les concepteurs et l'expert environnement et (3) la capacité de l'expert environnement à répondre de manière adaptée aux concepteurs afin qu'ils réitèrent leurs choix en faveur de la composante environnementale. Enfin, la méthode contribue à construire une pro-activité des métiers durant le processus de conception. Cette dynamique facilite l'application de la tactique et de la stratégie environnementale

Ses publications : ici
Abdo ABOU JAOUDE : Modèle Analytique Avancé pour le Pronostic des Systèmes Industriels Soumis à la Fatigue
Le vendredi 07 decembre 2012 à 10h00 - Université Libanaise Beyrouth
Sous la direction de : M. OULADINE - H. NOURA - S. KADRY

Ses publications : ici
Salowa METHNANI : Diagnostic reconstruction et identification des défauts capteurs et actionneurs : application aux stations d'épurations des eaux usées.
Le lundi 03 decembre 2012 à 10h00 - Ecole Nationale d'Ingénieurs de Sfax (ENIS)- Tunisie
Sous la direction de : GAUTHIER Jean-Paul

Ses publications : ici
Christophe CORBIER : Contribution à l’estimation robuste de modèles dynamiques : Application à la commande de systèmes dynamiques complexes
Le jeudi 29 novembre 2012 à 10h00 - ENSAM Amphi 1
Sous la direction de : JC. CARMONA - V. ALVARADO
L'identification des systèmes dynamiques complexes reste une préoccupation lorsque les erreurs de prédictions contiennent des outliers d'innovation. Ils ont pour effet de détériorer le modèle estimé, si le critère d'estimation est mal choisi et mal adapté. Cela a pour conséquences de contaminer la distribution de ces erreurs, laquelle présente des queues épaisses et s'écarte de la distribution normale. Pour résoudre ce problème, il existe une classe d'estimateurs, dits robustes, moins sensibles aux outliers, qui traitent d'une manière plus « douce » la transition entre résidus de niveaux très différents. Les M-estimateurs de Huber font partie de cette classe. Ils sont associés à un mélange des normes L2 et L1, liés à un modèle de distribution gaussienne perturbée, dit gross error model. A partir de ce cadre formel, nous proposons dans cette thèse, un ensemble d'outils d'estimation et de validation de modèles paramétriques linéaires et pseudo-linéaires boîte-noires, avec extension de l'intervalle de bruit dans les petites valeurs de la constante d'accord de la norme de Huber. Nous présentons ainsi les propriétés de convergence du critère d'estimation et de l'estimateur robuste. Nous montrons que l'extension de l'intervalle de bruit réduit la sensibilité du biais de l'estimateur et améliore la robustesse aux points de levage. Pour un type de modèle pseudo-linéaire, il est présenté un nouveau contexte dit L-FTE, avec une nouvelle méthode de détermination de L, dans le but d'établir les linéarisations du gradient et du Hessien du critère d'estimation, ainsi que de la matrice de covariance asymptotique de l'estimateur. De ces relations, une version robuste du critère de validation FPE est établie et nous proposons un nouvel outil d'aide au choix de modèle estimé. Des expérimentations sur des processus simulés et réels sont présentées et analysées.L'identification des systèmes dynamiques complexes reste une préoccupation lorsque les erreurs de prédictions contiennent des outliers d'innovation. Ils ont pour effet de détériorer le modèle estimé, si le critère d'estimation est mal choisi et mal adapté. Cela a pour conséquences de contaminer la distribution de ces erreurs, laquelle présente des queues épaisses et s'écarte de la distribution normale. Pour résoudre ce problème, il existe une classe d'estimateurs, dits robustes, moins sensibles aux outliers, qui traitent d'une manière plus « douce » la transition entre résidus de niveaux très différents. Les M-estimateurs de Huber font partie de cette classe. Ils sont associés à un mélange des normes L2 et L1, liés à un modèle de distribution gaussienne perturbée, dit gross error model. A partir de ce cadre formel, nous proposons dans cette thèse, un ensemble d'outils d'estimation et de validation de modèles paramétriques linéaires et pseudo-linéaires boîte-noires, avec extension de l'intervalle de bruit dans les petites valeurs de la constante d'accord de la norme de Huber. Nous présentons ainsi les propriétés de convergence du critère d'estimation et de l'estimateur robuste. Nous montrons que l'extension de l'intervalle de bruit réduit la sensibilité du biais de l'estimateur et améliore la robustesse aux points de levage. Pour un type de modèle pseudo-linéaire, il est présenté un nouveau contexte dit L-FTE, avec une nouvelle méthode de détermination de L, dans le but d'établir les linéarisations du gradient et du Hessien du critère d'estimation, ainsi que de la matrice de covariance asymptotique de l'estimateur. De ces relations, une version robuste du critère de validation FPE est établie et nous proposons un nouvel outil d'aide au choix de modèle estimé. Des expérimentations sur des processus simulés et réels sont présentées et analysées.

Ses publications : ici
Florian GRAGLIA : Amélioration du photon mapping pour un scénario walkthrough dans un objectif de rendu physiquement réaliste en temps réel
Le lundi 26 novembre 2012 à 13h30 - l'amphi C de l'ESIL sur le campus de Luminy, à Marseille (13009)
Lors du développement d'un produit industriel, il est nécessaire de visualiser à différentes étapes du processus la maquette numérique du produit à des fins de validation et de mesures. Cette thèse a pour objectif d'améliorer la qualité et le réalisme des simulations 3D dans le contexte d'un processus de production. Ces simulations impliquent souvent des scénarios de type walkthrough, avec une géométrie fixe mais un déplacement libre de l'observateur. Nous nous intéresserons donc plus précisément aux modèles et aux méthodes de rendu physiquement réaliste de scènes complexes pour ce type de scénario.

Durant l'étape de rendu, l'utilisateur doit pouvoir mesurer précisément la luminance énergétique émise par un point ou une zone donnée, ainsi que modifier en temps réel la puissance des sources lumineuses.

A travers l'étude approfondie du photon mapping, nous allons montrer comment réduire la complexité de l'étape de rendu afin d'améliorer les performances du processus dans le cadre d'un scénario walkthrough. Nos travaux s'intéressent notamment aux relations existant entre la géométrie et la carte de photons, aux structures accélératrices utilisées, ainsi qu'à la réduction du biais induit par la méthode du photon mapping.
Nous montrerons enfin les résultats obtenus sur des scènes industrielles complexes en les comparant notamment à des algorithmes physiquement réalistes consistants.

Mots-clés : rendu; physiquement réaliste; 3D; lancer de rayons; photon mapping; illumination globale; temps réel.

Ses publications : ici
Thierry BAY : Modélisation de surfaces épaisses et fermées : application aux cas des organes pelviens
Le lundi 26 novembre 2012 à 10h30 - amphithéâtre de l'IUT de Provence, site d'Arles (2 rue Raoul Follereau, 13200 Arles)
Les modifications physiologiques dans la configuration spatiale des organes pelviens sont de plus en plus diagnostiquées et traitées pour améliorer la qualité de vie des patientes. Le projet MoDyPe (ANR-09-SYSC-008) a été créé pour concevoir un simulateur chirurgical patiente-spécifique, et quantifier le geste médical en mode pré-opératoire. La modélisation géométrique des organes se fait à partir de nuages de points épars bruités. Les formes sont considérées fermées, lisses, creuses et à membrane épaisse. Le processus est décomposé en deux étapes : la construction de la surface et l'ajout d'une épaisseur.

Afin de respecter les contraintes physiologiques, de manipuler la géométrie et de localiser précisément un point sur la surface, une B-spline de genre 0 au moins C1-continue est ajustée aux données. La fonction à minimiser est basée sur une énergie bidirectionnelle, caractérisant la dissimilarité des données sur l'échantillonnage et inversement. Sa réduction repose sur un schéma alternant re-paramétrisation et descente de gradient à pas optimal.

Une surface-offset est ensuite générée vers l'intérieur de l'organe, via un maillage discret, en traitant le problème d'auto-intersection. Elle exploite la forme allongée des organes, grâce à un axe curviligne décrivant leur diamètre généralisé.
Finalement, un maillage hexaédrique est créé à partir de la surface ajustée et de l'offset, qui sert à la simulation mécanique du comportement des organes à l'étape suivante du projet.

Ses publications : ici
Baligh MNASSRI : Analyse de données multivariées et surveillance des processus industriels par analyse en composantes principales
Le vendredi 12 octobre 2012 à 14h00 - Polytech'Marseille - DGII
Sous la direction de : OULADSINE Mustapha - EL ADEL El Mostafa
Résumé de la thèse : Ce mémoire de thèse présente une étude fondamentale enrichie par des contributions qui sont articulées autour de la modélisation de processus ainsi qu'un diagnostic de défauts en utilisant l'analyse en composantes principales (ACP).

Dans l'objectif d'un choix optimal du modèle ACP, une étude comparative de quelques critères connus dans la littérature nous a permis de conclure que le problème rencontré est souvent lié à une ignorance des variables indépendantes et quasi-indépendantes. Dans ce cadre, nous avons réalisé deux démonstrations mettant en évidence les limitations de deux critères en particulier la variance non reconstruite (VNR). En s'appuyant sur le principe d'une telle variance, nous avons proposé trois nouveaux critères. Parmi eux, deux ont été considérés comme étant empiriques car seule l'expérience permettra de prouver leur efficacité. Le troisième critère noté VNRVI représente un remède à la limitation du critère VNR. Une étude de sa consistance théorique a permis d'établir les conditions garantissant l'optimalité de son choix. Les résultats de simulation ont validé une telle théorie en prouvant ainsi que le critère VNRVI étant plus efficace que ceux étudiés dans cette thèse.

Dans le cadre d'un diagnostic de défauts par ACP, l'approche de reconstruction des indices de détection ainsi que celle des contributions ont été utilisées. A travers une étude de généralisation, nous avons étendu le concept d'isolabilité de défauts par reconstruction à tout indice quadratique. Une telle généralisation nous a permis d'élaborer une analyse théorique d'isolabilité de défauts par reconstruction de la distance combinée versus celles des indices SPE et T2 de Hotelling en mettant en avant l'avantage de l'utilisation d'une telle distance. D'autre part, nous avons proposé une nouvelle méthode de contribution par décomposition partielle de l'indice SPE. Cette approche garantit un diagnostic correct de défauts simples ayant de grandes amplitudes. Nous avons également étendu une méthode de contribution classiquement connue par la RBC au cas multidimensionnel. Ainsi, la nouvelle forme garantit un diagnostic correct de défauts multiples de grandes amplitudes. En considérant la complexité de défauts, nous avons exploité la nouvelle approche de contribution RBC afin de proposer une nouvelle qui s'appelle RBCr. Cette dernière s'appuie sur un seuil de tolérance pour l'isolation de défauts. Une analyse de diagnosticabilité basée sur la RBCr montre que celle-ci garantit l'identification des défauts détectables. Ces derniers sont garantis isolables si leurs amplitudes satisfont les mêmes conditions d'isolabilité établies pour l'approche de reconstruction des indices.
--------------------------------------------------------------

Ses publications : ici
Mamoun SQALI : DEVS pour l'aide à la validation des spécifications UML
Le vendredi 12 octobre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : FRYDMAN Claudia

Ses publications : ici
Tual TRAININI : thèse suivante Décompositions conjointes de matrices complexes : application à la séparation de sources
Le mardi 02 octobre 2012 à 10h00 - Toulon
Sous la direction de : MOREAU Eric et HUBERT Luce

Ses publications : ici
Yuska paola COSTA AGUIAR : Etude et réalisation d'un protocole experimental pour l'étude du comportement humain en situation critique.
Le lundi 01 octobre 2012 à 10h00 - Universite Federal de Campina Grande, BRESIL
Sous la direction de : SANTONI Charles - VIEIRA Fatima

Ses publications : ici
Yuxi WANG : Recalage d'images de modalités et de géométries différentes en télédétection - Application à la gestion des catastrophes naturelles.
Le lundi 01 octobre 2012 à 10h00 - Pekin, Chine
Sous la direction de : SEQUEIRA Jean

Ses publications : ici
Amor KHLAIEF : Contribution à la commande vectorielle sans capteur mécanique des machines synchrones à aimants permanents (MSAP)
Le mardi 10 juillet 2012 à 14h00 - Centrale Marseille en Amphi 2
Sous la direction de : M. BOUSSAK - A. CHAARI

Ses publications : ici
Laura POMPONIO : Definition of a Human-Machine Learning Process from Timed Observations: Application to the Modelling of Human Behaviour for the Detection of Abnormal Behaviour of Old People at Home
Le mardi 26 juin 2012 à 14h30 - salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille.
Sous la direction de : LE GOC Marc
Résumé

L'acquisition et la modélisation de connaissances a été abordée jusqu'à présent selon deux points de sources principales : les êtres humains (experts) à l'aide des méthodologies de l'Ingénierie des Connaissances et le Knowledge Management, et les données à l'aide des techniques relevant de la découverte de connaissances à partir du contenu de bases de données (fouille de données). Cette thèse porte sur la conception d'un processus d'apprentissage conjoint par l'être humain et la machine combinant une approche de modélisation des connaissances de type Ingénierie des Connaissances (TOM4D, Timed Observation Modeling for Diagnosis) et une approche d'apprentissage automatique fondée sur un processus de découverte de connaissances à partir de données datées (TOM4L, Timed Observation Mining for Learning). Ces deux approches étant fondées sur la Théorie des Observations Datées, les modèles produits sont représentés dans le même formalisme ce qui permet leur comparaison et leur combinaison. Le mémoire propose également une méthode d'abstraction, inspirée des travaux de Newell sur le ``Knowledge Level'' et fondée sur le paradigme d'observation datée, qui a pour but de traiter le problème de la différence de niveau d'abstraction inhérent entre le discours d'un expert et les données mesurées sur un système par un processus d'abstractions successives. Les travaux présentés dans ce mémoire ayant été menés en collaboration avec le CSTB de Sophia Antipolis (Centre Scientifique et Technique du Bâtiment), ils sont appliqués à la modélisation de l'activité humaine dans le cadre de l'aide au personnes âgées maintenues à domicile.


Abstract

Knowledge acquisition has been traditionally approached from a primarily people-driven perspective, through Knowledge Engineering and Management, or from a primarily data-driven approach, through Knowledge Discovery in Databases, rather than from an integral standpoint. This thesis proposes then a human-machine learning approach that combines a Knowledge Engineering modelling approach called TOM4D (Timed Observation Modelling For Diagnosis) with a process of Knowledge Discovery in Databases based on an automatic data mining technique called TOM4L (Timed Observation Mining For Learning). The combination and comparison between models obtained through TOM4D and those ones obtained through TOM4L is possible, owing to that TOM4D and TOM4L are based on the Theory of Timed Observations and share the same representation formalism. Consequently, a learning process nourished with experts' knowledge and knowledge discovered in data is defined in the present work. In addition, this dissertation puts forward a theoretical framework of abstraction levels, in line with the mentioned theory and inspired by the Newell's Knowledge Level work, in order to reduce the broad gap of semantic content that exists between data, relative to an observed process, in a database and what can be inferred in a higher level; that is, in the experts' discursive level. Thus, the human-machine learning approach along with the notion of abstraction levels are then applied to the modelling of human behaviour in smart environments. In particular, the modelling of elderly people's behaviour at home in the GerHome Project of the CSTB (Centre Scientifique et Technique du Bâtiment) of Sophia Antipolis, France; institution with which this thesis has been led in collaboration.

Ses publications : ici
Pamela VIALE : Using Expert Knowledge and Process Traces for Diagnosis: Application to STMicroelectronics Semiconductor Manufacturing Processes
Le lundi 04 juin 2012 à 14h00 - 'Université Paul Cézanne Aix Marseille en salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille
Cette thèse a pour objectif de proposer une méthodologie aidant les entreprises à valider leur processus à grande échelle avec répétition de tâches. Cette méthodologie a pour but principal la construction des modèles de processus à partir de deux sources d’information différentes: les données provenant d’exécutions de processus et la connaissance d’experts, pour pouvoir comparer les comportements de ces modèles. La méthodologie aide les experts à diagnostiquer les processus: les comportements acceptés par les modèles d’experts sont comparés aux comportements acceptés par les modèles obtenus à partir des données provenant de l’activité. Si des différences sont trouvées des tâches de diagnostic sont nécessaires pour en analyser les raisons.

Ses publications : ici
Mohamed TRABELSI : Contribution au diagnostic de défauts des composants de puissance dans un convertisseur statique associé à une machine asynchrone: Exploitation des signaux électriques.
Le jeudi 24 mai 2012 à 14h00 - Ecole Centrale Marseille en Amphi 2
Sous la direction de : Mohamed Boussak

Ses publications : ici
Kheir-eddine AZIZ : Suivi multi-caméras de personnes dans un environnement contraint
Le vendredi 11 mai 2012 à 14h00 - Campus de Luminy à l'Esil en salle de documentation
Sous la direction de : Bernard FERTIL, Djamel MERAD
La consommation est considérée comme étant l’une des formes simples de la vie quotidienne. L’évolution de la société moderne a entraîné un environnement fortement chargé d’objets, de signes et d’interactions fondées sur des transactions commerciales. À ce phénomène s’ajoutent l’accélération du renouvellement de l’offre disponible et le pouvoir d’achat qui devient une préoccupation grandissante pour la majorité des consommateurs oú l’inflation des prix est un sujet récurrent. Compte tenu de cette complexité et de ces enjeux économiques aussi conséquents, la nécessité de modéliser le comportement d’achat des consommateurs dans les différents secteurs d’activité présente une phase primordiale pour les grands acteurs économiques ou analystes.

Dans le cadre de cette thèse CIFRE, nous avons abordé l’ensemble du processus de suivi multi-caméras de personnes en apportant notre contribution à la réponse aux questions suivantes :

1. Comment suivre un individu à partir d’un flux vidéo mono-caméra en assurant la gestion des occultations ?
2. Comment effectuer un comptage de personnes dans les surfaces denses ?
3. Comment reconnaître un individu en différents points du magasin à partir des flux vidéo multi-caméras et suivre ainsi son parcours ?

Dans ce contexte, nous avons proposé une nouvelle méthode de suivi mono-caméra basée sur la détection de têtes par l’utilisation des squelettes. Etant donné que dans une foule, la tête est considérée la partie du corps la plus apparente pour un individu et la moins sensible aux occultations, notre méthode consiste à modéliser la foule par un squelette 2D. Cette structure encode les informations topologiques sous la forme d’un graphe de squelette, ensuite on s’intéresse aux propriétés structurelles de ce graphe pour localiser les têtes.

Afin de suivre le parcours d’un individu entre les différents champs de caméras, nous avons proposé un système de ré-identification de personnes qui repose sur trois étapes principales.
Dans un premier temps, nous avons segmenté les individus en deux classes d’apparences, face et dos, en se servant de la position de tête en mouvement par rapport à la caméra. Par la suite, nous avons procédé à une segmentation horizontale de la silhouette en trois parties : tête, torse et jambes. Finalement, pour effectuer le processus de ré-identification, nous avons choisi de mettre en correspondance des descripteurs locaux de type SIFT, SURF et Spin Image couplé par des mesures inter-bins.

Ses publications : ici
Maximiliano CRISTIA : FASTEST : improving and supporting the test template framework
Le vendredi 13 avril 2012 à 14h00 - Salle de conference - LSIS Polytech
Sous la direction de : FRYDMAN Claudia
The most resource-consuming phase of software production is the verification of its qualities, including functional correctness. However, due to its costs, the software industry seldom performs a thorough verification of its products. One of the most promising strategies to reduce the costs of software verification is making it as automatic as possible. Currently, this industry relies basically only on testing to verify functional correctness. Therefore, we sought to automate functional testing of softwaresystems by providing tool support for the test case generation step. Model-based testing (MBT) is a testing theory that has achieved impressive successes in automating the testing process. Any MBT method analyses a formal model or specification of the system under test to generate test cases that later are executed on the system. Almost all methods work with some form of finite state machines (FSM) which limits their application since FSM¹s cannot describe general systems. However, a great advantage of these methods is that they reach a high degree of automation. In this thesis we show, on the contrary, the degree of automation we have achieved by applying a MBT method, known as Test Template Framework (TTF), to Z specifications. Since Z is based on first-order logic and set theory it is far more expressive than FSM¹s, thus making our results applicable to a wider range of programs. During this thesis we have improved the TTF and developed a tool, called Fastest, that implements all of our ideas. Fastest provides tool support for the following activities:
* Partitioning of the input space of Z operations.
* Building testing trees.
* Elimination of inconsistent test specifications.
* Generation of abstract test cases.

Ses publications : ici
Karen OHAYON : Amelioration de l'ordonnancement par la méthode AHP
Le lundi 19 decembre 2011 à 11h00 - Université Paul Cézanne Aix Marseille en salle salle des thèses
Le monde industriel est sans cesse confronté à des problèmes de choix. Une multitude de critères doit être pris en compte dans la résolution de ces derniers. Face à ces situations, les outils d?aide à la décision prennent tout leur sens. Nous utiliserons ici la méthode AnalyticHierarchicProcess dans le domaine de la Production et plus particulièrement dans le cadre de l'ordonnancement d'une ligne de production de prothèses cardiovasculaires.

Le paramétrage initial de cette méthode fait appel à l'évaluation d'un expert. Bien que ce dernier ait les connaissances nécessaires pour faire un paramétrage convenable, il n'en reste pas moins humain et introduira, même involontairement, une partie subjective dans ses décisions.

L'ordonnancement en résultant ne sera donc pas forcément optimal. La réduction de cette subjectivité passe par l'utilisation d'une méta heuristique, de type algorithme génétique, pour améliorer ce paramétrage par l'exploration de solutions voisines à celles proposées par l'expert.

Ses publications : ici
Benjamin DUPLEX : Transfert de déformations géométriques lors des couplages de codes de calcul - Application aux dispositifs expérimentaux du réacteur de recherche Jules Horowitz
Le mercredi 14 decembre 2011 à 10h30 - amphithéâtre de l'INSTN (proche CEA de Cadarache)
Le CEA développe et utilise des logiciels de calcul, également appelés codes de calcul, dans différentes disciplines physiques pour optimiser les coûts de ses installations et de ses expérimentations. Lors d'une étude, plusieurs phénomènes physiques interagissent. Un couplage et des échanges de données entre plusieurs codes sont nécessaires.

Chaque code réalise ses calculs sur une géométrie, généralement représentée sous forme d'un maillage contenant des milliers voire des millions de mailles. Cette thèse se focalise sur le transfert de déformations géométriques entre les maillages spécifiques de chacun des codes de calcul couplés. Pour cela, elle présente une méthode de couplage de plusieurs codes, dont le calcul des déformations est réalisé par l'un d'entre eux. Elle traite également de la mise en place d'un modèle commun aux différents codes de l'étude regroupant l'ensemble des données partagées. Enfin, elle porte sur les transferts de déformations entre des maillages représentant une même géométrie ou des géométries adjacentes. Les modifications géométriques sont de nature discrète car elles s'appuient sur un maillage. Afin de les rendre accessible à l'ensemble des codes de l'étude et pour permettre leur transfert, une représentation continue est calculée. Pour cela, deux fonctions sont développées : l'une à support global, l'autre à support local. Toutes deux combinent une méthode de simplification et un réseau de fonctions de base radiale. Un cas d'application complet est traité dans le cadre du réacteur Jules Horowitz. L'effet des dilatations différentielles sur le refroidissement d?un dispositif expérimental est étudié.

Ses publications : ici
Thibault LELORE : Binarisation de documents multimédias : de l'image à la vidéo
Le lundi 12 decembre 2011 à 13h00 - salle de documentation du bâtiment A de l'ESIL
La vision par ordinateur est un problème vaste et complexe. Le système visuel humain ayant eu plusieurs milliard d'années pour évoluer, nous avons presque oublié comment le simple fait de reconnaître un objet pouvait être compliqué. En effet, les signaux électriques renvoyés par les caméras sont difficilement interprétable par les neurones électroniques des ordinateurs. Nous nous intéresserons au cours de cette présentation à un domaine particulier de la vision qui est celui de la lecture. Nous nous placerons en amont du processus de reconnaissance de caractères en cherchant à simplifier au maximum le document observé. Ce processus cherche à supprimer toutes les perturbations que peut subir le document pour ne conserver que le texte. On parle alors de binarisation. Nos propositions, au nombre de quatre, sont caractérisées par une modélisation bayésienne de l'image. Ainsi, nous avons proposé d'intégrer une notion de voisinage en utilisant les champs de Markov puis en utilisant un détecteur de contours. De même, nous avons étudié le cas où plusieurs images d'un même document sont disponibles. Dans ce cas, nous proposons deux méthodes de super-résolution permettant de retrouver des détails perdus au cours de l'acquisition : l'une qui suppose que le support du texte est plat, l'autre qui ne fait aucune hypothèse, ni sur le support, ni sur les caméras.

Ses publications : ici
Tarek NABHANI : Symétries locales et globales en logique propositionnelle et leurs extensions aux logiques non monotones
Le vendredi 09 decembre 2011 à 14h00 - CMI Château Gombert - Marseille - salle des séminaires (R164 )
La symétrie est par définition un concept multidisciplinaire. Il apparaît dans de nombreux domaines. En général, elle revient à une transformation qui laisse invariant un objet.

Le problème de satisfaisabilité (SAT) occupe un rôle central en théorie de la complexité. Il est le problème de décision de référence de la classe NP-complet (Cook, 71). Il consiste à déterminer si une formule booléenne admet ou non une valuation qui la rend vraie.

Dans la première contribution de cette thèse, nous proposons une nouvelle méthode complète qui élimine toutes les symétries locales d'une instance du problème SAT en exploitant son groupe des symétries. Les résultats obtenus montrent que l'exploitation des symétries locales est meilleure que l'exploitation des symétries globales sur plusieurs instances SAT et que les deux types de symétries sont complémentaires, leur combinaison donne en général, une meilleure exploitation des symétries.

Dans la deuxième contribution, nous proposons une approche d'apprentissage de clauses pour les solveurs SAT modernes en utilisant les symétries. Cette méthode n'élimine pas les modèles symétriques comme font les méthodes statiques d'élimination des symétries. Elle évite d'explorer des sous-espaces correspondant aux no-goods symétriques à l'interprétation inconsistante partielle courante. Les résultats obtenus montrent que l'utilisation de ces symétries et ce nouveau schéma d'apprentissage est profitable pour les solveurs CDCL.

En Intelligence Artificielle, on inclut souvent la non-monotonie et l'incertitude dans le raisonnement sur les connaissances avec exceptions. Pour cela, en troisième et dernière contribution, nous avons étendu la notion de symétrie à des logiques non classiques (non-monotones) telles que les logiques préférentielles, les X-logiques et les logiques des défauts.

Nous avons montré comment raisonner par symétrie dans ces logiques et nous avons mis en évidence l'existence de certaines symétries dans ces logiques qui n'existent pas dans les logiques classiques.

Ses publications : ici
David GUCIK : CONTRIBUTION AU PRONOSTIC DES SYSTEMES A BASE DE MODELES : THEORIE ET APPLICATION
Le vendredi 09 decembre 2011 à 10h30 - salle des conférences Gérard Jaumes dans le bâtiment Polytech?Marseille
Sous la direction de : OUTBIB Rachid
Cette thèse est une contribution au problème du pronostic des systèmes complexes. Plus précisément, elle concerne l'approche basée modèles et est composée de trois contributions principales. Tout d'abord, dans une première contribution une définition du concept de pronostic est proposée et est positionnée par rapport aux concepts de diagnostic et de diagnostic prédictif. Pour cela, une notion de contrainte temporelle a été introduite afin de donner toute pertinence à la prédiction réalisée. Il a également été montré comment le pronostic est lié à la notion d'accessibilité en temps fini.
La deuxième contribution est dédiée à l'utilisation des observateurs à convergence en temps fini pour la problématique du pronostic. Une méthodologie de pronostic est présentée pour les systèmes non linéaires à échelle de temps multiple. Puis, une troisième contribution est introduite par l'utilisation des observateurs par intervalle pour le pronostic. Une méthodologie de pronostic est proposée pour les systèmes non linéaires incertains à échelle de temps multiple. Pour illustrer les différents résultats théoriques, des simulations ont été conduites sur un modèle de comportement d'un oscillateur électromécanique.
AVIS DE SOUTENANCE DE THESE.pdf

Ses publications : ici
Dimitri KUDELSKI : Détection automatique d'objets géologiques à partir de données numériques d'affleurements 3D
Le jeudi 08 decembre 2011 à 14h00 - amphitéâtre Y. MASSIANI de l'Université de Provence (site Saint-Charles)
Détection automatique d'objets géologiques à partir de données numériques d'affleurements 3D

Depuis plusieurs années, le LIDAR est utilisé en géologie pour acquérir la géométrie des affleurements sous forme de nuages de points et de surfaces. L'objectif de cette thèse consiste à développer des techniques visant à automatiser le traitement de ces données et notamment l'interprétation de structures géologiques sur affleurements numériques. Ces travaux s'insèrent dans un projet de recherche plus important financé par ENI qui a pour objectif de concevoir des méthodologies pour intégrer des données d'affleurements aux modèles géologiques.

La problématique de cette thèse se focalise sur l'extraction d'objets géologiques (i.e., traces de fractures ou de limites stratigraphiques) à partir de modèles numériques 3D d'affleurements. L'idée fondamentale consiste à considérer ces entités géologiques comme des lignes de ravins (i.e., des lignes de forte concavité). Ce problème fait référence à la détection de lignes caractéristiques en informatique graphique.

Dans un premier temps, nous proposons une méthode reposant sur les propriétés différentielles de troisième ordre de la surface (i.e., dérivées de courbures). Un traitement est intégré afin de prendre en compte une connaissance a priori pour n'extraire que les objets orientés selon une direction particulière. Du fait du caractère rugueux et erratique des géométries d'affleurements, plusieurs limites apparaissent et mettent en défaut ce genre d'approche. Ainsi, dans un second temps, nous présentons deux algorithmes alternatifs afin de détecter de manière pertinente les objets géologiques ciblés. Ceux-ci prennent le contre-pied des techniques existantes en s'appuyant sur un marquage de sommets, établi depuis des propriétés différentielles de second ordre, suivi d'une opération de squelettisation.

Nous validons, dans une dernière partie, l'ensemble des méthodes développées et proposons diverses applications afin de souligner la généricité des approches.

Ses publications : ici
Frédéric SEGONDS : Contribution à l'intégration d'un environnement collaboratif en conception amont de produits
Le mardi 06 decembre 2011 à 10h00 - ENSAM
Sous la direction de : Améziane AOUSSAT et Philippe VERON
La conception amont de produits mécaniques est, à l'heure actuelle, peu outillée en logiciels (Mougenot 2008), et en particulier en structure collaborative support de l'activité des concepteurs. Cependant, elle fige à elle seule près de 80% des coûts futurs du projet (Michaels and Wood 1989). Dans ce contexte, notre recherche propose un modèle de définition d'un environnement collaboratif amont, à destination des entreprises. Elle s’appuie sur la mise en œuvre d’un protocole expérimental à base d’entretiens réalisés auprès d'utilisateurs finaux au sein d'entreprises. Cette démarche nous a permis de décrire l'activité de conception amont dans des secteurs industriels variés et de montrer que le développement et l'optimisation d'un environnement collaboratif amont reposent principalement sur des représentations intermédiaires (RI) de type "image". Il a été montré que l'identification et la numérisation des RI sont des préalables nécessaires à la définition de cet environnement, et que certaines contraintes métiers peuvent également être supportées par ces RI. Le modèle qui en découle permet de formuler des spécifications pour le développement d’un outil logiciel d’aide à la conception d'environnements collaboratifs, intégré dans un environnement PLM en conception mécanique.

Ses publications : ici
Frédéric LAFONT : HDR : "Soft-computing et observateurs appliqués à des systèmes environnementaux
Le lundi 05 decembre 2011 à 10h30 - Université du Sud-Toulon-var dans l'amphithéatre K20 - UFR Staps - bât K
La présentation aura pour titre « Soft-computing et observateurs appliqués à des systèmes environnementaux». Elle permettra de faire un tour d’horizon des recherches que je mène au sein du LSIS et se décomposera en deux axes :

- L’apport des techniques de soft-computing (logique floue, réseaux de neurones, …) sera présenté pour modéliser les systèmes complexes environnementaux tels que la gestion climatique d’une serre agricole ou la surveillance maritime contre la pollution.

- Le deuxième axe portera sur les observateurs ou « capteurs logiciels » développés dans deux buts : estimer des variables non mesurables et détecter des problèmes de défaut sur les capteurs existants ou sur les actionneurs. Ces méthodes seront appliquées sur un système de traitement des eaux usées à boues activées.

Ses publications : ici
Belgacem JABALLAH : Observateurs robustes pour le diagnostic et la dynamique des véhicules
Le samedi 03 decembre 2011 à 10h00 - Monastir
Ces dernières décennies, la recherche et l'application de l'automatique dans les domaines de l'automobile, a contribué fortement dans les aspects sécurité, confort des usagers, économie d'énergie et aide au pilotage.

Dans ce contexte, l'objectif principal de cette thèse est le développement d'observa-teurs par modes de glissement pour l'estimation des états dynamiques, les paramètres dynamiques ainsi que les attributs de la route (dévers de la route), considérés comme des entrées inconnues. Ce type d'observateur est basé sur la théorie des systèmes à structures variables et par l'utilisation d'un modèle représentant de façon réaliste le comportement dynamique du véhicule. A cet e et une proposition de découpage de modèle dynamique complet du véhicule en trois sous-systèmes basé sur le théorie de la passivité a été proposé. Toutes les approches développées ont été validées sur les deux simulateurs de véhicules SCANeRstudio et SIMK106N.
AnnonceTheseJB.pdf

Ses publications : ici
Jean-philippe PERNOT : HDR : Vers de nouveaux paradigmes et outils de génération et traitement de maquettes numériques tournés vers la sémantique
Le vendredi 02 decembre 2011 à 10h30 - Arts et Métiers ParisTech Aix-en-Provence
Les travaux présentés dans mon HDR portent sur la génération et le traitement de maquettes numériques de produits en conception intégrée directe et inverse. Plus particulièrement, par la recherche de méthodes, de modèles et d'outils, il s'agit de développer de nouveaux paradigmes de génération et de traitement permettant d'exploiter de manière optimale les informations sémantiques intrinsèquement et extrinsèquement contenues à différents niveaux des maquettes numériques et utilisées tout au long du cycle de vie des produits. Deux axes sont ainsi détaillés. Le premier porte sur le traitement des multi-représentations et des multi-résolutions du produit. On y découvre mes travaux sur les représentations paramétriques à base de courbes et surfaces NURBS (déformation, approche par features, grammaire de formes), ainsi que mes travaux sur les représentations discrètes (simplification et déformation de polyèdres à partir d'informations extraites d'images, déformation de maillages tétraédriques enrichis d'informations sémantiques). Le deuxième axe porte sur la génération et le traitement de maquettes numériques au travers de mes travaux sur la génération, la structuration et l'adaptation de maquettes numériques, le chainage des informations, ainsi que la caractérisation et la comparaison de modèles CAO.

Ses publications : ici
David GUERON : Modélisation d'Activités : Agrégation de Pro fils de Vol
Le mardi 22 novembre 2011 à 10h00 - Centre de recherche ONERA Salon-de-Provence situé sur la Base Aérienne 701
L'agrégation d'activités pour l'identification de catégories de comportements est un enjeu majeur de tous les systèmes socio-techniques complexes actuels. La question clé consiste à réaliser une synthèse de "façons de faire" (ou praxies) intégrant la variabilité des opérateurs humains impliqués.

Dans un cadre aéronautique, l'agrégation d'activités de pilotage vise à accélérer la
détermination de procédures améliorant la sécurité des vols et l'effi cacité des missions ; elle repose sur les données objectives des paramètres enregistrés des
phases de vol signifi catives et se structure grâce à une interprétation experte.

Un modèle d'Agrégation Supervisée en trois étapes : - décomposition, - maïeutique - reconstruction, est ainsi établi dans cette thèse. Le coeur en est la 2e étape qui généralise et enrichit le concept de "moyenne" classique des approches probabilistes : une base d'apprentissage, constituée d'activités déterminées et caractérisées par l'interprétation experte, est utilisée pour identi fier les motifs signifi catifs de paramètres enregistrés, c'est à dire les praxies qui agrègent donc les éléments essentiels des activités. Ceux-ci sont choisis au sein d'un ensemble de motifs paramétrables génériques, dont les divers seuils sont ajustés de manière incrémentale. Les motifs sont alors évalués selon les deux critères intrinsèques de cohérence et de pertinence
de leurs seuils, ainsi que selon le critère extrinsèque de la conformité des résultats obtenus par leur application sur les vols de la base d'apprentissage.
Peuvent à ce niveau se faire jour des groupements parmi les éléments de la base
d'apprentissage, selon des motifs rendant compte d'activités particulières. L'expertise doit également être généralisable pour permettre l'étude de plusieurs points-clés dans cette étape maïeutique. Ce modèle générique défi nit une activité comme une structure formelle de praxies, et ouvre la voie à un enrichissement de la 3e étape intégrant la multiplicité des rôles des opérateurs.

Mots-Clés : agrégation, aéronef, activité de pilotage, facteurs humains, praxies

Ses publications : ici
Lydie RÉNÉ : L’étude des communications et des représentations des acteurs dans un dispositif de formation à distance, considéré comme un système complexe.
Le jeudi 17 novembre 2011 à 14h00 - salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille

Ses publications : ici
Jean-luc MARI : HDR : Extraction d’information dans les maillages et les volumes numériques
Le mercredi 09 novembre 2011 à 10h00 - ESIL
Cette habilitation porte sur l'extraction d'information pour deux modes de représentation courants en modélisation géométrique : les objets discrets et les maillages. Selon le format, les modalités d'acquisition des données ou le domaine applicatif, l'un ou l'autre de ces formalismes peut devoir être manipulé : les objets voxelisés sont par exemple très présents dans le contexte médical, et les surfaces polyédriques sont répandues en géologie numérique s'appuyant sur des acquisitions LIDAR. Il est souvent nécessaire d'extraire des caractéristiques de ces modèles : automatisation d'une expertise, enrichissement de la connaissance sur un type donné d'objets, diagnostic assisté par ordinateur, reconstruction 3D, meilleure compréhension de la forme, etc. Dans cette optique, il faut alors pouvoir manipuler à la fois des maillages et des volumes numériques, et développer des algorithmes spécifiques pour en extraire des caractéristiques pertinentes.


Ces travaux s'articulent autour de deux parties liées aux modes de représentation discrets et semi-continus. La première traite principalement d'extraction d'informations géométriques et topologiques dans les volumes numériques binaires et présente des algorithmes originaux sur le passage d'une représentation discrète vers un complexe simplicial, en préservant la topologie induite par la 26-adjacence. D'autres travaux portant sur la caractérisation du volume sous la nappe par indices de forme 3D et sur la détection des contours de la cornée sont également exposés. La seconde partie concerne essentiellement la détection de lignes caractéristiques dans les maillages dans le contexte géologique. Parmi les approches développées, un algorithme particulièrement efficace et prenant le contre-pied des techniques existantes est proposé. Il combine une étude de la courbure avec une méthode de squelettisation originale sur les maillages surfaciques. Des travaux relatifs à reconstruction 3D du volume rénal et à la génération automatique de maillages à partir d'information structurelle synthétique sont également présentés. Ce mémoire s'achève par la description de mon projet de recherche. Il s'inscrit d'une part dans le prolongement d'actions en cours qui correspondent à des collaborations actives, et d'autre part dans l'extension de la problématique d'extraction d'information dans des contextes plus généraux et de plus en plus actuels en modélisation géométrique, notamment l'étude structurelle multi-résolution d'objets discrets dynamiques et les modèles à base de points.

Mots-clés : modélisation géométrique, volumes numériques, maillages, polyèdres, complexes simpliciaux, lignes caractéristiques, squelettes, reconstruction, génération de surfaces, contrôle topologique.

Ses publications : ici
Karam MUSTAPHA : Un cadre méthodologique et une architecture logicielle orientés agents pour la modélisation et la simulation organisationnelles de chaînes logistiques
Le jeudi 20 octobre 2011 à 14h00 - Salle des conférences du département GII de Polytech'Marseille

Ses publications : ici
Axel FRANCOIS : Interopérabilité des modèles géométriques pour les Systèmes d'Information Géographique : applications de la norme ISO 19107
Le vendredi 07 octobre 2011 à 14h00 - Amphi A1 de l'IUT de Provence, site d'Arles
Sous la direction de :
Le contexte économique actuel montre que la représentation et l'analyse des données dans l'espace 3D croît de plus en plus dans les Systèmes d'Information Géographique (SIG).

Le nombre d'applications SIG est en constante augmentation dans de nombreux secteurs d'activités comme par exemple la Défense, l'Aménagement du Territoire ou la Sécurité Civile. Cependant, nous voyons l'émergence d'une forte demande pour l'analyse 3D dans les SIG. Ces développements nécessitent une standardisation des structures de données et d'échanges. Cette démarche est réalisée par l'Open Geospatial Consortium (OGC) et l'organisation internationale de normalisation (ISO).

Une norme récente (ISO 19107:2003) décrit les objets complexes à prendre en compte et les traitements qu'il est possible de leur appliquer. Elle cherche à mettre en place l'interopérabilité des échanges et des analyses de données géométriques et topologiques dans les SIG. Actuellement aucune implémentation informatique complète de cette norme n'a été encore réalisée, compte tenu de son niveau d'abstraction. Une version simplifiée a toutefois été développée pour des objets uniquement 2D (ISO 19137:2007).

Ce travail de thèse propose la modélisation et l'analyse d'objets complexes dans un espace tridimensionnel, et les traitements associés pour réaliser une première bibliothèque de fonctionnalités conforme à la norme ISO 19107. De plus, cette norme est actuellement portée en révision au sein du consortium OGC (Open Geospatial Consortium, www.opengeospatial.org) avec une nécessité de correction et d'évolution. Les travaux menés jusqu'à présent ont permis d'apporter une contribution pertinente avec l'ajout de nouvelles primitives géométriques, l'harmonisation de primitives par l'usage de courbes et surfaces paramétriques rationnelles. Les travaux sur cette norme ont permis également l'élaboration d'une application au sein de la société GEOMATYS, rendant possible la modélisation et l'analyse 3D d'un trafic aérien reposant sur des données SIG.

Ses publications : ici
Sonia MAHJOUB : études des apports de la théorie des jeux en conception de chaine logistique : approche coopérative et approche stratégique
Le mardi 04 octobre 2011 à 10h30 - Salle des conférences Gérard Jaumes à Polytech'Marseille
Dans un contexte de prix de marché fixes et exogènes pour un ensemble de biens choisis pour
être produits, le problème de conception d’une chaine logistique a été analysé comme un problème de formation d’une coalition dans le cadre de la théorie des jeux coopératifs, et formulé comme un jeu de production linéaire. Dans un premier temps, ce travail étudie la compatibilité entre la formation d’une coalition stable et l’allocation équitable du profit total entre les participants. Il est montré qu’en général, le mécanisme d’allocation purement compétitif ne vérifie pas la propriété d’équité. Deux techniques ont été proposées pour corriger ce défaut. La première consiste en l’introduction de paiements de transfert entre les membres de la coalition optimale. La deuxième technique se base sur la substitution des contraintes de capacité de ressources par des contraintes de saturation linéaires par morceaux.
Par ailleurs, si la coalition d’entreprises décide de s’organiser sous forme d’une chaine logistique et d’imposer le prix de gros de ses produits fabriqués, alors le problème de conception de chaine logistique soumis à une hypothèse de demande aléatoire élastique peut être formulé grâce au modèle du jeu biforme. Cette situation génère un jeu de production quadratique (JPQ) jusqu’alors inexistant dans la littérature. Il est montré que ce jeu a un cœur non vide et qu’il est en général non convexe. Enfin, il est démontré qu’en général l’optimum global de la chaine logistique n’est atteint que lorsque la coalition d’entreprises vend directement ses produits sur le marché final sans intervention du détaillant.

Ses publications : ici
Christophe PALMANN : Contribution au recalage d'images de modalités différentes à travers la mise en correspondance de nuages de points. Application à la télédétection.
Le jeudi 23 juin 2011 à 10h30 - amphi Jacques Derrien du bâtiment C de l'ESIL
Sous la direction de : Jean Sequeira et Sébastien Mavromatis
annonce.pdf

Ses publications : ici
Ruding LOU : Modification de modèles orientés calculs Éléments Finis et transfert d’informations sémantiques : Application au prototypage rapide de solutions alternatives dans un contexte de maintenance
Le mardi 21 juin 2011 à 10h00 - Arts et Métiers ParisTech d’Aix en Provence (amphi 1)
Sous la direction de : Philippe Véron, Jean-Philippe Pernot Bianca Falcidieno et Franca Giannini
RudingLOU_PhD_Defense_2011_June_21.pdf

Ses publications : ici
Nicolas FAESSEL : Indexation et interrogation de pages web décomposées en blocs visuels
Le mardi 14 juin 2011 à 14h00 - Salle des conférences Gérard Jaumes à Polytech'Marseille, St Jérome
Sous la direction de : Jacques Le Maitre, Emmanuel Bruno
Cette thèse porte sur l'indexation et l'interrogation de pages Web. Dans ce cadre, nous proposons un nouveau modèle : BlockWeb, qui s'appuie sur une décomposition de pages Web en une hiérarchie de blocs visuels. Ce modèle prend en compte, l'importance visuelle de chaque bloc et la perméabilité des blocs au contenu de leurs blocs voisins dans la page. Les avantages de cette décomposition sont multiples en terme d'indexation et d'interrogation. Elle permet notamment d'effectuer une interrogation à une granularité plus fine que la page : les blocs les plus similaires à une requête peuvent être renvoyés à la place de la page complète. Une page est représentée sous forme d'un graphe acyclique orienté dont chaque nœud est associé à un bloc et étiqueté par l'importance de ce bloc et chaque arc est étiqueté la perméabilité du bloc cible au bloc source. Afin de construire ce graphe à partir de la représentation en arbre de blocs d'une page, nous proposons un nouveau langage : XIML (acronyme de XML Indexing Management Language), qui est un langage de règles à la façon de XSLT. Nous avons expérimenté notre modèle sur deux applications distinctes : la recherche du meilleur point d'entrée sur un corpus d'articles de journaux électroniques et l'indexation et la recherche d'images sur un corpus de la campagne d'ImagEval 2006. Nous en présentons les résultats

Ses publications : ici
Nicolas QUEIRAS : Nouvelles lois de pilotage pour aéronef : Application à un hélicoptère rapide.
Le mardi 10 mai 2011 à 10h00 - ENSAM
Sous la direction de : MALBURET François
RESUME : Dans l?univers aéronautique principalement dominé par les avions et les hélicoptères, de nouveaux prototypes d?aéronefs combinant un rotor et au moins une hélice propulsive reviennent à l?ordre du jour. Ce ne sont pas des concepts récents, mais ces appareils qui possèdent des commandes supplémentaires par rapport à des appareils conventionnels, avaient été mis de coté car ils impliquaient une charge de travail trop importante au pilote. Cependant, avec les dernières technologies et notamment grâce à l?évolution des pilotes automatiques, de tels engins peuvent de nouveau être une solution pour atteindre des vitesses d?avancement élevées, entre 200 kts et 250 kts, vitesses qui sont hors de portée des hélicoptères conventionnels. Les particularités de ces concepts étant encore méconnues, il est indispensable d?étudier les principales caractéristiques de ces types d?engins, ainsi que leurs pilotages en vol. A l?aide d?un modèle MATLAB/SIMULINK, et avec une
approche pas à pas, plusieurs principes de lois de pilotage de la machine sont envisagés et testés en simulation pour répondre aux particularités d?un engin hybride développé par EUROCOPTER. L?une de ces lois a été retenue pour être validée de manière plus approfondie sur banc d?intégration de pilote automatique d?hélicoptère avant d?être mise en vol sur un appareil démonstrateur qui débuta ses essais en septembre 2010. Enfin, de nouvelles approches de lois de pilotage sont envisagées afin d?utiliser pleinement les commandes redondantes de ce type d?appareil. Les premiers résultats de simulations de ces lois de commande plus évoluées sont très prometteurs, et de bonnes perspectives d?applications sont en vue.

Mots clés : lois de pilotage, pilote automatique, hybride.




Ses publications : ici
Ludovic LLUCIA : Suivi d'objets à partir d'images issues de caméras mobiles non calibrées : application à la reconduction de scènes sportives.
Le lundi 14 fevrier 2011 à 13h30 - Luminy
Sous la direction de : SEQUEIRA - MAVROMATIS

Ses publications : ici
Radhouane DJERIDI : Contribution à la maîtrise de la disponibilité de systèmes complexes : Proposition d'une méthode de réordonnancement proactif de la maintenance
Le vendredi 17 decembre 2010 à 10h00 - ENSAM Aix-en-Provence
Sous la direction de : CAUVIN Aline
Une des préoccupations majeures du monde industriel est d'avoir une exploitation performante permettant de garantir au mieux la qualité des missions réalisées, le respect des délais demandés et la minimisation des coûts d'exploitation. Toutefois, aujourd'hui la concurrence accrue et la complexité des systèmes conduit les industriels à développer des approches qui permettent la maîtrise de la disponibilité et en particulier à prendre en compte ce paramètre pour l'élaboration de la politique de maintenance. L'objectif de ce manuscrit est de proposer des éléments méthodologiques permettant de caractériser le concept de disponibilité pour en assurer la maîtrise. Nous proposons une méthode de modélisation d'une exploitation en vue d'évaluer les performances en termes de disponibilité. Les résultats de cette évaluation permettent entre autres d'identifier les leviers d'amélioration pouvant agir sur les performances de l'exploitation. Ensuite, nous nous sommes focalisés, dans cette thèse, sur un de ces leviers, à savoir le réordonnancement de la maintenance programmée permettant de répondre au besoin du partenaire industriel. Dans cette optique, nous avons proposé une méthode permettant d'améliorer le réordonnancement d'un programme de maintenance en vue d'optimiser la disponibilité d'un système voire d'un ensemble de systèmes. Dans le cadre de cette méthode, nous avons proposé des heuristiques permettant de réordonnancer les opérations de maintenance en fonction des opportunités d'un exploitant de système. Nous chercherons dans ce manuscrit à apporter des éléments méthodologiques expérimentées chez la société Eurocopter, reposant sur des principes opérationnels et basés sur des approches par scénario.

Ses publications : ici
Chawee BUSAYARAT : La maquette numérique comme support pour la recherche visuelle d?informations patrimoniales: Définition d?une approche pour la sémantisation de sources iconographiques par référencement spatial.
Le jeudi 16 decembre 2010 à 10h00 - amphi A1, Arts et Métiers Paristech Aix-en-Provence
Sous la direction de : Michel FLORENZANO, Philippe VERON
La collecte, l'organisation et la recherche de sources iconographiques est certainement un problème majeur au sein des communautés qui s'intéressent à l'étude, la conservation et la valorisation du patrimoine architectural.

L'organisation et la structuration de ces ressources sont alors un problème essentiel si l'on s'inscrit dans l'idée de concevoir les archives de demain. Aujourd'hui, la méthode la plus couramment utilisée, pour
classifier et rechercher des contenus iconographiques au sein d'une base
de données, est la recherche par mots-clés. Néanmoins, l'association entre les termes de la recherche et le contenu des images n'est pas entièrement développé. En particulier, dans le domaine de la documentation architecturale, au vu du degré de complexité (en termes de richesse d?information) et d'hétérogénéité (en termes de variété de supports et de techniques d'exécution) des sources iconographiques (photos, dessins,
peintures, etc.), les solutions existantes d'annotation sémantique d'images s'avèrent inefficaces. Cette thèse démarre de l'hypothèse de considérer le modèle 3D interactif comme un moyen d'accès privilégié à
l'information patrimoniale. Dans ce sens, ce travail se concentre sur l'exploitation de la représentation de la morphologie d'un édifice comme source principale pour distribuer / propager les attributs sémantiques sur
l'ensemble des sources iconographiques (le représentant en deux dimensions) qui se trouvent dans une condition de cohérence
géométrique/spatiale avec son modèle tridimensionnel. Un modèle de description sémantique (structurant l'ensemble de termes pouvant décrire la morphologie d'un édifice) est alors utilisé comme dénominateur commun
permettant d'établir des relations entre la représentation 3D complète des formes architecturales qui composent l'édifice et l'ensemble des sources iconographiques (collections d'images 2D segmentées) correspondantes. Ce travail abouti à la définition et au développement d'un système
d'informations permettant de rechercher visuellement, au sein d'un modèle 3D, les sources iconographiques corrélées en fonction de critères spatiaux, morphologiques et sémantiques. Il s'agit d'une application Web
utilisable par des spécialistes du domaine de la documentation architecturale comme par le grand public.

Ses publications : ici
Huu hung HUYNH : idéosurveillance pour appartements intelligents : Application à la détection de prise de médicaments
Le mardi 14 decembre 2010 à 13h30 - Luminy
Sous la direction de : Daniel Marc

Ses publications : ici
Huu hung HUYNH : Vidéosurveillance pour appartements intelligents : Application à la détection de prise de médicaments
Le mardi 14 decembre 2010 à 13h30 - ESIL, salle de documentation
Sous la direction de : Marc Daniel
L'objectif de cette thèse est de détecter et suivre des objets en temps réel, proposer une approche hiérarchique pour la reconnaissance de la prise de médicaments chez les personnes âgées. En effet, l'activité globale de la prise de médicaments se compose de plusieurs activités à différents niveaux de complexité. La reconnaissance est donc faite de bas en haut, de l'activité élémentaire à l'activité simple et ensuite à l'activité complète. De plus, un modèle simple de calibration, utilisant une caméra stéréo, est proposé pour estimer la profondeur des objets, et ainsi mieux traiter l'occultation des objets. Par conséquence, la reconnaissance de la prise de médicaments est plus précise.

L'expérience montre que notre approche est plus robuste et souple que les travaux précédants sur le sujet. Elle permet de reconnaître des scénarios différents de prise de médicaments et peut être appliqué pour reconnaître d'autres activités complexes en général.

Ses publications : ici
Marie OUVRARD : Regard SIC sur le rôle des actants: Anthropologie d'un évènement de communication dans une organisation TIC à visée internationale
Le lundi 13 decembre 2010 à 14h00 - salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille

Ses publications : ici
Thibaut MARGER : Optimisation d'une servocommande hydraulique à entrée mécanique en application à l'hélicoptère
Le lundi 13 decembre 2010 à 10h00 - ENSAM
Sous la direction de : CARMONA - MARE

Ses publications : ici
Azeddine ZIDOUNI : Modèles graphiques discriminants pour l'étiquetage de séquences : application à la reconnaissance d'entités nommées radiophoniques
Le mercredi 08 decembre 2010 à 10h30 - salle des conférences Gérard Jaumes à Polytech'Marseille
Sous la direction de : M. Mohamed QUAFAFOU et M. Hervé GLOTIN
resume.pdf

Ses publications : ici
Wassim TROJET : une approche de vérification formelle des modèles DEVS à base du langage Z
Le vendredi 03 decembre 2010 à 14h30 - St Jérôme
Sous la direction de : FRYDMAN Claudia

Ses publications : ici
Abdou-fadel BOUKARI : Contrôle des systèmes industriels non linéaire : utilisation des matériaux actifs
Le jeudi 23 septembre 2010 à 10h00 - ENSAM

Ses publications : ici
Chiara STEFANI : Maquettes numériques spatio-temporelles d'édifices patrimoniaux. Modélisation de la dimension temporelle et multi-restitutions des édifices.
Le jeudi 16 septembre 2010 à 10h00 - ENSAM
Sous la direction de : Veron - Florenzano

Ses publications : ici
Anis ISMAEL : soutenance de thèse
Le mardi 13 juillet 2010 à 11h00 - Polytech-GII
Sous la direction de : Mohamed Quafafou
Communautés dans les réseaux sémantiques pairs-à-pairs
TheseAnisIsmail.pdf

Ses publications : ici
Khoi NGUYEN TAN : Soutenance de thèse le 8/7/2010
Le jeudi 08 juillet 2010 à 10h00 - ESIL
Sous la direction de : Marc Daniel
TheseKoi.pdf

Ses publications : ici
Ahmad AHDAB : Soutenance de thèse
Le mercredi 30 juin 2010 à 14h00 - salle Jaume, Polytech-GII
Contribution à l'apprentissage de réseaux bayésiens à partir de données datées pour le diagnostic des processus dynamiques continus
résuméThèse.pdf

Ses publications : ici
Mariette SÉRAYET : Raisonnement à partir d'informations structurées et hiérarchisées : Application à l'information archéologique
Le jeudi 06 mai 2010 à 10h30 - Luminy
Sous la direction de : Papini - Drap

Ses publications : ici
Nabil BENAYADI : "Contribution à la découverte de connaissances temporelles à partir de données datées
Le jeudi 15 avril 2010 à 11h00 - Faculté de St Jérôme
Sous la direction de : LE GOC Marc

Ses publications : ici
Salam FRAIHAT : Quantification booléenne morphodynamique de la parole : d'un codage vocalique vers une recherche d'information
Le mercredi 24 mars 2010 à 10h15 - Université du Sud Toulon Var
Sous la direction de : Hervé GLOTIN

Ses publications : ici
José ALVEZ DO NASCIMENTO NETO : Proposition des stratégies pour l'aide à l'exportation des systèmes industriels critiques
Le lundi 22 mars 2010 à 10h00 - univ. Campina Grande
Sous la direction de : SANTONI Charles, QUEIROZ Fatima

Ses publications : ici
Omar DOUKARI : Changement de croyances local et application à l'information spatiale.
Le mardi 02 mars 2010 à 10h30 - Faculté de Saint Jérôme
Sous la direction de : Robert JEANSOULIN

Ses publications : ici
Ali EL-ALI : Hybridation des sources d'énergie pour l'habitat : analyse d'une configuration et étude de cas.
Le vendredi 26 fevrier 2010 à 14h00 - Faculté de St Jérôme
Sous la direction de : OUTBIB Rachid

Ses publications : ici
Najlaa ZNIBER : Modèle orienté pour la conception de parcours pédagogiques personnalisés.
Le mercredi 16 decembre 2009 à 10h30 - LSIS - St Jérôme
Sous la direction de : CAUVET Corine

Ses publications : ici
Julien HUÉ : Fusion de croyances et programmation logique avec sémantique des modèles stables.
Le mercredi 09 decembre 2009 à 10h30 - LSIS - USTV
Sous la direction de : PAPINI Odile - DRAP Pierre

Ses publications : ici
Ali MROUÉ : Modélisation et simulation d'opérateur humain dans une tâche de recherche d'information par navigation.
Le mardi 08 decembre 2009 à 10h00 - Faculté de St Jérôme

Ses publications : ici
Flavien PEYSSON : Contribution au pronostic des systèmes complexes.
Le vendredi 04 decembre 2009 à 10h00 - LSIS - St Jérôme
Sous la direction de : OULADSINE Mustapha - OUTBIB Rachid

Ses publications : ici
Anne BRINDEJONC : Contrôle primaire d’un rotor d’hélicoptère sans plateaux cycliques avec des servopaddles actives
Le mardi 01 decembre 2009 à 10h00 - ENSAM
Sous la direction de : CARMONA

Ses publications : ici
D OUESLATI : Contribution à l’amélioration de la précision dynamique des robots industriels
Le jeudi 01 octobre 2009 à 10h00 - LILLE
Sous la direction de : Olivier GIBARU
Les robots industriels représentent un moyen de production sophistiqués pour l'industrie manufacturière d'aujourd'hui. Ces manipulateurs sont plus agiles, plus flexibles et moins coûteux que les machines-outils spécialisées. L'exploitation de ces avantages fait l'objet d'une demande croissante de l'industrie. La dynamique de ces manipulateurs est soumise à des nombreuses sources d'imprécision. En effet les défauts de la chaîne de transmission, ou encore les éléments de liaisons peuvent être le siège de déformations et de vibrations dégradant sensiblement leur précision. Ces phénomènes physiques sont d'autant plus difficiles à compenser que seul un sous ensemble des états du système est mesuré par les codeurs moteurs. La structure de commande industrielle actuelle d'un robot n'agit donc pas directement sur ces phénomènes. Il est nécessaire alors de progresser sur le front de l'amélioration de la précision par l'adaptation de la commande à ces nouvelles exigences. Un état de l'art met en évidence un manque de travaux qui traitent de l'élaboration d'anticipations adaptées aux axes d'un robot et intégrant les phénomènes de déformation. En outre, la planification de trajectoire n'est classiquement pas remise en cause et peu évoquée. Elle représente pourtant un moyen d'action éprouvé afin d'améliorer les performances dynamiques en suivi de profil. L'approche proposée dans ce mémoire se veut une alternative à ces méthodes. Elle est basée sur une exploitation d'un modèle dynamique représentatif et détaillé. Il intègre les principaux phénomènes physiques mis en évidence tels que les effets de la gravité, les systèmes mécaniques de compensation, les forces de frottement et la flexibilité articulaire. Cette modélisation associée à des méthodes d'identification expérimentale est exploitée afin de déduire une structure de commande. Elle permet la réduction des déformations élastiques et des vibrations par une action sur la précommande et sur la loi de mouvement adaptée. Ainsi, nous introduisons une méthode d'estimation non asymptotique appliquée en robotique, afin d'estimer rapidement les paramètres vibratoires de ce dernier et contribue à une réactualisation des modèles exploités. Des résultats expérimentaux montrent que cette méthodologie mène à une amélioration des performances de positionnement par rapport à la commande industrielle.

Ses publications : ici
Pascal KILIAN : Outils et méthodologies pour la chirurgie orthopédique assistée par ordinateur mini-invasive.
Le lundi 28 septembre 2009 à 14h00 - LSIS - St Jérôme
Sous la direction de : BULOT Rémy -BELLEMARE Marc-Emmanuel

Ses publications : ici
Grégory OPERTO : Analyse structurelle surfacique de données fonctionnelles cérébrales
Le mercredi 16 septembre 2009 à 13h30 - ESIL, campus de Luminy, Salle de documentation du Bâtiment A.

Ses publications : ici
Guillaume THIBAULT : Indices de formes et de textures : de la 2D vers la 3D. Application au classement de noyaux de cellules
Le jeudi 18 juin 2009 à 13h30 - ESIL, campus de Luminy, Amphiteâtre A

Ses publications : ici
Chadi NOHRA : Diagnostic de défauts sur un moteur diesel.
Le jeudi 18 juin 2009 à 11h00 - LSIS - St Jérôme
Sous la direction de : NOURA Hassan - OULADSINE Mustapha

Ses publications : ici
Mélissa JOURDAIN : Reconstruction 3D des artères par imagerie intravasculaire ultrasonore (IVUS) et angiographie monoplan
Le lundi 18 mai 2009 à 10h00 - Montréal
Sous la direction de : SEQUEIRA Jean, MEUNIER Jean

Ses publications : ici
Guillaume PONCELIN : Elaboration d'une méthode d'intégration de la fiabilité dans la conception des systèmes complexes. Application à l'aéronautique
Le mardi 12 mai 2009 à 10h00 - Arts et Métiers ParisTech - Eurocopter
Sous la direction de : Aline CAUVIN, Patrick LYONNET

Ses publications : ici
Minica HOURY PANCHETTI : Exploitation d'images numériques pour la simplification et la déformation de modèles polyédriques
Le vendredi 10 avril 2009 à 10h15 - Amphi 1 - CER Arts et Métiers ParisTech d'Aix en Provence

Ses publications : ici
Nidhal BEN ALOUI : Apport d'approches qualitatives pour la biométrie : cas du locuteur et de l'empreinte digitale
Le mercredi 28 janvier 2009 à 11h00 - Amphi - Batiment K018 - Campus La Garde - Université du Sud Toulon Var
Sous la direction de : Hervé GLOTIN & Odile PAPINI

Ses publications : ici
Lala herimanjaka RAJAOARISOA : Modélisation et Analyse d'une Classe de Systèmes Complexes à Structure Variable. Application à une Serre Agricole
Le vendredi 23 janvier 2009 à 10h30 - salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Julien CAILLET : Diagnostic et Modélisation de bruit et des chemins de bruit en cabine d'hélicoptère.
Le mardi 06 janvier 2009 à 10h30 - ENSAM, Aix-en-Provence
Sous la direction de : CARMONA Jean-Claude

Ses publications : ici
François-marie COLONNA : Intégration de données hétérogènes et distribuées sur le Web et applications à la biologie
Le lundi 08 decembre 2008 à 10h30 - Salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Yacine SAM : Personnalisation de Services Web
Le jeudi 04 decembre 2008 à 11h00 - Salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Alaa MUSTAFA : Contribution à l'étude des courbures discrètes et de leurs applications
Le mardi 25 novembre 2008 à 10h15 - Salle de Documentation du bâtiment A de l'ESIL, Entrée A - 2ème étage, Campus de Luminy,

Ses publications : ici
Lassaad BAÂTI : Modélisation des structures variables avec DEVS : application aux CGF
Le vendredi 07 novembre 2008 à 10h30 - Salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Dalila BOUGHACI : Recherche locale et méthodes évolutives pour les problèmes MAX-SAT et PDG
Le jeudi 30 octobre 2008 à 14h00 - Salle C001 du centre de mathématiques et d'informatique (CMI)

Ses publications : ici
Eric MAILLÉ : Intégration conceptuelle et opérationnelle de modèles spatio-dynamiques. Application à la dynamique du risque lié à l'ince
Le vendredi 04 juillet 2008 à 14h00 - Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Cédric CLOUCHOUX : Localisation et parcellisation corticale pour la mise en correspondance inter-sujets de données cérébrales
Le jeudi 03 juillet 2008 à 13h00 - ESIL bâtiment A, amphi A, Campus de Luminy

Ses publications : ici
François BATEMAN : Diagnostic Actif et Tolérance aux Défauts Majeurs d'Actionneurs : Application à un Drone
Le jeudi 03 juillet 2008 à 10h00 - Amphithéâtre des thèses Polytech'Marseille, site de St Jérôme

Ses publications : ici
Florent VERROUST : Protection de règles métier vers un moteur d'optimisation
Le lundi 26 mai 2008 à 10h00 - St Jérôme
Sous la direction de : JEGOU - PRCOVIC

Ses publications : ici
André FAWAZ : Réalité virtuelle et gestion technique du patrimoine construit : une application à la gestion du fonctionnement et de la main
Le vendredi 16 mai 2008 à 14h30 - ENSAM, Aix-en-Provence

Ses publications : ici
Van TRAN NAM : Traitement de surfaces triangulées pour la construction de modèles géologiques structuraux
Le jeudi 27 mars 2008 à 10h15 - Campus de Luminy - ESIL - salle de documentation A

Ses publications : ici
Abderrahmane BOUBEZOUL : Système d'aide au diagnostic par apprentissage : application aux systèmes microélectroniques.
Le jeudi 13 mars 2008 à 10h00 - site de Saint Jérôme

Ses publications : ici
Julio cesar RAMOS-FERNANDEZ : Intégration de techniques floues pour la modélisation, l'identification et le contrôle de systèmes non linéaires
Le vendredi 22 fevrier 2008 à 12h00 - Salle de conférences du CITIS à l'Universidad Autonoma del Estado Hidalgo - Pachuca - MEXIQUE
Université du Sud Toulon Var
Directeurs : Virgilio LOPEZ MORALES, UAEH, Pachuca (Mexique) et Gilles ENEA / Frédéric LAFONT (France).

Ses publications : ici
Cédric LOPEZ : Méthodes d'optimisation des trains d'atterrissage d'hélicoptère
Le jeudi 20 decembre 2007 à 10h30 - CER de l'ENSAM d'Aix en Provence dans l'amphithéâtre A

Ses publications : ici
Mamadou SECK : Utilisation de formalismes à événements discrets pour la modélisation et la simulation de comportements humains
Le lundi 17 decembre 2007 à 10h00 - salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Mohamed réda SAÏDI : Etude de la symétrie et de la dominance dans les réseaux de contraintes au sens CSPs à domaines finis discrets
Le jeudi 13 decembre 2007 à 14h30 - CMI - Technopôle de Château Gombert en salle C101

Ses publications : ici
Samba ndojh NDIAYE : Calcul et exploitation de recouvrements acylciques pour la résolution de (V)CS
Le mardi 11 decembre 2007 à 11h15 - amphitéâtre Ponte, Bâtiment EGIM NORD, Saint Jérôme

Ses publications : ici
Julien SEINTURIER : Fusion de connaissances : Applications aux relevés photogrammétriques de fouilles archéologiques sous-marines
Le mardi 11 decembre 2007 à 10h30 -

Ses publications : ici
Xavier HEURTEBISE : Représentation multirésolution et déformation d'objets définis par énumération spatiale
Le mardi 04 decembre 2007 à 14h30 - amphithéâtre de l'IUT de Provence à Arles

Ses publications : ici
Abbas CHAMSEDDINE : Méthodologie de diagnostic et tolérance aux défauts de systèmes complexes
Le vendredi 30 novembre 2007 à 14h00 - salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Agung ALFIANSYAH : Intégration de données ultrasonores per-opératoires dans le geste de chirurgie orthopédique assisté par ordinateur
Le lundi 26 novembre 2007 à 14h00 - amphi C de l'ESIL, campus de Luminy
Sous la direction de : COULON Olivier, BELLEMARE Marc-Emmanuel

Ses publications : ici
Lionel PARIS : Approches pour les problèmes SAT et CSP : ensembles strong backdoor, voisinage consistant et forme normale généralisée
Le vendredi 09 novembre 2007 à 14h30 - CMI, salle C01

Ses publications : ici
Hassan SHRAIM : Modélisation, Estimation et Contrôle pour la dynamique du véhicule
Le jeudi 27 septembre 2007 à 14h00 - salle des conférences Gérard Jaumes, Polytech'Marseille, site de Saint Jérôme

Ses publications : ici
Thomas BONACCORSI : Modélisation pluridisciplinaire d'expériences d'irradiation dans un réacteur d'irradiation technologique
Le samedi 01 septembre 2007 à 10h00 - Université de la Méditerranée

Ses publications : ici
Gwladys GUZELIAN : Conception de systèmes d'information : une approche orientée service
Le mercredi 04 juillet 2007 à 14h30 - salle de conférences de l'école Polytech'Marseille (site de Saint Jérôme)

Ses publications : ici
Lynda MEKAOUCHE : Pilotage holonique auto-organisé de réseaux logistiques : Validation par modélisation et simulation distribuée
Le vendredi 22 juin 2007 à 14h00 - salle des conférences Gérard Jaumes, Polytech'Marseille, site de Saint Jérôme

Ses publications : ici
Karine ANDRIEN : Méthode, formalisme et outil pour le recueil, la modélisation et la simulation de scénarios de comportement. Application au d
Le vendredi 22 juin 2007 à 10h30 - faculté des sciences et techniques de saint Jérôme, salle Gérard Jaumes de l'école Polytech'Marseille
sous la direction de M. Jean Caussanel et M. Norbert Giambiasi

Ses publications : ici
Easter SELVAN : Combinaisons linéaires d'images du domaine multispectral pour la production d'images contenant des informations indépendantes
Le vendredi 01 juin 2007 à 10h00 -

Ses publications : ici
Jean-philippe POLI : Structuration automatique de flux télévisuels
Le mardi 29 mai 2007 à 10h00 -

Ses publications : ici
Julien SERMENT : Une infrastructure d'intégration à base d'agents logiciels pour l'élaboration de systèmes d'aide à la décision environneme
Le mardi 13 mars 2007 à 14h30 - salle de conférences Gérard Jaumes, Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Hervé MOREL : Diagnostic du rotor principal de l'hélicoptère : analyse de signatures vibratoires par réseaux de neurones.
Le lundi 29 janvier 2007 à 10h30 - ENSAM, Aix-en-Provence

Ses publications : ici
Lionel MARTIN : Intégration du métier de la fonderie dans les processus de conception : méthodologies et outils associés
Le lundi 18 decembre 2006 à 10h00 - ENSAM d'Aix-en-Provence, Amphi 1

Ses publications : ici
Jérôme MONTAGNY : Identification/recalage de paramètres dynamiques sur hélicoptère
Le jeudi 14 decembre 2006 à 10h00 - ENSAM d'Aix-en-Provence, Amphi 1

Ses publications : ici
Johan WIIG : Optimization of Fault Diagnosis in Helicopter Health and Usage Monitoring Systems
Le lundi 11 decembre 2006 à 11h00 - Salle de conférences Gérard Jaumes - Polytech'Marseille - site de St-Jérôme
Optimization_of_Fault_Diagnosi_42s.pdf

Ses publications : ici
Grégory ZACHAREWICZ : Un environnement g-devs/hla : application a la modélisation et simulation distribuée de workflow
Le jeudi 30 novembre 2006 à 10h30 - salle de conférences Gérard Jaumes, Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Mathieu ESTRATAT : Vers les grammaires de configuration
Le mardi 21 novembre 2006 à 10h30 - faculté des sciences et techniques de Saint Jérôme, amphithéâtre Rouard (EGIM NORD)
sous la direction de M. Laurent Henocque

Ses publications : ici
François-xavier FILIAS : Etude d'algorithmes pour la fonction détection d'obstacles pour les vols en hélicoptères
Le mercredi 01 novembre 2006 à 10h00 -

Ses publications : ici
Olivier LABARTHE : Modélisation et Simulation Orientées Agents de Chaînes Logistiques dans un Contexte de Personnalisation de Masse : Modèles e
Le lundi 30 octobre 2006 à 14h30 - salle de conférences Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Amine TRABELSI : Analyse et commande des systèmes multivariables : Application à une serre agricole
Le samedi 28 octobre 2006 à 10h00 - Amphithéatre - Ecole Nationale d'Ingénieurs de Sfax - TUNISIE.
Directeurs : Mohamed Kamoun, ENIS, Sfax (Tunisie) et Gilles Enea / Frédéric Lafont (France)
Université du Sud Toulon Var

Ses publications : ici
Thierry LATTANZIO : Caractérisation des entreprises organisées en gestion par affaires
Le jeudi 26 octobre 2006 à 10h00 - ENSAM d'Aix-en-Provence, Amphi 1

Ses publications : ici
Sabrina TOLLARI : Indexation et recherche d'images par fusion d'informations textuelles et visuelles
Le mardi 24 octobre 2006 à 13h30 - Université du Sud Toulon-Var (en Y'108)

Ses publications : ici
Patrice MICOUIN : Elements de définition et de mise en oeuvre de processus d'ingénierie de systèmes : Application à la construction automobile
Le vendredi 15 septembre 2006 à 10h00 - ENSAM, CER d'Aix-en-Provence

Ses publications : ici
Jean-christophe CHAMBELLAND : Reconstruction de surfaces à pôles pour la conversion et la simplification de modèles B-Rep
Le mercredi 06 septembre 2006 à 10h00 - ESIL batiment C

Ses publications : ici
Livio DE LUCA : Relève et multi-représentations du patrimoine architectural : Définition d'une approche hybride de reconstruction 3D d'édifi
Le vendredi 31 mars 2006 à 10h00 - ENSAM d'Aix-en-Provence, salle des Conseils

Ses publications : ici
Thomas RAKOTOMAMONJY : Modélisation et contrôle du vol d'un microdrone à ailes battantes
Le jeudi 05 janvier 2006 à 14h00 - Polytech'Marseille, Domaine Universitaire de Saint Jérôme

Ses publications : ici
Mahat KHELFALLAH : Révision et fusion d'informations à base de contraintes linéaires : Application à l'information géographique et temporelle
Le mercredi 14 decembre 2005 à 10h30 - salle des séminaires (R164), CMI

Ses publications : ici
Geoffroy AUBRY : Un cadre logique pour la génération d'arguments
Le mardi 13 decembre 2005 à 10h00 - amphi C de l'ESIL, Luminy
Un_cadre_logique_pour_la_gnrat_27s.pdf

Ses publications : ici
Abdelhamid RABHI : Estimation de la Dynamique d'un Véhicule en Interaction avec son environnement
Le jeudi 01 decembre 2005 à 14h00 - LSIS, EPUM

Ses publications : ici
Maâmar el-amine HAMRI : Spécification et Opérationnalisation des Systèmes de Connaissances Réactifs : extension de CommonKADS et du Formalisme DEVS
Le lundi 28 novembre 2005 à 10h30 - salle de conférences - Polytech-GII

Ses publications : ici
Mehdi ESSID : Intégration de données et applications hétérogènes et distribuées sur le Web
Le lundi 14 novembre 2005 à 14h00 - Centre de Mathématique et Informatique à chateau ombert à la salle C001

Ses publications : ici
Xiaomin CHE : Extraction et reconstruction du réseau hydrographique à partir du modèle numérique de terrain
Le mercredi 09 novembre 2005 à 14h00 - Luminy
Sous la direction de : SEQUEIRA Jean

Ses publications : ici
Philippe BOUCHÉ : Une approche stochastique de modélisation de séquences d'événements discrets pour le diagnostic des systèmes dynamiques
Le jeudi 03 novembre 2005 à 10h30 - Salle de Conférences, Polytech'Marseille, site de Saint Jérôme
Une_approche_stochastique_de_m_22s.pdf

Ses publications : ici
Sébastien RICHARD : Reconstruction 3D de la Cornée par Vidéokératographie
Le vendredi 14 octobre 2005 à 10h00 -

Ses publications : ici
Thuc trung PHAM : Fusion de l'information geographique hierarchisee
Le vendredi 30 septembre 2005 à 14h30 - CMI (salle C01)
Application des treillis a la fusion de l'information et de sa qualite dans les etudes de changement de couverture du sol (land-cover change).

Ses publications : ici
Yassine LASSOUED : Mediation de la qualite dans les systemes d'information geographiques
Le jeudi 28 avril 2005 à 10h45 - CMI (Chateau-Gombert), Salle du Conseil

Ses publications : ici
Marie-aline CAVARROC : Application des Réseaux Bayesiens de classification à l'étude des causalités en information géographique.
Le lundi 31 janvier 2005 à 10h30 - salle de seminaire du premier etage (163) au CMI, 39 rue Joliot Curie

Ses publications : ici
Bérengère VASSEUR : Modélisation de l'information de qualité externe dans les applications géographiques
Le lundi 13 decembre 2004 à 10h00 - salle de conférence du bâtiment Polytech'DGII
sous la direction de M. Robert Jeansoulin

Ses publications : ici
Sébastien BERNARD : Spécification d'un environnement d'ingénierie collaborative multisite - Application à l'industrie aéronautique européenne
Le vendredi 12 novembre 2004 à 10h00 - ENSAM - CER d'Aix-en-Provence
Spcification_dun_environnement_12s.doc

Ses publications : ici
Ahmed CHOULI : Contribution à l'élaboration d'une méthodologie d'aide au travail coopératif pour l'organisation distribuée multi-sites com
Le mardi 21 septembre 2004 à 14h15 - salle EPUM GII à ST JEROME
Contribution__lElaboration_dEu_11s.doc

Ses publications : ici
: Formalisation et développement de méthodes d'apprentissage pour la commande des machines et des robots
Le lundi 14 juin 2004 à 10h30 - l'ENSAM Aix-en-Provence - Amphi 1
Sous la direction de : Francis GERARDIN
Formalisation_et_dveloppement__10s.pdf

Ses publications : ici
Cecilia ZANNI : Proposition of a Conceptual Framework for the Analysis, Classification and Choice of Knowledge Based Diagnosis Systems
Le jeudi 03 juin 2004 à 11h00 - Salle de Conférences du Département GII du Polytech'Marseille
Proposition_of_a_Conceptual_Fr_9s.doc

Ses publications : ici
Marc GERVAIS : Gestion du risque juridique découlant de la fourniture de données géographiques : pertinence des instructions à l'usager
Le jeudi 04 decembre 2003 à 10h00 - MARNE LA VALLEE
Sous la direction de : JEANSOULIN Robert, BEDARD Y.

Ses publications : ici
: Sur des généralisations des graphes triangulés. Application aux problèmes de satisfaction de contraintes
Le vendredi 24 octobre 2003 à 11h00 - salle de Conférences de l'EPUM GII à Saint-Jérôme
Sous la direction de : Lamia KEDDAR
sous la direction de M. Philippe Jégou

Ses publications : ici
Cyril TERRIOUX : Approches structurelles et coopératives pour la résolution de problèmes de satisfaction de contraintes
Le mardi 10 decembre 2002 à 11h00 - CMI, salle de conférence C 001
sous la direction de M. Philippe Jégou

Ses publications : ici
George MORARU : Etude du Comportement du Système Pièce-Outil-Machine en Régime de Coupe Vibratoire
Le jeudi 24 octobre 2002 à 10h00 - Ecole Nationale Supérieure d'Arts et Métiers, Amphithéâtre A1, Bloc Scientifique - Aix-en-Provence
Etude_du_Comportement_du_Systm_3s.doc

Ses publications : ici
: Contribution à l'élaboration d'une méthode d'analyse prévisionnelle de la sécurité de systèmes à risques multiples : app
Le mardi 24 septembre 2002 à 14h30 - Salle de conférences. Polytech Marseille - Faculté de St Jérôme
Sous la direction de : Ronald LOSCHMANN
Contribution__llaboration_dune_2s.pdf

Ses publications : ici
: Spécifications formelles de systèmes de commande à évènements discrets
Le jeudi 04 juillet 2002 à 10h00 - CMI, salle de conférence C 001
Sous la direction de : Jumpamule WATCHAREE
sous la direction de M. Jean-Luc Paillet

Ses publications : ici