ACCUEIL
 

Zhongliang LI : Diagnostic guidé par les données pour les systèmes pile à combustible de type PEMFC
Le mardi 16 septembre 2014 à 10h00 - faculté des sciences Louis Néel - Belfort
Sous la direction de : OUTBIB Rachid
Cette thèse est consacrée à l'étude de diagnostic de pannes pour les systèmes pile à combustible de type PEMFC. Le but est d'améliorer la fiabilité et la durabilité de la membrane électrolyte polymère afin de promouvoir la commercialisation de la technologie des piles à combustible. Afin d'assurer un diagnostic précis et applicable en temps réel, les approches explorées dans cette thèse sont celles du diagnostic guidé par les données.

Parmi les mèthodes dédiées au diagnostic guidé par les données, les techniques basées sur la reconnaissance de forme sont les plus utilisées. Dans ce travail, les variables considérées sont les tensions des cellules et la démarche adoptée se compose de deux étapes. La première étape consiste à extraire les caractéristiques, et la deuxième étape permet d'établir une classification. Les résultats établis dans le cadre de la thèse peuvent être regroupés en trois contributions principales.

La première contribution est constituée d'une étude comparative. Plus précisément, plusieurs méthodes sont explorées puis comparées en vue de déterminer une stratégie précise et offrant un coût de calcul optimal.

La deuxième contribution concerne le diagnostic online sans connaissance complète des défauts au préalable. Il s'agit d'une technique adaptative qui permet d'appréhender l'apparition de nouveaux types de défauts. Cette technique est fondée sur la méthodologie SSM-SVM et les règles de détection et de localisation ont été améliorées pour répondre au problème du diagnostic en temps réel.

La troisième contribution est obtenue à partir méthodologie fondée sur l'utilisation partielle de modèles dynamiques. Le principe de détection et localisation de défauts est fondé sur des techniques d'identification et sur la génération de résidus directement à partir des données d'exploitation.

Toutes les stratégies proposées dans le cadre de la thèse ont été testées à travers des données expérimentales et validées sur un système embarqué.

Mots clés : système PEMFC, diagnostic en ligne, des tensions cellulaires, classification de modèle, l'extraction d'entité, la précision du diagnostic, le coût de calcul, systèmes embarqués, la détection des défauts roman, adaptation en ligne, l'identification du modèle, l'espace de parité, conception résiduelle, dynamique processus

Ses publications : ici
Mehdi IRAQI HOUSSAINI : Environnement logiciel basé sur les modèles pour l'ingénierie collaborative de produit
Le lundi 15 septembre 2014 à 10h00 - ENSAM
Sous la direction de : ROUCOULES Lionel - KLEINER Mathias

Ses publications : ici
Faris DJOHOR : Perception, actions et synchro,isations dans un simulateur de conduite d'engin.
Le jeudi 11 septembre 2014 à 13h30 - LSIS St Jérôme
Sous la direction de : M'SIRDI Nacer - NAAMANE Aziz
Résumé Ce travail s’inscrit dans le cadre du projet ActiSurTT, qui porte comme objectif de concevoir
des systèmes de sécurité actifs contre le renversement des véhicules en milieu tout-terrain. Une modélisation
orientée tout terrain est proposée autour de la problématique de contact roue-sol et est, par la
suite, intégrée dans un simulateur de véhicules doté d’un modèle global à 16 DDL. L’utilisation de l’outil
SCANeR Studio dans l’étude des phénomènes de renversement constitue un élément important du projet,
parce qu’il permet d’éviter les coûts et surtout les dangers relatifs à l’utilisation d’un banc d’essai ou
d’un véhicule réel conduit par un opérateur. L’étude a permis de mettre au point un simulateur réaliste
sous l’environnement SCANeR Studio, comportant le modèle dynamique et la CAO d’un véhicule tout
terrain évoluant sur un terrain d’essai. Ce dernier a été reconstitué à partir d’un terrain existant, grâce à
l’utilisation des données satellites et de la modélisation 3D sous Google SketchUp. Des observateurs et des
estimateurs ont été, par la suite, développés afin de caractériser l’état de stabilité du véhicule en fonction
des variables mesurées à l’aide de capteurs. Une étude accidentologique menée par la CCMSA (Mutualité
Sociale Agricole) partenaire du projet ActiSurTT, démontre trois classes de situations de renversement
recensées et qui constituent la majeur partie des accidents constatés. Ces trois classes sont traitées, dans
notre étude, à l’aide des outils de diagnostic, de perception et de caractérisation de stabilité. En suite, des
systèmes d’alerte ont été mis en place en choisissant des seuils des déclenchement de manière à anticiper le
renversement et offrir la possibilité d’agir sur les actionneurs et mettre en place un stratégie stabilisante.
Finalement, plusieurs solutions d’actions sont proposées afin d’avoir un impact direct sur les situation
dangereuses.
Mots clés Modélisation contact roue-sol, véhicule tout terrain, caractérisation de la stabilité, système
de sécurité actif.
Abstract This work was realized in the context

Ses publications : ici
Lama EL SARRAJ : Exploitation d'un entrepôt de données guidée par des ontologies. Application au management hospitalier
Le jeudi 10 juillet 2014 à 14h00 - salle des conférences Gérard Jaumes – Laboratoire LSIS, Bâtiment de Polytech Marseille
Sous la direction de : ESPINASSE Bernard - LIBOUREL Thérèse

Ses publications : ici
Alexis THIEULLEN : Méthodologie pour la détection de défaillances des procédés de fabrication par ACP : application à la production de dispositifs semi-conducteurs
Le mercredi 09 juillet 2014 à 10h30 - salle des conférences Gérard Jaumes du Bâtiment de Polytech Marseille, campus de Saint-Jérome
Sous la direction de : OULADSINE Mustapha - PINATON Jacques

Ses publications : ici
Ali OULHACI : Évaluation individuelle et collective dans les jeux sérieux collaboratifs : application à la gestion de crise
Le vendredi 20 juin 2014 à 14h30 - salle des conférences Gérard Jaumes – Polytech Marseille - LSIS
Sous la direction de : ESPINASSE Bernard - TRANVOUEZ Erwan

Ses publications : ici
Nabil KARAMI : Control of a Hybrid System Based PEMFC and Photovoltaic Panels
Le vendredi 20 decembre 2013 à 10h30 - salle de conférence "Gérard Jaumes" du département Génie Industriel et Informatique de Polytech Marseille
Sous la direction de : OUTBIB Rachid

Ses publications : ici
Zeineb CHIKHAOUI : Contribution à la modélisation énergétique des hélicoptères en vue de la maîtrise de leurs comportements dynamiques
Le mercredi 18 decembre 2013 à 10h00 - amphithéâtre numéro 1 du centre d?Aix en Provence d?Arts-et-Métiers Paristech
Sous la direction de : Pierre-Jean BARRE - Julien GOMAND - François MALBURET
Résumé : Les hélicoptères sont le siège de comportements dynamiques difficiles à maîtriser et récurrents en phase de conception. Ces comportements sont essentiellement liés à des couplages mal maîtrisés entre certains sous-systèmes. Un état de l?art sur les pratiques de modélisation existantes met en évidence un manque de prise en compte des interactions énergétiques entre sous-systèmes, rendant difficile l'analyse et la maîtrise de ces phénomènes et conduisant à des solutions ponctuelles, sans capitalisation possible des méthodes mises en ?uvre. Ces travaux offrent une introduction à une approche de représentation multiphysique et multiniveau, complémentaire aux approches existantes, offrant une vision énergétique et structurelle pour la maîtrise de la dynamique des systèmes tels que les hélicoptères. Une réflexion sur les outils de représentation existants a conduit au choix du bond graph (BG), du multibond graph (MBG) et de la Représentation Energétique Macroscopique (REM) en tant qu'outils complémentaires pour la modélisation et la commande des systèmes multiphysiques multicorps. Une analyse énergétique d?hélicoptère a conduit à la proposition d'une description macroscopique basée sur le MBG à mots, complétée par deux autres niveaux détaillant le modèle MBG du sous-système rotor-fuselage. Les hypothèses de modélisation sont choisies de manière à reproduire les conditions d'apparition du phénomène de résonance air, phénomène de couplage connu sur les hélicoptères. Cette étude met en évidence le potentiel des représentations énergétiques en application aux hélicoptères et ouvre de nombreuses perspectives, tant pour l'analyse des appareils existants que pour la conception d'aéronefs innovants.


Abstract: Rotorcraft are complex systems and are thus sources of recurring (i.e. for many new design projects) and poorly understood problems. Considering a specific phenomenon, implying interactions between many subsystems, the analysis of the system from a global but "sufficiently" detailed point of view becomes necessary. Current global modeling methodologies are mainly based on a subsystem-by-subsystem approach and the knowledge of their interactions is insufficient. This work proposes an introduction to a multiphysic and multilevel representation, complementary to existing modeling approaches, offering an energetic and structural view to support analysis and control of rotorcraft. A first study leads to the choice of, the bond graph (BG), the multibond graph (MBG) and the Energetic Macroscopic Representation (EMR) as complementary multiphysic tools for the modeling and control of multiphysic and multibody systems. Then, an energetic analysis of helicopter dynamics is presented and a global energetic and macroscopic representation, using the word bond graph, is proposed. After that, the MBG is used for rotor-fuselage modeling in order to reproduce the air resonance phenomenon. This work shows the potential of energetic representations on rotorcraft and opens many perspectives, not only for the analysis of the existing rotorcraft, but also for the design of innovative rotorcraft.

Ses publications : ici
Yanal WAZAEFI : Diagnostic automatique de mélanome à partir d'images numériques de tumeurs mélanocytaires: Approches analytique et comparative
Le mardi 17 decembre 2013 à 14h00 - amphithéâtre Jean-Jacques Aubert du bâtiment A du PolyTech (ex- ESIL), site de Luminy
Sous la direction de : Bernard Fertil - Sébastien PARIS
Résumé : Cette thèse a contribué au développement de deux approches complémentaires pour le diagnostic assisté par ordinateur du mélanome: l’approche analytique et l’approche comparative.

L'approche analytique imite le comportement du dermatologue en détectant les caractéristiques de malignité des naevus sur la base de méthodes analytiques classiques dans une première étape, et en combinant ces caractéristiques dans une deuxième étape. Le classifieur proposé a montré une meilleure performance que les dermatologues invités à donner leur diagnostic sur 1097 images dermoscopique de lésions cutanées. Nous avons aussi étudié comment le classifieur peut contribuer à améliorer l’efficacité du dermatologue dans sa pratique quotidienne.

L'approche comparative, appelée concept du Vilain Petit Canard (VPC), suppose que les naevus chez le même patient ont tendance à partager certaines caractéristiques morphologiques. VPC est le naevus qui ne rentre dans aucun de ces groups; il est susceptible d'être un mélanome. Nous avons utilisé deux méthodes de classification supervisées, l'approche appariée et l'approche structurelle, pour modéliser la capacité des dermatologues à réaliser cette tâche qu’ils effectuent le plus souvent de manière intuitive. Ces méthodes ont appris à estimer la similarité entre les lésions cutanées des patients telle que les dermatologues la perçoivent. La combinaison des approches analytique et comparative a amélioré de manière significative la spécificité du système automatique de diagnostic du mélanome.

Ses publications : ici
Yves DUBROMELLE : Contribution au pilotage holonique et ambiant, via des technologies infotroniques
Le lundi 16 decembre 2013 à 10h30 - salle de conférence "Gérard Jaumes" du département Génie Industriel et Informatique de Polytech Marseille
Sous la direction de : PUJO Patrick - OUNNAR Fouzia

Ses publications : ici
Alain VISSIERE : Contribution à la mesurede cylindricité de très haute exactitude.
Le vendredi 13 decembre 2013 à 10h00 - ENSAM
Sous la direction de : GIBARU

Ses publications : ici
Shereen ALBITAR : "De l'usage de la sémantique dans la classification supervisée de textes: Application au domaine médical"
Le jeudi 12 decembre 2013 à 15h00 - salle des conférences du département GII de Polytech Marseille
Sous la direction de : ESPINASSE Bernard - FOURNIER Sébastien
Face à la multitude croissante de documents publiés sur le Web, il est apparu nécessaire de développer des techniques de classification automatique efficaces à base d?apprentissage généralement supervisé. La plupart de ces techniques de classification supervisée utilisent des sacs de mots (BOW- bags of words) en tant que modèle de représentation des textes dans l?espace vectoriel. Ce modèle comporte trois inconvénients majeurs : il considère les synonymes comme des caractéristiques distinctes, ne résout pas les ambiguïtés, et il considère les mots polysémiques comme des caractéristiques identiques. Ces inconvénients sont principalement liés à l?absence de prise en compte de la sémantique dans le modèle BOW. De plus, les mesures de similarité utilisées en tant que fonctions de prédiction par certaines techniques dans ce modèle se basent sur un appariement lexical ne tenant pas compte des similarités sémantiques entre des mots différents d?un point de vue lexical. La recherche que nous présentons ici porte sur l?impact de l?usage de la sémantique dans le processus de la classification supervisée de textes. Cet impact est évalué au travers d?une étude expérimentale sur des documents issus du domaine médical et en utilisant UMLS (Unified Medical Language System) en tant que ressource sémantique. Cette évaluation est faite selon quatre scénarii expérimentaux d?ajout de sémantique à plusieurs niveaux du processus de classification. Le premier scénario correspond à la conceptualisation où le texte est enrichi avant indexation par des concepts correspondant dans UMLS ; le deuxième et le troisième scénario concernent l?enrichissement des vecteurs représentant les textes après indexation dans un sac de concepts (BOC ? bag of concepts) par des concepts similaires. Enfin le dernier scénario utilise la sémantique au niveau de la prédiction des classes, où les concepts ainsi que les relations entre eux, sont impliqués dans la prise de décision. Le premier scénario est testé en utilisant trois des méthodes de classification les plus connues : Rocchio, NB et SVM. Les trois autres scénarii sont uniquement testés en utilisant Rocchio qui est le mieux à même d?accueillir les modifications nécessaires. Au travers de ces différentes expérimentations nous avons tout d?abord montré que des améliorations significatives pouvaient être obtenues avec la conceptualisation du texte avant l?indexation. Ensuite, à partir de représentations vectorielles conceptualisées, nous avons constaté des améliorations plus modérées avec d?une part l?enrichissement sémantique de cette représentation vectorielle après indexation, et d?autre part l?usage de mesures de similarité sémantique en prédiction.
manuscrit_shereen_albitar.pdf

Ses publications : ici
Romain RAFFIN : Contribution à l’étude des surfaces discrètes et continues, transformation et reconstruction
Le mercredi 11 decembre 2013 à 10h15 - grand Amphi du site de Saint-Charles
Mes travaux de recherche couvrent plusieurs thèmes de modélisation géométrique : la déformation de maillages surfaciques, les courbes et surfaces paramétriques pour la reconstruction, les surfaces de subdivision (vues comme un passage des surfaces aux maillages, et vice-versa) et les surfaces fermées épaisses (offset). Les applications de ces modèles ont été diverses (reconstruction à partir de données médicales, trajectographie, CAO - conception assistée par Ordinateur, normalisation). Ces projets m'ont permis d'asseoir de futurs travaux de traduction de modèles, sous contraintes de qualité ou de contenus, en s'appuyant sur des descriptions sémantiques des objets.

Ses publications : ici
Radouane OULADSINE : Sur le pronostic des systèmes stochastiques
Le lundi 09 decembre 2013 à 10h30 - salle des conférences du département GII de Polytech Marseille.
Sous la direction de : OUTBIB Rachid
Cette thèse porte sur la problématique du pronostic des systèmes. Plus précisément, elle est dédiée aux systèmes stochastiques et deux contributions principales sont proposées. La première contribution concerne la problématique du pronostic à base de connaissances d’expert. Le système considéré est supposé être exploité en vue de réaliser une mission. Durant cette dernière, on suppose disposer d’information, à travers les connaissances d’expert, sur l’environnement ; c’est-à-dire les conditions opérationnelles dans lesquelles évolue le système. Cependant, à cause des phénomènes aléatoires, ces connaissances peuvent être que partielles. Par conséquent, une méthodologie de pronostic, basée sur des techniques probabilistes, est proposée.

Dans ce travail, en vue d’estimer la distribution de probabilité de l’environnement, une analyse des connaissances, fondée sur le principe de Maximum d’Entropie Relative (MER), est proposée. Ensuite, pour modéliser l’impact de cet environnement aléatoire sur le système, les trajectoires de dégradation sont construites à travers un cumul stochastique basé sur la méthode Monte Carlo chaine de Markov.

La deuxième contribution est dédiée au pronostic à base de modèle d’état non-linéaire et stochastique. Dans ce travail, on suppose que seule la structure de la fonction de dégradation est connue. Cette structure est supposée dépendre de la dynamique d’un paramètre inconnu. L’objectif ici, est d’estimer ce paramètre en vue de déterminer la dynamique de la dégradation. Dans ce cadre, une stratégie, du pronostic basée sur la technique de filtre bayésien, est proposée. La technique consiste àcombiner deux filtres de Kalman. Le premier filtre est utilisé afin de déterminer le paramètre inconnu. Puis, en utilisant la valeur du paramètre estimée, le deuxième filtre assure la convergence de la dégradation.

Une série d’exemples dans le domaine du transport est traitée afin d’illustrer notre contribution.

English version :
This thesis focuses on the problem of the systems prognostic. More precisely, it is dedicated to stochastic systems and two main contributions are proposed. The first one is about the prognostic of stochastic systems based on the expert knowledge and the proposed approach consists in assessing the system availability during a mission. This mission is supposed to model the user profile that express the environment in which the system will evolve. We suppose also that this profile is given through a partial knowledge provided by the expert. In fact, since the complexity of systems under consideration and the possible random phenomena the expert can provide only incomplete information.

The aim of the contribution is to estimate the system’s damage trajectory and analyse the mission success. In this case, a three steps methodology is proposed. The first step consists on estimating the environment probability distribution. Indeed, a probabilistic method based on maximum relative entropy (MRE) is used. The second step is dedicated to the damage trajectory construction. This step is performed by using a Markov Chain Monte Carlo (MCMC) simulation. Finally, the prediction of the mission success is performed through damage trajectories analysis. Note that, the models describing the damage behaviour, and in order to be more realistic, is supposed to be stochastic.

The second contribution of this thesis, concerns the model-based prognosis approach. More precisely, it about the use of the Bayesian filtering on the prognosis problem. The aim of the proposed approach is identify the damage parameter by using an Ensemble Kalman Filtre (EnKF). Then, estimate the RUL based on the damage propagation.

To illustrate our contributions, a series of examples is treated.

Ses publications : ici
Sara BOUZID : "Approche Sémantique de Gestion de Ressources d’Information pour le Contrôle de Processus Industriels: Application au Processus de Fabrication chez STMicroelectronics".
Le vendredi 06 decembre 2013 à 14h00 - salle des conférences du département GII de Polytech Marseille
Sous la direction de : CAUVET Corine - FRYDMAN Claudia
Résumé:
Afin d’assurer la fabrication de produits conformes et à faible coût dans les industries, la maîtrise des procédés de fabrication avec des méthodes fiables et des indicateurs standards de suivi est devenue un enjeu majeur. Les systèmes d'information dans les industries sont assez complexes et les besoins métier évoluent en permanence, rendant ainsi difficile la recherche de ressources fournissant les informations manufacturières pour le suivi et l’analyse des procédés industriels. De plus, l’utilisation de plateformes logicielles commerciales dans les industries pour le traitement des données ne facilite pas l’accès à l’information produite car ces plateformes ne permettent pas la gestion sémantique de l’information. Cette thèse défend l’idée qu’il faut réduire la distance entre les ressources disponibles en entreprise et les besoins métier des experts qui assurent le contrôle de processus industriels.
L’approche S3 est proposée pour supporter la maîtrise des procédés de fabrication grâce à un système de gestion de ressources d’information manufacturière permettant de supporter à la fois la description et la recherche de ces ressources. L’approche S3 repose sur deux stratégies de recherche complémentaires: une stratégie de type ascendante (« bottom up ») permettant la création de descripteurs sémantiques de ressources, et une stratégie de type descendante (« top-down ») permettant la capture des besoins métier dans des patterns de recherche. Deux structures sémantiques sont proposées pour supporter les mécanismes de description et de recherche: une ontologie « manufacturing process » et un dictionnaire « process control ». Chaque stratégie de recherche, appuyée par les structures sémantiques apporte un niveau de description différent et permet l’alignement de différents types de connaissances métier. Cette approche a été expérimentée au sein de l’entreprise STMicroelectronics et a révélé des résultats prometteurs.

Abstract:
In order to ensure the manufacturing of conforming products with the least waste, the manufacturing process control has ever more become a major issue in industries nowadays. The complexity of information systems in industries and the permanent evolution of the business needs make difficult the retrieval of the resources that provide manufacturing information related to the process control. In addition, the use of commercial software platforms in industries for the processing of data does not facilitate the access to the information produced, because these platforms do not support the semantic management of information.
This thesis argues the need to reduce the distance between the used resources in industries and the business needs of the experts that ensure the control of manufacturing processes.
The S3 approach is proposed to support the manufacturing process control through a resource management system intended for both resource description and retrieval. The S3 approach relies on two complementary retrieval strategies: a bottom-up strategy enabling the creation of semantic descriptors of resources, and a top-down strategy enabling the capture of business needs in search patterns. Two semantic structures are proposed to support the resource description and retrieval mechanisms: a manufacturing process ontology and a process control dictionary. Basing on these semantic structures, each retrieval strategy provides different levels of description to the resources and enables the alignment of different types of business knowledge. The experimentation of the approach within STMicroelectronics showed promising results.

Ses publications : ici
Mouna GOUIA BENZINA : Proposition d'une approche sur la maximisation des compétences de la foule au sein des plateformes de "CROWDSOURCING" (cas de plateformes de bascklinks)
Le vendredi 29 novembre 2013 à 10h00 - Faculté de St Jérome
Sous la direction de : AGOSTINELLI Serge

Ses publications : ici
Régis ABEILLE : « Algorithmes d'extraction robuste de l'intervalle-inter pulse du biosonar du cachalot, applications éthologiques et suivi des populations »
Le mercredi 27 novembre 2013 à 14h00 - 'Université du Sud Toulon-Var, Campus de la Garde, bâtiment A, salle des Commissions,
Sous la direction de : GLOTIN Hervé
Le cachalot, Physeter macrocephalus, le plus grand des odontocètes, a été longtemps exposé à la pêche pour extraire l'huile contenue dans sa tête (spermaceti), et est maintenant vulnérable. Les cachalots nagent dans toutes les mers ouvertes et atteignent les plus grandes profondeurs, où ils chassent par écholocation. Ils émettent des sons, des clics à large bande, à structure multi-pulsée générée par des réflexions intra-tête. Ces clics contiennent de l'information sur la taille de l'animal et sur son orientation, reposant sur les délais entre les pulses qui le composent (intervalle inter-pulse 'IPI'). Ces mesures sont utiles dans la préservation et les efforts de suivi populationnel du cachalot, puisqu'il est impossible de filmer ces mammifères nageant en grandes profondeurs. Les avancées technologiques permettant un essor considérable de la qualité des enregistrements sous-marins, des algorithmes d'analyse sont requis pour un suivi de cette population et des études comportementales et mesures de protection. La littérature offre une variété de méthodes pour le calcul de l'IPI. Cependant, elles souffrent d'un mélange des différents délais entre pulses résultant en une estimation de taille peu précise, sans permettre l'extraction de l'orientation de l'animal. Dans cette thèse, une nouvelle méthode pour une analyse fine de l'IPI est présentée. Elle ne mélange pas les différents délais entre pulses, mais sélectionne les pulses à travers une analyse combinatoire et statistique. Il en résulte une meilleure estimation de la taille du cachalot. De plus une information supplémentaire, sur son orientation, est extraite. Notre algorithme est comparé avec ceux de l'état de l'art. Nous en discutons ses forces et faiblesses. Les résultats expérimentaux sont donnés autant sur des exemples avec un ou plusieurs cachalots émettant en même temps, que sur des données obtenues à travers différentes zones géographiques (France, Italie, Etats-Unis) et différents systèmes d'enregistrement. Ceci démontre la robustesse de la méthode proposée, et donne des perspectives pour le suivi des cachalots à l'échelle du globe.




Le Bureau des Études Doctorales a le plaisir de vous informer que


Monsieur Régis ABEILLE

Doctorant au laboratoire LSIS - Laboratoire des Sciences de l'Information et des systèmes - UMR 7296, rattaché à l'école doctorale 548 « Mer et Sciences », sous la direction de M. le professeur Hervé Glotin et M. Giraudet, co-encadrante,

soutiendra publiquement sa thèse en vue de l'obtention du doctorat en informatique sur le thème suivant :


« Algorithmes d'extraction robuste de l'intervalle-inter pulse du biosonar du cachalot, applications éthologiques et suivi des populations »

Le mercredi 27 novembre 2013 à 14h00, à l'Université du Sud Toulon-Var, Campus de la Garde, bâtiment A, salle des Commissions,

devant un jury composé de :

- M. Adam OLIVIER, Professeur à l'Université Paris 6, rapporteur,

- M. Jérôme SUEUR, Habilité à diriger des recherches au Muséum National d'Histoire Naturelle de Paris, rapporteur,

- M. Gianni PAVAN, Professeur à l'Université de Pavia, Italie,

- M. Pascale GIRAUDET, Docteur PRAG à l'Université de Toulon,

- M. Hervé GLOTIN, Professeur à l'Université de Toulon.


Résumé :

Le cachalot, Physeter macrocephalus, le plus grand des odontocètes, a été longtemps exposé à la pêche pour extraire l'huile contenue dans sa tête (spermaceti), et est maintenant vulnérable. Les cachalots nagent dans toutes les mers ouvertes et atteignent les plus grandes profondeurs, où ils chassent par écholocation. Ils émettent des sons, des clics à large bande, à structure multi-pulsée générée par des réflexions intra-tête. Ces clics contiennent de l'information sur la taille de l'animal et sur son orientation, reposant sur les délais entre les pulses qui le composent (intervalle inter-pulse 'IPI'). Ces mesures sont utiles dans la préservation et les efforts de suivi populationnel du cachalot, puisqu'il est impossible de filmer ces mammifères nageant en grandes profondeurs. Les avancées technologiques permettant un essor considérable de la qualité des enregistrements sous-marins, des algorithmes d'analyse sont requis pour un suivi de cette population et des études comportementales et mesures de protection. La littérature offre une variété de méthodes pour le calcul de l'IPI. Cependant, elles souffrent d'un mélange des différents délais entre pulses résultant en une estimation de taille peu précise, sans permettre l'extraction de l'orientation de l'animal. Dans cette thèse, une nouvelle méthode pour une analyse fine de l'IPI est présentée. Elle ne mélange pas les différents délais entre pulses, mais sélectionne les pulses à travers une analyse combinatoire et statistique. Il en résulte une meilleure estimation de la taille du cachalot. De plus une information supplémentaire, sur son orientation, est extraite. Notre algorithme est comparé avec ceux de l'état de l'art. Nous en discutons ses forces et faiblesses. Les résultats expérimentaux sont donnés autant sur des exemples avec un ou plusieurs cachalots émettant en même temps, que sur des données obtenues à travers différentes zones géographiques (France, Italie, Etats-Unis) et différents systèmes d'enregistrement. Ceci démontre la robustesse de la méthode proposée, et donne des perspectives pour le suivi des cachalots à l'échelle du globe.


Abstract :

The sperm whale, Physeter macrocephalus, belongs to toothed whales and it is the largest within the suborder. Exposed to years of whaling due to the extensive use of liquid wax located in its head (spermaceti) in industrial products, it is now considered a vulnerable species and it is highly protected globally. Given that sperm whales are not restricted geographically, but can be located anywhere in open seas, major international efforts have been brought forth to create protected environments and parks. A successful example of such measures is PELAGOS, a marine sanctuary spanning Italy, France and Monaco with the goal of protecting the ecosystem by monitoring and preserving the marine biodiversity present in the area. Sperm whales are also part of the deepest-diving mammals. As a result, their main mechanism for navigating and foraging is the use of echolocation. Specifically, they emit broadband clicks that are comprised of a multi-pulse structure. This multi-pulse structure is generated due to various reflections within the sperm whale's head (spermaceti). Scientists have long reasoned that by recording and studying the click sounds, information can be extracted regarding the whale's size and orientation based on the delays between the pulse structure within the clicks, known as the Inter-Pulse-Interval (IPI). This observation has had a major impact in global preservation and monitoring efforts since it is highly difficult to have visual access to these deep-diving mammals. Moreover, with the increasing technological advances allowing for an exponential growth of high quality underwater recordings, the use of computational methodologies that analyze the click sounds of sperm whales offer a rigorous and large scale assessment for monitoring populations and studying marine ecosystems, which can aid decision makers for creating preservation policies. The current literature offers a variety of methodologies for calculating the IPI in order to measure the size of a sperm whale. However, these methodologies suffer by merging the different pulse delays and thus obtaining a less accurate estimate of the whale's size. Moreover, given these merged methods no additional information regarding the orientation of the sperm whale can be easily extracted. In this work, a new methodology for accurate IPI estimation is presented without merging the different pulse delays, but by selecting the unique pulse candidates through a combinatorial and statistical analysis allowing for better precision in the final estimation of the sperm whale's size and providing additional information on the whale's orientation. Our methodologies are compared with the known state of the art algorithms and the strengths and weaknesses are discussed to provide a better insight. Experimental results are showcased for single and multi-whale examples for a variety of data obtained from different locations such as France, Italy and Canada in order to account not only for the possible bias due to the different recording apparatus, but also to provide a generalised understanding of the importance of this work for sperm whale monitoring in diverse environments.

Ses publications : ici
Hammad SQALLI : Vers une communication collective efficiente : le rôle des méthodes agiles dans l'intelligence collaborative.
Le mardi 26 novembre 2013 à 10h00 - Faculté de St Jérôme
Sous la direction de : AGOSTINELLI Serge

Ses publications : ici
Claire CAPANNA : Reconstruction 3D de petits corps par photoclinométrie
Le jeudi 14 novembre 2013 à 13h30 - Laboratoire d'Astrophysique de Marseille
Sous la direction de : Gesquière Gilles
La reconstruction 3D en astrophysique permet d’effectuer des études géologiques d’objets très éloignés, elle peut également être utilisée pour des besoins opérationnels de certaines missions spatiales. Ma thèse se situe dans le cadre de la mission Rosetta de l’Agence Spatiale Européenne dont la sonde a été lancée en mars 2004. La mission a pour principal objectif l’observation du noyau de la comète 67P/Churyumov-Gerasimenko, à partir de juillet 2014. La sonde restera en orbite autour du noyau pendant 18 mois. Au cours de son périple, Rosetta a déjà survolé deux astéroïdes : Steins (en 2008) et Lutetia (en 2010). La méthode décrite dans cette thèse appartient à la catégorie des méthodes dites de “photoclinométrie”. Ces méthodes utilisent les niveaux de gris des images observées pour reconstruire les pentes de la surface. Nous appelons la méthode de photoclinométrie développée, au cours de cette thèse, MPCD : “Multirésolution Photoclinométrie par Déformation”. Elle s’appuie sur la déformation de modèle de forme au cours d’un processus d’optimisation. La fonction à minimiser résulte d’un calcul de maximum de vraisemblance, mesurant la similitude entre un jeu d’images observées et les images synthétiques correspondantes créées à partir du modèle de forme. Les astéroïdes Steins et Lutetia servent à la validation de la méthode avec des données réelles.

Ses publications : ici
Mikaël MARTIN : CONTRIBUTION A L’INTÉGRATION D'UN ACTIONNEUR INTELLIGENT A RETOUR D'EFFORT AU SEIN D'UN SYSTÈME COMPLEXE – APPLICATION AUX COMMANDES DE VOL HÉLICOPTÈRES”
Le jeudi 07 novembre 2013 à 10h30 - ENSAM Aix-en-Provence AMPHI 1
Sous la direction de : PJ. BARRE, J. GOMAND
RESUME : Les pilotes d’hélicoptères disposent à l’heure actuelle de plusieurs dispositifs d’assistance en effort. Insérés dans les commandes de vol de l’appareil, ces dispositifs évitent au pilote de subir des efforts trop importants dans les manches de pilotage, mais permettent aussi de donner aux pilotes une indication des efforts demandés à l’appareil. Au cours du temps et des besoins, les Commandes De Vol (CDV) se sont complexifiées par l’ajout de nouveaux équipements sans nécessairement étudier au préalable les possibilités d’évolution des éléments déjà existant. Majoritairement composés d’éléments hydro-électro-mécaniques, ces dispositifs permettent peu d’adaptation en temps réel et sont parfois antagonistes. Dans ce travail, une alternative aux commandes de vol d’aujourd’hui est proposée via l’introduction d’un élément actif, en substitution des éléments dédiés à l’assistance et au ressenti d’effort. Cette transition doit être accompagnée d’une méthodologie qui doit permettre de garantir « au global » la fonction des CDV actuelles : le changement doit être transparent pour le pilote. Dans un premier temps, un modèle des commandes de vol existantes est construit en mettant en œuvre une approche énergétique et graphique, structurée selon des lois de causalité physique. Puis une évolution des commandes de vol est proposée pour introduire le modèle de l’élément actif. L’utilisation de la Représentation Energétique Macroscopique permet ensuite, à partir des techniques d’inversion de modèle, de déduire des architectures de commande offrant la gestion optimisée de l’énergie au plus près des éléments qui la transforment. Des essais expérimentaux, effectués à partir d’un prototype monté sur un banc d’essais représentatif des commandes de vol d’un hélicoptère, complètent les résultats de simulation. La représentation du modèle des commandes de vol actuelles est exploitée dans la commande de l’élément actif pour générer, avec méthode, une référence d’effort permettant de conserver les sensations de pilotage existantes.


Mots clés : Hélicoptère, Retour d’effort actif, Commande par Modèle Interne, Représentation Energétique Macroscopique

Ses publications : ici
Cang PHAN ANH : CRACK REMOVAL AND HOLE FILLING ON COMPOSITE SUBDIVISION MESHES
Le vendredi 25 octobre 2013 à 13h30 - à Polytech Marseille, campus de Luminy, salle de réunion bâtiment A, 2e étage
Les techniques de traitement de la géométrie sont devenues essentielles pour une large gamme d'applications d'ingénierie allant de la simulation de chirurgie virtuelle, en passant par l'infographie, la visualisation scientifique, la réalité virtuelle, la simulation et l'imagerie médicale.

Construire une surface lisse d'un objet 3D est un problème important dans de nombreuses applications graphiques. En particulier, les méthodes de subdivision permettent de passer facilement d'un maillage discret à une surface continue. Un problème général résultant de la subdivision de deux maillages initialement connectés le long d'un bord est l'apparition de fissures ou de trous entre eux. Ces fissures produisent non seulement des formes indésirables, mais induisent aussi des difficultés pour les traitements ultérieurs. Il faut donc réparer ces défauts de sorte que la surface obtenue soit lisse et puisse être subdivisée ou modifiée.
Nous proposons de nouvelles méthodes pour relier deux maillages avec des résolutions différentes en utilisant une transformée en ondelettes B-splines et une approximation locale ou une interpolation locale à l'aide de fonctions de base radiales (RBF). Ces procédés génèrent un maillage de connexion où la continuité est contrôlée. La résolution du maillage est ajustable pour respecter le changement de résolution entre les zones grossières et fines. En outre, nous présentons des méthodes pour combler les trous à n-côtés, et le raffinement des maillages grâce à un schéma de subdivision adaptative.

Cette thèse présente d'abord de nouvelles méthodes de remplissage des trous à n-côtés. L'idée principale est de générer la connexion par une surface continue en construisant un maillage de contrôle extrapolé à partir des sommets de la frontière du trou sur la base des méthodes d'interpolation locales (interpolation RBF, interpolation par arcs de cercle, ajustement des plans tangents) et de schémas de subdivision communs (Loop, Butterfly et Doo-Sabin). Ensuite, les méthodes de connexion des maillages sont introduites pour relier deux maillages avec des résolutions différentes, même avec des schémas de subdivision différents. Les sommets du maillage de liaison sont produits localement par l'application d'une transformée en ondelettes B-splines et une interpolation locale RBF ou une approximation locale des plans tangents. Ensuite, on introduit un procédé de subdivision adaptative pour subdiviser les zones d'intérêt d'un maillage, en particulier à l'intérieur du maillage de connexion. Il est ainsi possible d'ajouter des détails géométriques avec différentes résolutions. Cette méthode est basée sur l'information de sommets dits $dead$ qui sont des sommets de délimitation entre les zones des maillages triangulaires afin de déterminer si les faces doivent être subdivisées ou non à l'étape de subdivision suivante. De plus, notre système peut éviter de produire des fissures qui sont causées par une différence de résolution entre les maillages.

Nous avons conçu, implémenté et testé les algorithmes en MatLab pour illustrer nos méthodes et montrer des résultats expérimentaux. Ces algorithmes sont mis en oeuvre sur de nombreux modèles d'objets 3D avec des formes complexes. En outre, nous avons fourni des approches différentes pour chaque problème. Ainsi, les résultats des différentes approches sont comparés et évalués afin d'exploiter les avantages et les inconvénients de ces approches.

Mots clés: Connexion de maillages, régularité, fonctions de base radiales, approximation locale, ondelettes B-splines.

Ses publications : ici
Van-sinh NGUYEN : 3D Modeling of elevation surfaces from voxel structured point clouds extracted from seismic cubes
Le vendredi 25 octobre 2013 à 09h30 - Polytech Marseille, campus de Luminy, salle de réunion bâtiment A, 2e étage
Reconstruire des surfaces avec des données provenant d’une technique d’acquisition automatique entraîne toujours le problème de la masse des données acquises. Cela implique que les procédés habituels ne peuvent pas être appliqués directement. Par conséquent, un processus de réduction des données est indispensable. Un algorithme efficace pour un traitement rapide préservant le modèle original est un outil précieux pour la construction d’une surface optimale et la gestion des données complexes.

Dans cette thèse, nous présentons des méthodes pour construire une surface géologique optimale à partir d’une quantité énorme de points 3D extraits de cubes sismiques. Appliquer le processus à l’ensemble des points induit un risque important de contraction de la surface de sorte que l’extraction de la frontière initiale est une étape importante permettant une simplification à l’intérieur de la surface. La forme globale de la surface sera alors mieux respectée pour la reconstruction de la surface triangulaire finale. Nos propositions sont basées sur la régularité des données qui permet, même si des données sont manquantes, d’obtenir facilement les informations de voisinage.

Tout d’abord, nous présentons une nouvelle méthode pour extraire et simplifier la frontière d’une surface d’élévation définie par un ensemble de voxels dans un grand volume 3D où des données sont manquantes. Deuxièmement, une méthode pour simplifier la surface à l’intérieur de sa frontière est présentée. Elle comprend une étape de simplification grossière optionnelle suivie par une étape plus fine basée sur l’étude des courbures. Nous tenons également compte du fait que la densité de données doit changer graduellement afin de recevoir à la dernière étape d’une surface triangulée avec de meilleurs triangles. Troisièmement, nous avons proposé une nouvelle méthode rapide pour trianguler la surface après simplification.

Ses publications : ici
Arnault TREMOLET : Contribution aux méthodes et outils pour les études conceptuelles giravions.
Le mardi 22 octobre 2013 à 10h00 - ONERA
Sous la direction de : OULADSINE Mustapha - BASSET Pierre-Marie

Ses publications : ici
Mathieu CHOUCHANE : Optimisation spatio-temporelle d'efforts de recherche pour cibles manoeuvrantes et intelligentes
Le jeudi 17 octobre 2013 à 15h30 - salle de conférence "Gérard Jaumes" du département Génie Industriel et Informatique de Polytech Marseille
Sous la direction de : OULADSINE Mustapha - PARIS Sébastien

Ses publications : ici
Yassine KHELIL : Analyse des données en vue de diagnostic des moteurs Diesel de grande puissance
Le vendredi 04 octobre 2013 à 10h00 - salle des conférences du département GII de Polytech'Marseille
Cette thèse a été réalisée dans le cadre d'un projet industriel (BMCI), dont l'objectif est d'augmenter la disponibilité des équipements sur les navires. Dans cette thèse, nous proposons une approche qui met à contribution deux approches différentes, à savoir une approche à base de données pour la détection des défauts et une approche à base de connaissances d'experts pour l'isolation des défauts. Cette approche se veut générique et applicable à différents sous-systèmes du moteur ainsi qu'à divers moteurs et offre une ouverture pour une éventuelle application sur d'autres équipements. De plus, elle est tolérante vis-à-vis des éventuels changements au niveau de l'instrumentation disponible. Cette approche a été testée sur la détection et l'isolation des défauts les plus fréquents et aux conséquences graves auxquels les moteurs Diesel sont sujets. Tous les sous-systèmes du moteurs Diesel sont inclus et l'approche de diagnostic prend en considération les interactions existantes entre les sous-systèmes. L'approche de diagnostic a été testée sur un banc d'essai et sur le navire militaire Adroit de DCNS. Les défauts réalisés sur divers circuits du banc moteur et les défauts apparus en fonctionnement sur certains moteurs de l'Adroit, ont été majoritairement détectés et isolés avec succès. De plus, pour pallier à l'incertitude et au caractère flou des relations expertes utilisées dans la procédure d'isolation, une validation des relations de cause à effet a été réalisée, dans le cadre de cette thèse, par la réalisation d'un modèle analytique de simulation de défauts.

Ses publications : ici
Jean-philip ROYER : Identification aveugle de mélanges et décomposition canonique de tenseurs : application à l'analyse de l'eau.
Le vendredi 04 octobre 2013 à 10h00 - 'Université du Sud Toulon-Var, Campus de la Garde, bâtiment A, salle des Commissions,
Sous la direction de : THIRION-MOREAU Nadege

Ses publications : ici
Alain AJAMI : Modélisation et simulation d'une station mono-opérateur pour le contrôle de drones et la planification de trajectoire.
Le jeudi 03 octobre 2013 à 13h30 - Université du Sud Toulon-Var, Campus de la Garde, bâtiment K, salle K018,
Sous la direction de : Gauthier Jean-Paul / Balmat Jean-François
e travail s'inscrit dans le projet plus global SHARE dont l'objectif principal est de concevoir une station de contrôle sol universelle mono-opérateur de nouvelle génération pour le contrôle et la commande de drones à voilure fixe et voilure tournante.

L'objectif de cette thèse est de développer un simulateur générique de la station de contrôle capable de simuler en temps réels les différents types de drones, les capteurs embarqués (caméra), l'environnement et les différentes missions militaires définies par le standard STANAG 4586. Après une modélisation des différentes parties de la station, nous présentons l'architecture adoptée pour le simulateur et le module de contrôle. Ce dernier est divisé en plusieurs niveaux hiérarchiques, dont le niveau supérieur contient les algorithmes de planification de trajectoire pour les drones à voilure fixe HALE (haute altitude, longue endurance). Ces algorithmes servent à calculer un chemin admissible entre un point de départ et un point d'arrivée en minimisant une fonction de coût.

Enfin nous avons développé un système d'aide à la décision pour la gestion en ligne des missions, capable de réaliser une sélection d'objectifs, et une sélection du meilleur chemin proposé par les algorithmes de planification de trajectoire. Cet outil a pour objectif d'aider l'opérateur de la station à prendre la meilleure décision en maximisant les récompenses obtenues lors de la réalisation des objectifs et en minimisant certains critères tels que la consommation des ressources, le danger, les conditions météorologiques, etc.

The presented work is part of a larger project called SHARE, which consists in developing a universal new generation ground control station for the monitoring and the control of fixed and rotary wing UAVs (Unmanned Aerial Vehicle).

The objective of this PhD thesis is to develop a generic ground control station simulator capable of simulating in real time different types of UAVs, onboard sensors, several flight environments, and various military missions which are defined according to the STANAG 4586 standard. First, we introduce the model of the different parts of the station, and then we present the architecture adopted for the simulator and the control module. The latter is divided into several hierarchical levels ; the upper level contains the path planning algorithms for fixed wing HALE (High Altitude, Long Endurance) UAV. These algorithms are used to calculate an admissible path between initial and final position by minimizing a cost function.

Finally, in order to manage missions online, we developed a decision support system that is capable of performing a variety of objectives. This system also supplies the operator the best paths proposed by planning algorithms. This tool aims to help the station operator to make the decision by maximizing the rewards obtained during the achieving the objectives and minimizing certain criteria (resource consumption, danger, weather,..).

Ses publications : ici
Adil MEHDARY : Développement d'outils de contrôle et de diagnostic pour l'optimisation et la gestion de l'énergie pour véhicules hybrides.
Le jeudi 03 octobre 2013 à 10h00 - Faculté de St Jérome
Sous la direction de : M'SIRDI - NAAMANE - TRIHI

Ses publications : ici
Marco POCCI : Test and diagnosis of discrete event systems using Petri nets
Le lundi 23 septembre 2013 à 10h00 - Salle des conférences du département GII de Polytech'Marseille

Ses publications : ici
Olivier COULON : Variabilité et organisation corticale dans le cadre de l'analyse de données cérébrales
Le jeudi 05 septembre 2013 à 13h30 - l'amphithéâtre du bâtiment A de Polytech Sud/ESIL
Le jury sera composé de :

Christian Barillot, projet VISAGE, IRISA, Rennes
Habib Benali, Lab LIF, INSERM, Paris
Louis Collins, Montreal Neurological Institute, McGill University, Montreal
Rachid Deriche, projet Athena, INRIA, Sophia-Antipolis
Bernard Fertil, Lab LSIS, CNRS, Marseille
Jean-François Mangin, Lab LNAO, Neurospin, CEA, Gif/Yvette

La soutenance sera suivie d'un pot sur la terrasse de Polytech.

Ses publications : ici
Thamer LOUATI : Etude et réalisation d'un contrôle isoarchique de flux de personnes via des capteurs biométriques et infotroniques
Le mardi 16 juillet 2013 à 10h30 - Polytech-DGII, Campus de St Jérôme
Sous la direction de : PUJO Patrick, OUNNAR Fouzia
Les travaux effectués dans le cadre de cette thèse porte sur le contrôle intelligent, isoarchique et multicritère de flux de personnes dans une zone fermée. Nous proposons un système de contrôle basé sur la biométrie multimodale et le RFID qui sont deux techniques complémentaires pour une sécurisation robuste et flexible du flux de personnes. La biométrie multimodale est utilisée pour une reconnaissance plus fiable des individus, et le RFID pour la sécurisation et le stockage des informations identitaires des personnes à surveiller. Ce système est complètement décentralisé et la décision concernant une demande d’accès est prise de manière autonome au niveau de chaque porte de chaque zone sous contrôle. Les entités internes participantes au processus de prise de décision répondent à des concepts et principes exprimés via le paradigme holonique. L’ouverture automatique d’une porte est conditionnée à la conjonction de plusieurs critères (identifications biométriques, identification RFID, autorisations d’accès, trajectoires de déplacements autorisées, état de la zone à l’instant t, etc.). Une méthode d’aide multicritère àla décision est ainsi déployée au sein de chaque porte d’accès pour fusionner les réponses des identifications biométriques et pour traiter automatiquement et en temps réel les demandes d’autorisation d’accès. Tout d’abord, un état de l’art a été réalisé sur la reconnaissance biométrique, l’apport de la multimodalité biométrique, la technologie RFID et les systèmes de contrôle d’accès physique basé sur la biométrie. Ensuite, un système de contrôle intelligent, isoarchique et multicritère a été proposé, intégrant l’utilisation simultanée de la multimodalité biométrique et du RFID. Enfin, un démonstrateur du système a été implémenté dans le cadre du contrôle de flux de détenus dans une prison. Il supporte l’opérationnalisation de différentes technologies biométriques et RFID. Ce démonstrateur a été testé et validé à travers différents scénarii de demandes d’accès.

Ses publications : ici
Aïmen KHACHAREM : Effet de l'utilisation de l'image sur l'apprentissage et l'amélioration des performances tactiques chez les footballeurs.
Le mercredi 03 juillet 2013 à 10h00 - ?
Sous la direction de : ZOUDJI Bachir - RIPOLL Hubert

Ses publications : ici
Habib NASSER : Systèmes mécatroniques à base d'observateurs embarqués pour la surveillance et le pilotage des systèmes Automatisés à structures variables
Le jeudi 27 juin 2013 à 10h30 - Polytech-DGII, Campus de St Jérôme
Sous la direction de : M'SIRDI Nacer - NAAMANE Aziz
L'intérêt de la mécatronique est de modéliser, de concevoir et de produire des nouveaux systèmes automatisés, plus performants et de nouvelles machines dites « intelligentes ».

Dans cette thèse nous nous intéressons à la modélisation, la simulation et la commande de systèmes complexes (robots, engins mobiles ou véhicules). En utilisant le logiciel de calcul symbolique Maple Nous avons généré des modèles, orientés suivant différents objectifs dictés par les impératifs du diagnostic, de la surveillance et de l'aide à la conduite. Ces modèles basés aussi bien sur les approches robotiques qu'énergétiques, mettent en évidence d’une part les propriétés et les particularités de la dynamique du véhicule en fonction de la trajectoire suivie (routes, nature de chaussée, …) et permettent d'autres parts de préciser les causes d'éventuelles défauts. Ce premier travail a conduit à une analyse mécatronique et énergétique appliquées aux véhicules.

Ainsi nous avons proposé un découpage dynamique du véhicule en plusieurs blocs fonctionnels, dont nous avons étudié l’évolution des termes de couplages et nous avons présenté un découpage énergétique du système global. Dans le cadre d’un projet ANR, nous avons mis en œuvre l’approche robotique afin de développer le modèle dynamique à 16 degrés de liberté (ddl) pour un tracteur 'Grégoire G7' robotisé et nous avons validé nos algorithmes d’identification de paramètres dynamiques en utilisant des données réelles et un simulateur de conduite réaliste développé sur Scaner Studio (environnement de simulation de conduite proposé par Oktal).
Concernant l’observation, nous avons développé des observateurs robustes par mode glissants, avec des matrices inconnues, assurant la convergence de l'estimation. Les attributs de la route (la pente, le dévers et la dérive) sont estimés avec des observateurs. Le critère de renversement a été testé sur la dynamique d'une voiture Citroën C5 et du tracteur G7.240.

Afin de disposer d'un démonstrateur expérimental servant à l'implémentation des observateurs précédemment proposés et pour la suite être en mesure de valider toutes les approches souhaitées. Un dispositif à base d'une boite des capteurs a été conçu en utilisant la nouvelle technologie Arduino. La boite contient plusieurs capteurs (Gyroscope, Accéléromètre, GPS …) et elle est dotée d'une communication sans fil (ZigBee, Wi-Fi). L'ensemble de capteurs assure la localisation du véhicule ou mobile et transfère les mesures à une plateforme (fixe ou mobile).
Enfin nous avons modélisé le comportement dynamique d'un kart électrique ainsi que la commande vectorielle de sa machine électrique. Avec Matlab/Simulink, nous avons réalisé un simulateur pour le kart électrique. En parallèle nous avons modélisé son analogie en se basant sur l'approche énergétique Bond Graph. Afin de robotiser le kart électrique nous avons intégré plusieurs capteurs et nous avons mis en place les actionneurs nécessaires pour l’objectif d’un pilotage autonome.
--------------------------------

Ses publications : ici
Livio DE LUCA : HDR : Caractérisation sémantique de représentations géométriques d’artefacts patrimoniaux
Le lundi 21 janvier 2013 à 10h30 - Aix-Marseille Université, école doctorale "Mathématiques et Informatique"
Nos travaux de recherche, à l’intersection entre les nouvelles technologies de l’information et de la communication et la documentation du patrimoine architectural, se concentrent sur l’acquisition, la modélisation et l’enrichissement sémantique de données spatiales à l’échelle de l’édifice via la formulation de méthodes, la définition de formalismes et le développement d’outils informatiques. Suite à un travail de thèse focalisé sur la définition d’une approche hybride (mêlant balayage laser 3D et photogrammétrie) pour la reconstruction 3D sémantique d’édifices, nos recherches se sont concentrées sur la définition et sur le développement de systèmes d’informations spatialisées à l’échelle architecturale. Ces travaux plus récents (conduits au sein de projets de recherche ANR, du ministère de la Culture et de la Communication, d’actions de recherche de l’Union Européenne ainsi que de thèses de doctorat) abordent différents thèmes visant à expliciter le potentiel de la structuration d’informations hétérogènes autour de modèles de description sémantiques d’édifices patrimoniaux : documentation de l’état de conservation et suivi des altérations, indexation et recherche visuelle de sources iconographiques, analyse et représentation des transformations spatio-temporelles.

Ses publications : ici
Hector ROMERO : Méthodologie d'idientification de modèles non linéaires utilisant l'approche neuronale.
Le mardi 01 janvier 2013 à 10h00 - ENSAM Aix-en-Provence AMPHI 1
Sous la direction de : CARMONA Jean-Claude

Ses publications : ici
Pierre MACHART : Coping with the Computational and Statistical Bipolar Nature of Machine Learning
Le vendredi 21 decembre 2012 à 11h00 - Saint-Charles (amphi de Chimie)
Sous la direction de : Hervé GLOTIN et Liva RALAIVOLA

Ses publications : ici
Mehdi RAHIM : Caractérisation de la dynamique des déformations de contours. Application à l'imagerie pelvienne
Le mercredi 19 decembre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : Rémy BULOT - Marc-Emmanuel BELLEMARE
Cette thèse présente une méthodologie appliquée à la caractérisation de la dynamique de structures déformables sur des séquences temporelles (2D+t). Des indicateurs sont proposés pour l'estimation de la mobilité de formes non-rigides, à partir de leurs contours.
Deux approches complémentaires sont développées : En premier lieu, les descripteurs de forme sont utilisés pour quantifier les variations morphologiques globales des formes, et pour estimer des repères géométriques spécifiques. La deuxième approche repose sur l'appariement difféomorphique pour déterminer une paramétrisation unifiée des contours des formes, et pour ensuite décrire les déformations.
Une étape d'évaluation permet d'apprécier la qualité des indicateurs en termes de coût algorithmique, de robustesse face aux données altérées, et de capacité à différencier deux séquences distinctes.
Cette approche de caractérisation est appliquée à des séquences IRM dynamiques de la cavité pelvienne, où sont observés les principaux organes pelviens (vessie, utérus-vagin, rectum). Il s'agit d'organes à tissus-mous d'une grande variabilité morphologique qui se déplacent et se déforment.
Aussi, cette caractérisation est validée dans le cadre de deux applications.
D'une part, l'analyse statistique effectuée sur un ensemble de séquences permet de mettre en évidence des comportements caractéristiques des organes, d'identifier des références anatomiquement significatives, et d'aider à l'interprétation des diagnostics des organes pelviens.
D'autre part, dans le contexte de la réalisation d'une modélisation de la dynamique pelvienne patiente-spécifique, la caractérisation vise à évaluer quantitativement la précision de la modélisation, en utilisant l'IRM dynamique comme vérité-terrain. Ainsi, elle apporte des indications sur la correction des paramètres du modèle physique.


Ses publications : ici
Gwénolé LE MOAL : Multisensor monitoring of aeronautical drilling and countersinking operations
Le mercredi 19 decembre 2012 à 10h00 - ENSAM Amphi 1
Sous la direction de : Philippe VERON - Georges MORARU
L'assemblage de structures aéronautiques nécessite de nombreuses opérations de perçage et de fraisurage. Les deux problématiques principales concernant ces opérations sont que les alésages réalisés correspondent aux standards de qualité exigés, et que les outils coupants soient utilisés de manière optimale afin de réduire les coûts. Ces deux objectifs nécessitent l'implémentation d'une solution de surveillance en ligne des opérations de perçage. De nombreuses études ont été réalisées à ce sujet. Pourtant, une grande partie des méthodologies développées ont peu de chance de quitter les laboratoires au profit des sites de production industrielle en raison de leur difficulté d'implémentation et de leur manque de robustesse. L'utilisation de plusieurs capteurs, couplés à des techniques avancées de traitement de l'information a permis une meilleure appréhension de la complexité du procédé de perçage et une augmentation flexibilité des systèmes de surveillance. Cependant, la majorité des études ont été réalisées en laboratoire et dans conditions favorables, et les problématiques relatives à la flexibilité des conditions opératoires, ou encore à la qualité des données issues des capteurs n'ont pas été abordées. Cette étude a pour but de démontrer les améliorations potentielles que peuvent apporter les développements récents concernant la modélisation et la fusion de connaissances imparfaites pour la surveillance robuste des opérations de perçage. Une approche sera proposée pour l’implémentation industrielle de systèmes de surveillance de procédés. La méthodologie proposée doit pouvoir être transposée à un champ d'application plus large incluant la plupart des procédés de fabrication automatisés.

Ses publications : ici
Youssef AGREBI ZORGANI : Estimation Adaptative de la Vitesse et de la Résistance Rotorique pour la Commande par Orientation du Flux Statorique d’un Moteur Asynchrone sans Capteur Mécanique
Le samedi 15 decembre 2012 à 10h30 - Ecole Nationale d'Ingénieurs de Sfax (ENIS)- Tunisie
Sous la direction de : Mohamed BOUSSAK/Yassine KOUBAA

Ses publications : ici
Didier PIN : Le rôle du système de communication dans l'organisation humaines des systèmes d'information.
Le jeudi 13 decembre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : AGOSTINELLI Serge

Ses publications : ici
Régis ALENDA : Sémantique Préférentielle et méthodes de preuve pour les logiques de similarité comparative.
Le jeudi 13 decembre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : Nicola OLIVETTI
Les logiques de similarité comparative des concepts ont été introduites pour formaliser une forme de raisonnement qualitatif sur la similarité entre concepts dans des ontologies. Leur sémantique est basée sur une notion générale de distance, et ces logiques sont très liées à d'autres formalismes pour le raisonnement spatial ainsi qu'aux logiques du conditionnel.
Les précédents travaux sur le sujet ont portés sur les propriétés computationnelles de ces logiques. Ici, nos axes de recherches sont: 1. développer une sémantique relationnelle pour abstraire les valeurs numériques; 2. axiomatiser ces logiques; 3. construire des procédures de à tableaux; 4. préciser le lien avec les logiques du conditionnel.
Tout d'abord, nous montrons que la sémantique de ces logiques peut être reformulée en termes d'une relation de préférence ternaire similaire à celles des logiques du conditionnel. Les propriétés de cette sémantique par rapport à différentes classes d'espaces de distance sont étudiées.
Ensuite nous utilisons cette sémantique préférentielle pour trouver des axiomatisations et donner des procédures de décisions à tableau pour ces logiques.
Finalement, nous montrons que les logiques de similarité comparative sont en fait des logiques du conditionnel déguisées. Une nouvelle sémantique pour l'implication conditionnelle, basée sur les espaces de distance, est proposée.

Ses publications : ici
Maud RIO : A l'interface de l'ingenierie et de l'analyse environnementale.
Le vendredi 07 decembre 2012 à 10h00 - UTT Université de technologie de Troyes
Sous la direction de : Lionel Roucoules - T. Reyes

Ses publications : ici
Abdo ABOU JAOUDE : Modèle Analytique Avancé pour le Pronostic des Systèmes Industriels Soumis à la Fatigue
Le vendredi 07 decembre 2012 à 10h00 - Université Libanaise Beyrouth
Sous la direction de : M. OULADINE - H. NOURA - S. KADRY

Ses publications : ici
Salowa METHNANI : Diagnostic reconstruction et identification des défauts capteurs et actionneurs : application aux stations d'épurations des eaux usées.
Le lundi 03 decembre 2012 à 10h00 - Ecole Nationale d'Ingénieurs de Sfax (ENIS)- Tunisie
Sous la direction de : GAUTHIER Jean-Paul

Ses publications : ici
Christophe CORBIER : Contribution à l?estimation robuste de systèmes dynamiques complexes : application à la commande de systèmes dynamiques
Le jeudi 29 novembre 2012 à 10h00 - ENSAM Amphi 1
Sous la direction de : JC. CARMONA - V. ALVARADO

Ses publications : ici
Florian GRAGLIA : Amélioration du photon mapping pour un scénario walkthrough dans un objectif de rendu physiquement réaliste en temps réel
Le lundi 26 novembre 2012 à 13h30 - l'amphi C de l'ESIL sur le campus de Luminy, à Marseille (13009)
Lors du développement d'un produit industriel, il est nécessaire de visualiser à différentes étapes du processus la maquette numérique du produit à des fins de validation et de mesures. Cette thèse a pour objectif d'améliorer la qualité et le réalisme des simulations 3D dans le contexte d'un processus de production. Ces simulations impliquent souvent des scénarios de type walkthrough, avec une géométrie fixe mais un déplacement libre de l'observateur. Nous nous intéresserons donc plus précisément aux modèles et aux méthodes de rendu physiquement réaliste de scènes complexes pour ce type de scénario.

Durant l'étape de rendu, l'utilisateur doit pouvoir mesurer précisément la luminance énergétique émise par un point ou une zone donnée, ainsi que modifier en temps réel la puissance des sources lumineuses.

A travers l'étude approfondie du photon mapping, nous allons montrer comment réduire la complexité de l'étape de rendu afin d'améliorer les performances du processus dans le cadre d'un scénario walkthrough. Nos travaux s'intéressent notamment aux relations existant entre la géométrie et la carte de photons, aux structures accélératrices utilisées, ainsi qu'à la réduction du biais induit par la méthode du photon mapping.
Nous montrerons enfin les résultats obtenus sur des scènes industrielles complexes en les comparant notamment à des algorithmes physiquement réalistes consistants.

Mots-clés : rendu; physiquement réaliste; 3D; lancer de rayons; photon mapping; illumination globale; temps réel.

Ses publications : ici
Thierry BAY : Modélisation de surfaces épaisses et fermées : application aux cas des organes pelviens
Le lundi 26 novembre 2012 à 10h30 - amphithéâtre de l'IUT de Provence, site d'Arles (2 rue Raoul Follereau, 13200 Arles)
Les modifications physiologiques dans la configuration spatiale des organes pelviens sont de plus en plus diagnostiquées et traitées pour améliorer la qualité de vie des patientes. Le projet MoDyPe (ANR-09-SYSC-008) a été créé pour concevoir un simulateur chirurgical patiente-spécifique, et quantifier le geste médical en mode pré-opératoire. La modélisation géométrique des organes se fait à partir de nuages de points épars bruités. Les formes sont considérées fermées, lisses, creuses et à membrane épaisse. Le processus est décomposé en deux étapes : la construction de la surface et l'ajout d'une épaisseur.

Afin de respecter les contraintes physiologiques, de manipuler la géométrie et de localiser précisément un point sur la surface, une B-spline de genre 0 au moins C1-continue est ajustée aux données. La fonction à minimiser est basée sur une énergie bidirectionnelle, caractérisant la dissimilarité des données sur l'échantillonnage et inversement. Sa réduction repose sur un schéma alternant re-paramétrisation et descente de gradient à pas optimal.

Une surface-offset est ensuite générée vers l'intérieur de l'organe, via un maillage discret, en traitant le problème d'auto-intersection. Elle exploite la forme allongée des organes, grâce à un axe curviligne décrivant leur diamètre généralisé.
Finalement, un maillage hexaédrique est créé à partir de la surface ajustée et de l'offset, qui sert à la simulation mécanique du comportement des organes à l'étape suivante du projet.

Ses publications : ici
Baligh MNASSRI : Analyse de données multivariées et surveillance des processus industriels par analyse en composantes principales
Le vendredi 12 octobre 2012 à 14h00 - Polytech'Marseille - DGII
Sous la direction de : OULADSINE Mustapha - EL ADEL El Mostafa
Résumé de la thèse : Ce mémoire de thèse présente une étude fondamentale enrichie par des contributions qui sont articulées autour de la modélisation de processus ainsi qu'un diagnostic de défauts en utilisant l'analyse en composantes principales (ACP).

Dans l'objectif d'un choix optimal du modèle ACP, une étude comparative de quelques critères connus dans la littérature nous a permis de conclure que le problème rencontré est souvent lié à une ignorance des variables indépendantes et quasi-indépendantes. Dans ce cadre, nous avons réalisé deux démonstrations mettant en évidence les limitations de deux critères en particulier la variance non reconstruite (VNR). En s'appuyant sur le principe d'une telle variance, nous avons proposé trois nouveaux critères. Parmi eux, deux ont été considérés comme étant empiriques car seule l'expérience permettra de prouver leur efficacité. Le troisième critère noté VNRVI représente un remède à la limitation du critère VNR. Une étude de sa consistance théorique a permis d'établir les conditions garantissant l'optimalité de son choix. Les résultats de simulation ont validé une telle théorie en prouvant ainsi que le critère VNRVI étant plus efficace que ceux étudiés dans cette thèse.

Dans le cadre d'un diagnostic de défauts par ACP, l'approche de reconstruction des indices de détection ainsi que celle des contributions ont été utilisées. A travers une étude de généralisation, nous avons étendu le concept d'isolabilité de défauts par reconstruction à tout indice quadratique. Une telle généralisation nous a permis d'élaborer une analyse théorique d'isolabilité de défauts par reconstruction de la distance combinée versus celles des indices SPE et T2 de Hotelling en mettant en avant l'avantage de l'utilisation d'une telle distance. D'autre part, nous avons proposé une nouvelle méthode de contribution par décomposition partielle de l'indice SPE. Cette approche garantit un diagnostic correct de défauts simples ayant de grandes amplitudes. Nous avons également étendu une méthode de contribution classiquement connue par la RBC au cas multidimensionnel. Ainsi, la nouvelle forme garantit un diagnostic correct de défauts multiples de grandes amplitudes. En considérant la complexité de défauts, nous avons exploité la nouvelle approche de contribution RBC afin de proposer une nouvelle qui s'appelle RBCr. Cette dernière s'appuie sur un seuil de tolérance pour l'isolation de défauts. Une analyse de diagnosticabilité basée sur la RBCr montre que celle-ci garantit l'identification des défauts détectables. Ces derniers sont garantis isolables si leurs amplitudes satisfont les mêmes conditions d'isolabilité établies pour l'approche de reconstruction des indices.
--------------------------------------------------------------

Ses publications : ici
Mamoun SQALI : DEVS pour l'aide à la validation des spécifications UML
Le vendredi 12 octobre 2012 à 10h00 - Polytech'Marseille - DGII
Sous la direction de : FRYDMAN Claudia

Ses publications : ici
Yuska paola COSTA AGUIAR : Etude et réalisation d'un protocole experimental pour l'étude du comportement humain en situation critique.
Le lundi 01 octobre 2012 à 10h00 - Universite Federal de Campina Grande, BRESIL
Sous la direction de : SANTONI Charles - VIEIRA Fatima

Ses publications : ici
Yuxi WANG : Recalage d'images de modalités et de géométries différentes en télédétection - Application à la gestion des catastrophes naturelles.
Le lundi 01 octobre 2012 à 10h00 - Pekin, Chine
Sous la direction de : SEQUEIRA Jean

Ses publications : ici
Amor KHLAIEF : Contribution à la commande vectorielle sans capteur mécanique des machines synchrones à aimants permanents (MSAP)
Le mardi 10 juillet 2012 à 14h00 - Centrale Marseille en Amphi 2
Sous la direction de : M. BOUSSAK - A. CHAARI

Ses publications : ici
Laura POMPONIO : Definition of a Human-Machine Learning Process from Timed Observations: Application to the Modelling of Human Behaviour for the Detection of Abnormal Behaviour of Old People at Home
Le mardi 26 juin 2012 à 14h30 - salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille.
Sous la direction de : LE GOC Marc
Résumé

L'acquisition et la modélisation de connaissances a été abordée jusqu'à présent selon deux points de sources principales : les êtres humains (experts) à l'aide des méthodologies de l'Ingénierie des Connaissances et le Knowledge Management, et les données à l'aide des techniques relevant de la découverte de connaissances à partir du contenu de bases de données (fouille de données). Cette thèse porte sur la conception d'un processus d'apprentissage conjoint par l'être humain et la machine combinant une approche de modélisation des connaissances de type Ingénierie des Connaissances (TOM4D, Timed Observation Modeling for Diagnosis) et une approche d'apprentissage automatique fondée sur un processus de découverte de connaissances à partir de données datées (TOM4L, Timed Observation Mining for Learning). Ces deux approches étant fondées sur la Théorie des Observations Datées, les modèles produits sont représentés dans le même formalisme ce qui permet leur comparaison et leur combinaison. Le mémoire propose également une méthode d'abstraction, inspirée des travaux de Newell sur le ``Knowledge Level'' et fondée sur le paradigme d'observation datée, qui a pour but de traiter le problème de la différence de niveau d'abstraction inhérent entre le discours d'un expert et les données mesurées sur un système par un processus d'abstractions successives. Les travaux présentés dans ce mémoire ayant été menés en collaboration avec le CSTB de Sophia Antipolis (Centre Scientifique et Technique du Bâtiment), ils sont appliqués à la modélisation de l'activité humaine dans le cadre de l'aide au personnes âgées maintenues à domicile.


Abstract

Knowledge acquisition has been traditionally approached from a primarily people-driven perspective, through Knowledge Engineering and Management, or from a primarily data-driven approach, through Knowledge Discovery in Databases, rather than from an integral standpoint. This thesis proposes then a human-machine learning approach that combines a Knowledge Engineering modelling approach called TOM4D (Timed Observation Modelling For Diagnosis) with a process of Knowledge Discovery in Databases based on an automatic data mining technique called TOM4L (Timed Observation Mining For Learning). The combination and comparison between models obtained through TOM4D and those ones obtained through TOM4L is possible, owing to that TOM4D and TOM4L are based on the Theory of Timed Observations and share the same representation formalism. Consequently, a learning process nourished with experts' knowledge and knowledge discovered in data is defined in the present work. In addition, this dissertation puts forward a theoretical framework of abstraction levels, in line with the mentioned theory and inspired by the Newell's Knowledge Level work, in order to reduce the broad gap of semantic content that exists between data, relative to an observed process, in a database and what can be inferred in a higher level; that is, in the experts' discursive level. Thus, the human-machine learning approach along with the notion of abstraction levels are then applied to the modelling of human behaviour in smart environments. In particular, the modelling of elderly people's behaviour at home in the GerHome Project of the CSTB (Centre Scientifique et Technique du Bâtiment) of Sophia Antipolis, France; institution with which this thesis has been led in collaboration.

Ses publications : ici
Pamela VIALE : Using Expert Knowledge and Process Traces for Diagnosis: Application to STMicroelectronics Semiconductor Manufacturing Processes
Le lundi 04 juin 2012 à 14h00 - 'Université Paul Cézanne Aix Marseille en salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille
Cette thèse a pour objectif de proposer une méthodologie aidant les entreprises à valider leur processus à grande échelle avec répétition de tâches. Cette méthodologie a pour but principal la construction des modèles de processus à partir de deux sources d’information différentes: les données provenant d’exécutions de processus et la connaissance d’experts, pour pouvoir comparer les comportements de ces modèles. La méthodologie aide les experts à diagnostiquer les processus: les comportements acceptés par les modèles d’experts sont comparés aux comportements acceptés par les modèles obtenus à partir des données provenant de l’activité. Si des différences sont trouvées des tâches de diagnostic sont nécessaires pour en analyser les raisons.

Ses publications : ici
Mohamed TRABELSI : Contribution au diagnostic de défauts des composants de puissance dans un convertisseur statique associé à une machine asynchrone: Exploitation des signaux électriques.
Le jeudi 24 mai 2012 à 14h00 - Ecole Centrale Marseille en Amphi 2
Sous la direction de : Mohamed Boussak

Ses publications : ici
Kheir-eddine AZIZ : Suivi multi-caméras de personnes dans un environnement contraint
Le vendredi 11 mai 2012 à 14h00 - Campus de Luminy à l'Esil en salle de documentation
Sous la direction de : Bernard FERTIL, Djamel MERAD
La consommation est considérée comme étant l’une des formes simples de la vie quotidienne. L’évolution de la société moderne a entraîné un environnement fortement chargé d’objets, de signes et d’interactions fondées sur des transactions commerciales. À ce phénomène s’ajoutent l’accélération du renouvellement de l’offre disponible et le pouvoir d’achat qui devient une préoccupation grandissante pour la majorité des consommateurs oú l’inflation des prix est un sujet récurrent. Compte tenu de cette complexité et de ces enjeux économiques aussi conséquents, la nécessité de modéliser le comportement d’achat des consommateurs dans les différents secteurs d’activité présente une phase primordiale pour les grands acteurs économiques ou analystes.

Dans le cadre de cette thèse CIFRE, nous avons abordé l’ensemble du processus de suivi multi-caméras de personnes en apportant notre contribution à la réponse aux questions suivantes :

1. Comment suivre un individu à partir d’un flux vidéo mono-caméra en assurant la gestion des occultations ?
2. Comment effectuer un comptage de personnes dans les surfaces denses ?
3. Comment reconnaître un individu en différents points du magasin à partir des flux vidéo multi-caméras et suivre ainsi son parcours ?

Dans ce contexte, nous avons proposé une nouvelle méthode de suivi mono-caméra basée sur la détection de têtes par l’utilisation des squelettes. Etant donné que dans une foule, la tête est considérée la partie du corps la plus apparente pour un individu et la moins sensible aux occultations, notre méthode consiste à modéliser la foule par un squelette 2D. Cette structure encode les informations topologiques sous la forme d’un graphe de squelette, ensuite on s’intéresse aux propriétés structurelles de ce graphe pour localiser les têtes.

Afin de suivre le parcours d’un individu entre les différents champs de caméras, nous avons proposé un système de ré-identification de personnes qui repose sur trois étapes principales.
Dans un premier temps, nous avons segmenté les individus en deux classes d’apparences, face et dos, en se servant de la position de tête en mouvement par rapport à la caméra. Par la suite, nous avons procédé à une segmentation horizontale de la silhouette en trois parties : tête, torse et jambes. Finalement, pour effectuer le processus de ré-identification, nous avons choisi de mettre en correspondance des descripteurs locaux de type SIFT, SURF et Spin Image couplé par des mesures inter-bins.

Ses publications : ici
Maximiliano CRISTIA : FASTEST : improving and supporting the test template framework
Le vendredi 13 avril 2012 à 14h00 - Salle de conference - LSIS Polytech
Sous la direction de : FRYDMAN Claudia
The most resource-consuming phase of software production is the verification of its qualities, including functional correctness. However, due to its costs, the software industry seldom performs a thorough verification of its products. One of the most promising strategies to reduce the costs of software verification is making it as automatic as possible. Currently, this industry relies basically only on testing to verify functional correctness. Therefore, we sought to automate functional testing of softwaresystems by providing tool support for the test case generation step. Model-based testing (MBT) is a testing theory that has achieved impressive successes in automating the testing process. Any MBT method analyses a formal model or specification of the system under test to generate test cases that later are executed on the system. Almost all methods work with some form of finite state machines (FSM) which limits their application since FSM¹s cannot describe general systems. However, a great advantage of these methods is that they reach a high degree of automation. In this thesis we show, on the contrary, the degree of automation we have achieved by applying a MBT method, known as Test Template Framework (TTF), to Z specifications. Since Z is based on first-order logic and set theory it is far more expressive than FSM¹s, thus making our results applicable to a wider range of programs. During this thesis we have improved the TTF and developed a tool, called Fastest, that implements all of our ideas. Fastest provides tool support for the following activities:
* Partitioning of the input space of Z operations.
* Building testing trees.
* Elimination of inconsistent test specifications.
* Generation of abstract test cases.

Ses publications : ici
Karen OHAYON : Amelioration de l'ordonnancement par la méthode AHP
Le lundi 19 decembre 2011 à 11h00 - Université Paul Cézanne Aix Marseille en salle salle des thèses
Le monde industriel est sans cesse confronté à des problèmes de choix. Une multitude de critères doit être pris en compte dans la résolution de ces derniers. Face à ces situations, les outils d?aide à la décision prennent tout leur sens. Nous utiliserons ici la méthode AnalyticHierarchicProcess dans le domaine de la Production et plus particulièrement dans le cadre de l'ordonnancement d'une ligne de production de prothèses cardiovasculaires.

Le paramétrage initial de cette méthode fait appel à l'évaluation d'un expert. Bien que ce dernier ait les connaissances nécessaires pour faire un paramétrage convenable, il n'en reste pas moins humain et introduira, même involontairement, une partie subjective dans ses décisions.

L'ordonnancement en résultant ne sera donc pas forcément optimal. La réduction de cette subjectivité passe par l'utilisation d'une méta heuristique, de type algorithme génétique, pour améliorer ce paramétrage par l'exploration de solutions voisines à celles proposées par l'expert.

Ses publications : ici
Benjamin DUPLEX : Transfert de déformations géométriques lors des couplages de codes de calcul - Application aux dispositifs expérimentaux du réacteur de recherche Jules Horowitz
Le mercredi 14 decembre 2011 à 10h30 - amphithéâtre de l'INSTN (proche CEA de Cadarache)
Le CEA développe et utilise des logiciels de calcul, également appelés codes de calcul, dans différentes disciplines physiques pour optimiser les coûts de ses installations et de ses expérimentations. Lors d'une étude, plusieurs phénomènes physiques interagissent. Un couplage et des échanges de données entre plusieurs codes sont nécessaires.

Chaque code réalise ses calculs sur une géométrie, généralement représentée sous forme d'un maillage contenant des milliers voire des millions de mailles. Cette thèse se focalise sur le transfert de déformations géométriques entre les maillages spécifiques de chacun des codes de calcul couplés. Pour cela, elle présente une méthode de couplage de plusieurs codes, dont le calcul des déformations est réalisé par l'un d'entre eux. Elle traite également de la mise en place d'un modèle commun aux différents codes de l'étude regroupant l'ensemble des données partagées. Enfin, elle porte sur les transferts de déformations entre des maillages représentant une même géométrie ou des géométries adjacentes. Les modifications géométriques sont de nature discrète car elles s'appuient sur un maillage. Afin de les rendre accessible à l'ensemble des codes de l'étude et pour permettre leur transfert, une représentation continue est calculée. Pour cela, deux fonctions sont développées : l'une à support global, l'autre à support local. Toutes deux combinent une méthode de simplification et un réseau de fonctions de base radiale. Un cas d'application complet est traité dans le cadre du réacteur Jules Horowitz. L'effet des dilatations différentielles sur le refroidissement d?un dispositif expérimental est étudié.

Ses publications : ici
Marie OUVRARD : Regard SIC sur le rôle des actants: Anthropologie d'un évènement de communication dans une organisation TIC à visée internationale
Le mardi 13 decembre 2011 à 14h00 - salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille

Ses publications : ici
Thibault LELORE : Binarisation de documents multimédias : de l'image à la vidéo
Le lundi 12 decembre 2011 à 13h00 - salle de documentation du bâtiment A de l'ESIL
La vision par ordinateur est un problème vaste et complexe. Le système visuel humain ayant eu plusieurs milliard d'années pour évoluer, nous avons presque oublié comment le simple fait de reconnaître un objet pouvait être compliqué. En effet, les signaux électriques renvoyés par les caméras sont difficilement interprétable par les neurones électroniques des ordinateurs. Nous nous intéresserons au cours de cette présentation à un domaine particulier de la vision qui est celui de la lecture. Nous nous placerons en amont du processus de reconnaissance de caractères en cherchant à simplifier au maximum le document observé. Ce processus cherche à supprimer toutes les perturbations que peut subir le document pour ne conserver que le texte. On parle alors de binarisation. Nos propositions, au nombre de quatre, sont caractérisées par une modélisation bayésienne de l'image. Ainsi, nous avons proposé d'intégrer une notion de voisinage en utilisant les champs de Markov puis en utilisant un détecteur de contours. De même, nous avons étudié le cas où plusieurs images d'un même document sont disponibles. Dans ce cas, nous proposons deux méthodes de super-résolution permettant de retrouver des détails perdus au cours de l'acquisition : l'une qui suppose que le support du texte est plat, l'autre qui ne fait aucune hypothèse, ni sur le support, ni sur les caméras.

Ses publications : ici
Tarek NABHANI : Symétries locales et globales en logique propositionnelle et leurs extensions aux logiques non monotones
Le vendredi 09 decembre 2011 à 14h00 - CMI Château Gombert - Marseille - salle des séminaires (R164 )
La symétrie est par définition un concept multidisciplinaire. Il apparaît dans de nombreux domaines. En général, elle revient à une transformation qui laisse invariant un objet.

Le problème de satisfaisabilité (SAT) occupe un rôle central en théorie de la complexité. Il est le problème de décision de référence de la classe NP-complet (Cook, 71). Il consiste à déterminer si une formule booléenne admet ou non une valuation qui la rend vraie.

Dans la première contribution de cette thèse, nous proposons une nouvelle méthode complète qui élimine toutes les symétries locales d'une instance du problème SAT en exploitant son groupe des symétries. Les résultats obtenus montrent que l'exploitation des symétries locales est meilleure que l'exploitation des symétries globales sur plusieurs instances SAT et que les deux types de symétries sont complémentaires, leur combinaison donne en général, une meilleure exploitation des symétries.

Dans la deuxième contribution, nous proposons une approche d'apprentissage de clauses pour les solveurs SAT modernes en utilisant les symétries. Cette méthode n'élimine pas les modèles symétriques comme font les méthodes statiques d'élimination des symétries. Elle évite d'explorer des sous-espaces correspondant aux no-goods symétriques à l'interprétation inconsistante partielle courante. Les résultats obtenus montrent que l'utilisation de ces symétries et ce nouveau schéma d'apprentissage est profitable pour les solveurs CDCL.

En Intelligence Artificielle, on inclut souvent la non-monotonie et l'incertitude dans le raisonnement sur les connaissances avec exceptions. Pour cela, en troisième et dernière contribution, nous avons étendu la notion de symétrie à des logiques non classiques (non-monotones) telles que les logiques préférentielles, les X-logiques et les logiques des défauts.

Nous avons montré comment raisonner par symétrie dans ces logiques et nous avons mis en évidence l'existence de certaines symétries dans ces logiques qui n'existent pas dans les logiques classiques.

Ses publications : ici
David GUCIK : CONTRIBUTION AU PRONOSTIC DES SYSTEMES A BASE DE MODELES : THEORIE ET APPLICATION
Le vendredi 09 decembre 2011 à 10h30 - salle des conférences Gérard Jaumes dans le bâtiment Polytech?Marseille
Sous la direction de : OUTBIB Rachid
Cette thèse est une contribution au problème du pronostic des systèmes complexes. Plus précisément, elle concerne l'approche basée modèles et est composée de trois contributions principales. Tout d'abord, dans une première contribution une définition du concept de pronostic est proposée et est positionnée par rapport aux concepts de diagnostic et de diagnostic prédictif. Pour cela, une notion de contrainte temporelle a été introduite afin de donner toute pertinence à la prédiction réalisée. Il a également été montré comment le pronostic est lié à la notion d'accessibilité en temps fini.
La deuxième contribution est dédiée à l'utilisation des observateurs à convergence en temps fini pour la problématique du pronostic. Une méthodologie de pronostic est présentée pour les systèmes non linéaires à échelle de temps multiple. Puis, une troisième contribution est introduite par l'utilisation des observateurs par intervalle pour le pronostic. Une méthodologie de pronostic est proposée pour les systèmes non linéaires incertains à échelle de temps multiple. Pour illustrer les différents résultats théoriques, des simulations ont été conduites sur un modèle de comportement d'un oscillateur électromécanique.
AVIS DE SOUTENANCE DE THESE.pdf

Ses publications : ici
Dimitri KUDELSKI : Détection automatique d'objets géologiques à partir de données numériques d'affleurements 3D
Le jeudi 08 decembre 2011 à 14h00 - amphitéâtre Y. MASSIANI de l'Université de Provence (site Saint-Charles)
Détection automatique d'objets géologiques à partir de données numériques d'affleurements 3D

Depuis plusieurs années, le LIDAR est utilisé en géologie pour acquérir la géométrie des affleurements sous forme de nuages de points et de surfaces. L'objectif de cette thèse consiste à développer des techniques visant à automatiser le traitement de ces données et notamment l'interprétation de structures géologiques sur affleurements numériques. Ces travaux s'insèrent dans un projet de recherche plus important financé par ENI qui a pour objectif de concevoir des méthodologies pour intégrer des données d'affleurements aux modèles géologiques.

La problématique de cette thèse se focalise sur l'extraction d'objets géologiques (i.e., traces de fractures ou de limites stratigraphiques) à partir de modèles numériques 3D d'affleurements. L'idée fondamentale consiste à considérer ces entités géologiques comme des lignes de ravins (i.e., des lignes de forte concavité). Ce problème fait référence à la détection de lignes caractéristiques en informatique graphique.

Dans un premier temps, nous proposons une méthode reposant sur les propriétés différentielles de troisième ordre de la surface (i.e., dérivées de courbures). Un traitement est intégré afin de prendre en compte une connaissance a priori pour n'extraire que les objets orientés selon une direction particulière. Du fait du caractère rugueux et erratique des géométries d'affleurements, plusieurs limites apparaissent et mettent en défaut ce genre d'approche. Ainsi, dans un second temps, nous présentons deux algorithmes alternatifs afin de détecter de manière pertinente les objets géologiques ciblés. Ceux-ci prennent le contre-pied des techniques existantes en s'appuyant sur un marquage de sommets, établi depuis des propriétés différentielles de second ordre, suivi d'une opération de squelettisation.

Nous validons, dans une dernière partie, l'ensemble des méthodes développées et proposons diverses applications afin de souligner la généricité des approches.

Ses publications : ici
Frédéric SEGONDS : Contribution à l'intégration d'un environnement collaboratif en conception amont de produits
Le mardi 06 decembre 2011 à 10h00 - ENSAM
Sous la direction de : Améziane AOUSSAT et Philippe VERON
La conception amont de produits mécaniques est, à l'heure actuelle, peu outillée en logiciels (Mougenot 2008), et en particulier en structure collaborative support de l'activité des concepteurs. Cependant, elle fige à elle seule près de 80% des coûts futurs du projet (Michaels and Wood 1989). Dans ce contexte, notre recherche propose un modèle de définition d'un environnement collaboratif amont, à destination des entreprises. Elle s’appuie sur la mise en œuvre d’un protocole expérimental à base d’entretiens réalisés auprès d'utilisateurs finaux au sein d'entreprises. Cette démarche nous a permis de décrire l'activité de conception amont dans des secteurs industriels variés et de montrer que le développement et l'optimisation d'un environnement collaboratif amont reposent principalement sur des représentations intermédiaires (RI) de type "image". Il a été montré que l'identification et la numérisation des RI sont des préalables nécessaires à la définition de cet environnement, et que certaines contraintes métiers peuvent également être supportées par ces RI. Le modèle qui en découle permet de formuler des spécifications pour le développement d’un outil logiciel d’aide à la conception d'environnements collaboratifs, intégré dans un environnement PLM en conception mécanique.

Ses publications : ici
Frédéric LAFONT : HDR : "Soft-computing et observateurs appliqués à des systèmes environnementaux
Le lundi 05 decembre 2011 à 10h30 - Université du Sud-Toulon-var dans l'amphithéatre K20 - UFR Staps - bât K
La présentation aura pour titre « Soft-computing et observateurs appliqués à des systèmes environnementaux». Elle permettra de faire un tour d’horizon des recherches que je mène au sein du LSIS et se décomposera en deux axes :

- L’apport des techniques de soft-computing (logique floue, réseaux de neurones, …) sera présenté pour modéliser les systèmes complexes environnementaux tels que la gestion climatique d’une serre agricole ou la surveillance maritime contre la pollution.

- Le deuxième axe portera sur les observateurs ou « capteurs logiciels » développés dans deux buts : estimer des variables non mesurables et détecter des problèmes de défaut sur les capteurs existants ou sur les actionneurs. Ces méthodes seront appliquées sur un système de traitement des eaux usées à boues activées.

Ses publications : ici
Belgacem JABALLAH : Observateurs robustes pour le diagnostic et la dynamique des véhicules
Le samedi 03 decembre 2011 à 10h00 - Monastir
Ces dernières décennies, la recherche et l'application de l'automatique dans les domaines de l'automobile, a contribué fortement dans les aspects sécurité, confort des usagers, économie d'énergie et aide au pilotage.

Dans ce contexte, l'objectif principal de cette thèse est le développement d'observa-teurs par modes de glissement pour l'estimation des états dynamiques, les paramètres dynamiques ainsi que les attributs de la route (dévers de la route), considérés comme des entrées inconnues. Ce type d'observateur est basé sur la théorie des systèmes à structures variables et par l'utilisation d'un modèle représentant de façon réaliste le comportement dynamique du véhicule. A cet e et une proposition de découpage de modèle dynamique complet du véhicule en trois sous-systèmes basé sur le théorie de la passivité a été proposé. Toutes les approches développées ont été validées sur les deux simulateurs de véhicules SCANeRstudio et SIMK106N.
AnnonceTheseJB.pdf

Ses publications : ici
Jean-philippe PERNOT : HDR : Vers de nouveaux paradigmes et outils de génération et traitement de maquettes numériques tournés vers la sémantique
Le vendredi 02 decembre 2011 à 10h30 - Arts et Métiers ParisTech Aix-en-Provence
Les travaux présentés dans mon HDR portent sur la génération et le traitement de maquettes numériques de produits en conception intégrée directe et inverse. Plus particulièrement, par la recherche de méthodes, de modèles et d'outils, il s'agit de développer de nouveaux paradigmes de génération et de traitement permettant d'exploiter de manière optimale les informations sémantiques intrinsèquement et extrinsèquement contenues à différents niveaux des maquettes numériques et utilisées tout au long du cycle de vie des produits. Deux axes sont ainsi détaillés. Le premier porte sur le traitement des multi-représentations et des multi-résolutions du produit. On y découvre mes travaux sur les représentations paramétriques à base de courbes et surfaces NURBS (déformation, approche par features, grammaire de formes), ainsi que mes travaux sur les représentations discrètes (simplification et déformation de polyèdres à partir d'informations extraites d'images, déformation de maillages tétraédriques enrichis d'informations sémantiques). Le deuxième axe porte sur la génération et le traitement de maquettes numériques au travers de mes travaux sur la génération, la structuration et l'adaptation de maquettes numériques, le chainage des informations, ainsi que la caractérisation et la comparaison de modèles CAO.

Ses publications : ici
David GUERON : Modélisation d'Activités : Agrégation de Pro fils de Vol
Le mardi 22 novembre 2011 à 10h00 - Centre de recherche ONERA Salon-de-Provence situé sur la Base Aérienne 701
L'agrégation d'activités pour l'identification de catégories de comportements est un enjeu majeur de tous les systèmes socio-techniques complexes actuels. La question clé consiste à réaliser une synthèse de "façons de faire" (ou praxies) intégrant la variabilité des opérateurs humains impliqués.

Dans un cadre aéronautique, l'agrégation d'activités de pilotage vise à accélérer la
détermination de procédures améliorant la sécurité des vols et l'effi cacité des missions ; elle repose sur les données objectives des paramètres enregistrés des
phases de vol signifi catives et se structure grâce à une interprétation experte.

Un modèle d'Agrégation Supervisée en trois étapes : - décomposition, - maïeutique - reconstruction, est ainsi établi dans cette thèse. Le coeur en est la 2e étape qui généralise et enrichit le concept de "moyenne" classique des approches probabilistes : une base d'apprentissage, constituée d'activités déterminées et caractérisées par l'interprétation experte, est utilisée pour identi fier les motifs signifi catifs de paramètres enregistrés, c'est à dire les praxies qui agrègent donc les éléments essentiels des activités. Ceux-ci sont choisis au sein d'un ensemble de motifs paramétrables génériques, dont les divers seuils sont ajustés de manière incrémentale. Les motifs sont alors évalués selon les deux critères intrinsèques de cohérence et de pertinence
de leurs seuils, ainsi que selon le critère extrinsèque de la conformité des résultats obtenus par leur application sur les vols de la base d'apprentissage.
Peuvent à ce niveau se faire jour des groupements parmi les éléments de la base
d'apprentissage, selon des motifs rendant compte d'activités particulières. L'expertise doit également être généralisable pour permettre l'étude de plusieurs points-clés dans cette étape maïeutique. Ce modèle générique défi nit une activité comme une structure formelle de praxies, et ouvre la voie à un enrichissement de la 3e étape intégrant la multiplicité des rôles des opérateurs.

Mots-Clés : agrégation, aéronef, activité de pilotage, facteurs humains, praxies

Ses publications : ici
Lydie RÉNÉ : L’étude des communications et des représentations des acteurs dans un dispositif de formation à distance, considéré comme un système complexe.
Le jeudi 17 novembre 2011 à 14h00 - salle des conférences Gérard Jaumes dans le bâtiment Polytech’Marseille

Ses publications : ici
Jean-luc MARI : HDR : Extraction d’information dans les maillages et les volumes numériques
Le mercredi 09 novembre 2011 à 10h00 - ESIL
Cette habilitation porte sur l'extraction d'information pour deux modes de représentation courants en modélisation géométrique : les objets discrets et les maillages. Selon le format, les modalités d'acquisition des données ou le domaine applicatif, l'un ou l'autre de ces formalismes peut devoir être manipulé : les objets voxelisés sont par exemple très présents dans le contexte médical, et les surfaces polyédriques sont répandues en géologie numérique s'appuyant sur des acquisitions LIDAR. Il est souvent nécessaire d'extraire des caractéristiques de ces modèles : automatisation d'une expertise, enrichissement de la connaissance sur un type donné d'objets, diagnostic assisté par ordinateur, reconstruction 3D, meilleure compréhension de la forme, etc. Dans cette optique, il faut alors pouvoir manipuler à la fois des maillages et des volumes numériques, et développer des algorithmes spécifiques pour en extraire des caractéristiques pertinentes.


Ces travaux s'articulent autour de deux parties liées aux modes de représentation discrets et semi-continus. La première traite principalement d'extraction d'informations géométriques et topologiques dans les volumes numériques binaires et présente des algorithmes originaux sur le passage d'une représentation discrète vers un complexe simplicial, en préservant la topologie induite par la 26-adjacence. D'autres travaux portant sur la caractérisation du volume sous la nappe par indices de forme 3D et sur la détection des contours de la cornée sont également exposés. La seconde partie concerne essentiellement la détection de lignes caractéristiques dans les maillages dans le contexte géologique. Parmi les approches développées, un algorithme particulièrement efficace et prenant le contre-pied des techniques existantes est proposé. Il combine une étude de la courbure avec une méthode de squelettisation originale sur les maillages surfaciques. Des travaux relatifs à reconstruction 3D du volume rénal et à la génération automatique de maillages à partir d'information structurelle synthétique sont également présentés. Ce mémoire s'achève par la description de mon projet de recherche. Il s'inscrit d'une part dans le prolongement d'actions en cours qui correspondent à des collaborations actives, et d'autre part dans l'extension de la problématique d'extraction d'information dans des contextes plus généraux et de plus en plus actuels en modélisation géométrique, notamment l'étude structurelle multi-résolution d'objets discrets dynamiques et les modèles à base de points.

Mots-clés : modélisation géométrique, volumes numériques, maillages, polyèdres, complexes simpliciaux, lignes caractéristiques, squelettes, reconstruction, génération de surfaces, contrôle topologique.

Ses publications : ici
Karam MUSTAPHA : Un cadre méthodologique et une architecture logicielle orientés agents pour la modélisation et la simulation organisationnelles de chaînes logistiques
Le jeudi 20 octobre 2011 à 14h00 - Salle des conférences du département GII de Polytech'Marseille

Ses publications : ici
Axel FRANCOIS : Interopérabilité des modèles géométriques pour les Systèmes d'Information Géographique : applications de la norme ISO 19107
Le vendredi 07 octobre 2011 à 14h00 - Amphi A1 de l'IUT de Provence, site d'Arles
Sous la direction de :
Le contexte économique actuel montre que la représentation et l'analyse des données dans l'espace 3D croît de plus en plus dans les Systèmes d'Information Géographique (SIG).

Le nombre d'applications SIG est en constante augmentation dans de nombreux secteurs d'activités comme par exemple la Défense, l'Aménagement du Territoire ou la Sécurité Civile. Cependant, nous voyons l'émergence d'une forte demande pour l'analyse 3D dans les SIG. Ces développements nécessitent une standardisation des structures de données et d'échanges. Cette démarche est réalisée par l'Open Geospatial Consortium (OGC) et l'organisation internationale de normalisation (ISO).

Une norme récente (ISO 19107:2003) décrit les objets complexes à prendre en compte et les traitements qu'il est possible de leur appliquer. Elle cherche à mettre en place l'interopérabilité des échanges et des analyses de données géométriques et topologiques dans les SIG. Actuellement aucune implémentation informatique complète de cette norme n'a été encore réalisée, compte tenu de son niveau d'abstraction. Une version simplifiée a toutefois été développée pour des objets uniquement 2D (ISO 19137:2007).

Ce travail de thèse propose la modélisation et l'analyse d'objets complexes dans un espace tridimensionnel, et les traitements associés pour réaliser une première bibliothèque de fonctionnalités conforme à la norme ISO 19107. De plus, cette norme est actuellement portée en révision au sein du consortium OGC (Open Geospatial Consortium, www.opengeospatial.org) avec une nécessité de correction et d'évolution. Les travaux menés jusqu'à présent ont permis d'apporter une contribution pertinente avec l'ajout de nouvelles primitives géométriques, l'harmonisation de primitives par l'usage de courbes et surfaces paramétriques rationnelles. Les travaux sur cette norme ont permis également l'élaboration d'une application au sein de la société GEOMATYS, rendant possible la modélisation et l'analyse 3D d'un trafic aérien reposant sur des données SIG.

Ses publications : ici
Sonia MAHJOUB : études des apports de la théorie des jeux en conception de chaine logistique : approche coopérative et approche stratégique
Le mardi 04 octobre 2011 à 10h30 - Salle des conférences Gérard Jaumes à Polytech'Marseille
Dans un contexte de prix de marché fixes et exogènes pour un ensemble de biens choisis pour
être produits, le problème de conception d’une chaine logistique a été analysé comme un problème de formation d’une coalition dans le cadre de la théorie des jeux coopératifs, et formulé comme un jeu de production linéaire. Dans un premier temps, ce travail étudie la compatibilité entre la formation d’une coalition stable et l’allocation équitable du profit total entre les participants. Il est montré qu’en général, le mécanisme d’allocation purement compétitif ne vérifie pas la propriété d’équité. Deux techniques ont été proposées pour corriger ce défaut. La première consiste en l’introduction de paiements de transfert entre les membres de la coalition optimale. La deuxième technique se base sur la substitution des contraintes de capacité de ressources par des contraintes de saturation linéaires par morceaux.
Par ailleurs, si la coalition d’entreprises décide de s’organiser sous forme d’une chaine logistique et d’imposer le prix de gros de ses produits fabriqués, alors le problème de conception de chaine logistique soumis à une hypothèse de demande aléatoire élastique peut être formulé grâce au modèle du jeu biforme. Cette situation génère un jeu de production quadratique (JPQ) jusqu’alors inexistant dans la littérature. Il est montré que ce jeu a un cœur non vide et qu’il est en général non convexe. Enfin, il est démontré qu’en général l’optimum global de la chaine logistique n’est atteint que lorsque la coalition d’entreprises vend directement ses produits sur le marché final sans intervention du détaillant.

Ses publications : ici
Christophe PALMANN : Contribution au recalage d'images de modalités différentes à travers la mise en correspondance de nuages de points. Application à la télédétection.
Le jeudi 23 juin 2011 à 10h30 - amphi Jacques Derrien du bâtiment C de l'ESIL
Sous la direction de : Jean Sequeira et Sébastien Mavromatis
annonce.pdf

Ses publications : ici
Ruding LOU : Modification de modèles orientés calculs Éléments Finis et transfert d’informations sémantiques : Application au prototypage rapide de solutions alternatives dans un contexte de maintenance
Le mardi 21 juin 2011 à 10h00 - Arts et Métiers ParisTech d’Aix en Provence (amphi 1)
Sous la direction de : Philippe Véron, Jean-Philippe Pernot Bianca Falcidieno et Franca Giannini
RudingLOU_PhD_Defense_2011_June_21.pdf

Ses publications : ici
Nicolas FAESSEL : Indexation et interrogation de pages web décomposées en blocs visuels
Le mardi 14 juin 2011 à 14h00 - Salle des conférences Gérard Jaumes à Polytech'Marseille, St Jérome
Sous la direction de : Jacques Le Maitre, Emmanuel Bruno
Cette thèse porte sur l'indexation et l'interrogation de pages Web. Dans ce cadre, nous proposons un nouveau modèle : BlockWeb, qui s'appuie sur une décomposition de pages Web en une hiérarchie de blocs visuels. Ce modèle prend en compte, l'importance visuelle de chaque bloc et la perméabilité des blocs au contenu de leurs blocs voisins dans la page. Les avantages de cette décomposition sont multiples en terme d'indexation et d'interrogation. Elle permet notamment d'effectuer une interrogation à une granularité plus fine que la page : les blocs les plus similaires à une requête peuvent être renvoyés à la place de la page complète. Une page est représentée sous forme d'un graphe acyclique orienté dont chaque nœud est associé à un bloc et étiqueté par l'importance de ce bloc et chaque arc est étiqueté la perméabilité du bloc cible au bloc source. Afin de construire ce graphe à partir de la représentation en arbre de blocs d'une page, nous proposons un nouveau langage : XIML (acronyme de XML Indexing Management Language), qui est un langage de règles à la façon de XSLT. Nous avons expérimenté notre modèle sur deux applications distinctes : la recherche du meilleur point d'entrée sur un corpus d'articles de journaux électroniques et l'indexation et la recherche d'images sur un corpus de la campagne d'ImagEval 2006. Nous en présentons les résultats

Ses publications : ici
Nicolas QUEIRAS : Nouvelles lois de pilotage pour aéronef : Application à un hélicoptère rapide.
Le mardi 10 mai 2011 à 10h00 - ENSAM
Sous la direction de : MALBURET François
RESUME : Dans l?univers aéronautique principalement dominé par les avions et les hélicoptères, de nouveaux prototypes d?aéronefs combinant un rotor et au moins une hélice propulsive reviennent à l?ordre du jour. Ce ne sont pas des concepts récents, mais ces appareils qui possèdent des commandes supplémentaires par rapport à des appareils conventionnels, avaient été mis de coté car ils impliquaient une charge de travail trop importante au pilote. Cependant, avec les dernières technologies et notamment grâce à l?évolution des pilotes automatiques, de tels engins peuvent de nouveau être une solution pour atteindre des vitesses d?avancement élevées, entre 200 kts et 250 kts, vitesses qui sont hors de portée des hélicoptères conventionnels. Les particularités de ces concepts étant encore méconnues, il est indispensable d?étudier les principales caractéristiques de ces types d?engins, ainsi que leurs pilotages en vol. A l?aide d?un modèle MATLAB/SIMULINK, et avec une
approche pas à pas, plusieurs principes de lois de pilotage de la machine sont envisagés et testés en simulation pour répondre aux particularités d?un engin hybride développé par EUROCOPTER. L?une de ces lois a été retenue pour être validée de manière plus approfondie sur banc d?intégration de pilote automatique d?hélicoptère avant d?être mise en vol sur un appareil démonstrateur qui débuta ses essais en septembre 2010. Enfin, de nouvelles approches de lois de pilotage sont envisagées afin d?utiliser pleinement les commandes redondantes de ce type d?appareil. Les premiers résultats de simulations de ces lois de commande plus évoluées sont très prometteurs, et de bonnes perspectives d?applications sont en vue.

Mots clés : lois de pilotage, pilote automatique, hybride.




Ses publications : ici
Ludovic LLUCIA : Suivi d'objets à partir d'images issues de caméras mobiles non calibrées : application à la reconduction de scènes sportives.
Le lundi 14 fevrier 2011 à 13h30 - Luminy
Sous la direction de : SEQUEIRA - MAVROMATIS

Ses publications : ici
Radhouane DJERIDI : Contribution à la maîtrise de la disponibilité de systèmes complexes : Proposition d'une méthode de réordonnancement proactif de la maintenance
Le vendredi 17 decembre 2010 à 10h00 - ENSAM Aix-en-Provence
Sous la direction de : CAUVIN Aline

Ses publications : ici
Chawee BUSAYARAT : La maquette numérique comme support pour la recherche visuelle d?informations patrimoniales: Définition d?une approche pour la sémantisation de sources iconographiques par référencement spatial.
Le jeudi 16 decembre 2010 à 10h00 - amphi A1, Arts et Métiers Paristech Aix-en-Provence
Sous la direction de : Michel FLORENZANO, Philippe VERON
La collecte, l'organisation et la recherche de sources iconographiques est certainement un problème majeur au sein des communautés qui s'intéressent à l'étude, la conservation et la valorisation du patrimoine architectural.

L'organisation et la structuration de ces ressources sont alors un problème essentiel si l'on s'inscrit dans l'idée de concevoir les archives de demain. Aujourd'hui, la méthode la plus couramment utilisée, pour
classifier et rechercher des contenus iconographiques au sein d'une base
de données, est la recherche par mots-clés. Néanmoins, l'association entre les termes de la recherche et le contenu des images n'est pas entièrement développé. En particulier, dans le domaine de la documentation architecturale, au vu du degré de complexité (en termes de richesse d?information) et d'hétérogénéité (en termes de variété de supports et de techniques d'exécution) des sources iconographiques (photos, dessins,
peintures, etc.), les solutions existantes d'annotation sémantique d'images s'avèrent inefficaces. Cette thèse démarre de l'hypothèse de considérer le modèle 3D interactif comme un moyen d'accès privilégié à
l'information patrimoniale. Dans ce sens, ce travail se concentre sur l'exploitation de la représentation de la morphologie d'un édifice comme source principale pour distribuer / propager les attributs sémantiques sur
l'ensemble des sources iconographiques (le représentant en deux dimensions) qui se trouvent dans une condition de cohérence
géométrique/spatiale avec son modèle tridimensionnel. Un modèle de description sémantique (structurant l'ensemble de termes pouvant décrire la morphologie d'un édifice) est alors utilisé comme dénominateur commun
permettant d'établir des relations entre la représentation 3D complète des formes architecturales qui composent l'édifice et l'ensemble des sources iconographiques (collections d'images 2D segmentées) correspondantes. Ce travail abouti à la définition et au développement d'un système
d'informations permettant de rechercher visuellement, au sein d'un modèle 3D, les sources iconographiques corrélées en fonction de critères spatiaux, morphologiques et sémantiques. Il s'agit d'une application Web
utilisable par des spécialistes du domaine de la documentation architecturale comme par le grand public.

Ses publications : ici
Huu hung HUYNH : idéosurveillance pour appartements intelligents : Application à la détection de prise de médicaments
Le mardi 14 decembre 2010 à 13h30 - Luminy
Sous la direction de : Daniel Marc

Ses publications : ici
Huu hung HUYNH : Vidéosurveillance pour appartements intelligents : Application à la détection de prise de médicaments
Le mardi 14 decembre 2010 à 13h30 - ESIL, salle de documentation
Sous la direction de : Marc Daniel
L'objectif de cette thèse est de détecter et suivre des objets en temps réel, proposer une approche hiérarchique pour la reconnaissance de la prise de médicaments chez les personnes âgées. En effet, l'activité globale de la prise de médicaments se compose de plusieurs activités à différents niveaux de complexité. La reconnaissance est donc faite de bas en haut, de l'activité élémentaire à l'activité simple et ensuite à l'activité complète. De plus, un modèle simple de calibration, utilisant une caméra stéréo, est proposé pour estimer la profondeur des objets, et ainsi mieux traiter l'occultation des objets. Par conséquence, la reconnaissance de la prise de médicaments est plus précise.

L'expérience montre que notre approche est plus robuste et souple que les travaux précédants sur le sujet. Elle permet de reconnaître des scénarios différents de prise de médicaments et peut être appliqué pour reconnaître d'autres activités complexes en général.

Ses publications : ici
Thibaut MARGER : Optimisation d'une servocommande hydraulique à entrée mécanique en application à l'hélicoptère
Le lundi 13 decembre 2010 à 10h00 - ENSAM
Sous la direction de : CARMONA - MARE

Ses publications : ici
Azeddine ZIDOUNI : Modèles graphiques discriminants pour l'étiquetage de séquences : application à la reconnaissance d'entités nommées radiophoniques
Le mercredi 08 decembre 2010 à 10h30 - salle des conférences Gérard Jaumes à Polytech'Marseille
Sous la direction de : M. Mohamed QUAFAFOU et M. Hervé GLOTIN
resume.pdf

Ses publications : ici
Wassim TROJET : une approche de vérification formelle des modèles DEVS à base du langage Z
Le vendredi 03 decembre 2010 à 14h30 - St Jérôme
Sous la direction de : FRYDMAN Claudia

Ses publications : ici
Abdou-fadel BOUKARI : Contrôle des systèmes industriels non linéaire : utilisation des matériaux actifs
Le jeudi 23 septembre 2010 à 10h00 - ENSAM

Ses publications : ici
Chiara STEFANI : Maquettes numériques spatio-temporelles d'édifices patrimoniaux. Modélisation de la dimension temporelle et multi-restitutions des édifices.
Le jeudi 16 septembre 2010 à 10h00 - ENSAM
Sous la direction de : Veron - Florenzano

Ses publications : ici
Anis ISMAEL : soutenance de thèse
Le mardi 13 juillet 2010 à 11h00 - Polytech-GII
Sous la direction de : Mohamed Quafafou
Communautés dans les réseaux sémantiques pairs-à-pairs
TheseAnisIsmail.pdf

Ses publications : ici
Khoi NGUYEN TAN : Soutenance de thèse le 8/7/2010
Le jeudi 08 juillet 2010 à 10h00 - ESIL
Sous la direction de : Marc Daniel
TheseKoi.pdf

Ses publications : ici
Ahmad AHDAB : Soutenance de thèse
Le mercredi 30 juin 2010 à 14h00 - salle Jaume, Polytech-GII
Contribution à l'apprentissage de réseaux bayésiens à partir de données datées pour le diagnostic des processus dynamiques continus
résuméThèse.pdf

Ses publications : ici
Mariette SÉRAYET : Raisonnement à partir d'informations structurées et hiérarchisées : Application à l'information archéologique
Le jeudi 06 mai 2010 à 10h30 - Luminy
Sous la direction de : Papini - Drap

Ses publications : ici
Nabil BENAYADI : "Contribution à la découverte de connaissances temporelles à partir de données datées
Le jeudi 15 avril 2010 à 11h00 - Faculté de St Jérôme
Sous la direction de : LE GOC Marc

Ses publications : ici
Salam FRAIHAT : Quantification booléenne morphodynamique de la parole : d'un codage vocalique vers une recherche d'information
Le mercredi 24 mars 2010 à 10h15 - Université du Sud Toulon Var
Sous la direction de : Hervé GLOTIN

Ses publications : ici
José ALVEZ DO NASCIMENTO NETO : Proposition des stratégies pour l'aide à l'exportation des systèmes industriels critiques
Le lundi 22 mars 2010 à 10h00 - univ. Campina Grande
Sous la direction de : SANTONI Charles, QUEIROZ Fatima

Ses publications : ici
Omar DOUKARI : Changement de croyances local et application à l'information spatiale.
Le mardi 02 mars 2010 à 10h30 - Faculté de Saint Jérôme
Sous la direction de : Robert JEANSOULIN

Ses publications : ici
Ali EL-ALI : Hybridation des sources d'énergie pour l'habitat : analyse d'une configuration et étude de cas.
Le vendredi 26 fevrier 2010 à 14h00 - Faculté de St Jérôme
Sous la direction de : OUTBIB Rachid

Ses publications : ici
Najlaa ZNIBER : Modèle orienté pour la conception de parcours pédagogiques personnalisés.
Le mercredi 16 decembre 2009 à 10h30 - LSIS - St Jérôme
Sous la direction de : CAUVET Corine

Ses publications : ici
Julien HUÉ : Fusion de croyances et programmation logique avec sémantique des modèles stables.
Le mercredi 09 decembre 2009 à 10h30 - LSIS - USTV
Sous la direction de : PAPINI Odile - DRAP Pierre

Ses publications : ici
Ali MROUÉ : Modélisation et simulation d'opérateur humain dans une tâche de recherche d'information par navigation.
Le mardi 08 decembre 2009 à 10h00 - Faculté de St Jérôme

Ses publications : ici
Flavien PEYSSON : Contribution au pronostic des systèmes complexes.
Le vendredi 04 decembre 2009 à 10h00 - LSIS - St Jérôme
Sous la direction de : OULADSINE Mustapha - OUTBIB Rachid

Ses publications : ici
Anne BRINDEJONC : Contrôle primaire d’un rotor d’hélicoptère sans plateaux cycliques avec des servopaddles actives
Le mardi 01 decembre 2009 à 10h00 - ENSAM
Sous la direction de : CARMONA

Ses publications : ici
Pascal KILIAN : Outils et méthodologies pour la chirurgie orthopédique assistée par ordinateur mini-invasive.
Le lundi 28 septembre 2009 à 14h00 - LSIS - St Jérôme
Sous la direction de : BULOT Rémy -BELLEMARE Marc-Emmanuel

Ses publications : ici
Grégory OPERTO : Analyse structurelle surfacique de données fonctionnelles cérébrales
Le mercredi 16 septembre 2009 à 13h30 - ESIL, campus de Luminy, Salle de documentation du Bâtiment A.

Ses publications : ici
Guillaume THIBAULT : Indices de formes et de textures : de la 2D vers la 3D. Application au classement de noyaux de cellules
Le jeudi 18 juin 2009 à 13h30 - ESIL, campus de Luminy, Amphiteâtre A

Ses publications : ici
Chadi NOHRA : Diagnostic de défauts sur un moteur diesel.
Le jeudi 18 juin 2009 à 11h00 - LSIS - St Jérôme
Sous la direction de : NOURA Hassan - OULADSINE Mustapha

Ses publications : ici
Mélissa JOURDAIN : Reconstruction 3D des artères par imagerie intravasculaire ultrasonore (IVUS) et angiographie monoplan
Le lundi 18 mai 2009 à 10h00 - Montréal
Sous la direction de : SEQUEIRA Jean, MEUNIER Jean

Ses publications : ici
Guillaume PONCELIN : Elaboration d'une méthode d'intégration de la fiabilité dans la conception des systèmes complexes. Application à l'aéronautique
Le mardi 12 mai 2009 à 10h00 - Arts et Métiers ParisTech - Eurocopter
Sous la direction de : Aline CAUVIN, Patrick LYONNET

Ses publications : ici
Minica HOURY PANCHETTI : Exploitation d'images numériques pour la simplification et la déformation de modèles polyédriques
Le vendredi 10 avril 2009 à 10h15 - Amphi 1 - CER Arts et Métiers ParisTech d'Aix en Provence

Ses publications : ici
Nidhal BEN ALOUI : Apport d'approches qualitatives pour la biométrie : cas du locuteur et de l'empreinte digitale
Le mercredi 28 janvier 2009 à 11h00 - Amphi - Batiment K018 - Campus La Garde - Université du Sud Toulon Var
Sous la direction de : Hervé GLOTIN & Odile PAPINI

Ses publications : ici
Lala herimanjaka RAJAOARISOA : Modélisation et Analyse d'une Classe de Systèmes Complexes à Structure Variable. Application à une Serre Agricole
Le vendredi 23 janvier 2009 à 10h30 - salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Julien CAILLET : Diagnostic et Modélisation de bruit et des chemins de bruit en cabine d'hélicoptère.
Le mardi 06 janvier 2009 à 10h30 - ENSAM, Aix-en-Provence
Sous la direction de : CARMONA Jean-Claude

Ses publications : ici
François-marie COLONNA : Intégration de données hétérogènes et distribuées sur le Web et applications à la biologie
Le lundi 08 decembre 2008 à 10h30 - Salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Yacine SAM : Personnalisation de Services Web
Le jeudi 04 decembre 2008 à 11h00 - Salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Alaa MUSTAFA : Contribution à l'étude des courbures discrètes et de leurs applications
Le mardi 25 novembre 2008 à 10h15 - Salle de Documentation du bâtiment A de l'ESIL, Entrée A - 2ème étage, Campus de Luminy,

Ses publications : ici
Lassaad BAÂTI : Modélisation des structures variables avec DEVS : application aux CGF
Le vendredi 07 novembre 2008 à 10h30 - Salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Dalila BOUGHACI : Recherche locale et méthodes évolutives pour les problèmes MAX-SAT et PDG
Le jeudi 30 octobre 2008 à 14h00 - Salle C001 du centre de mathématiques et d'informatique (CMI)

Ses publications : ici
Eric MAILLÉ : Intégration conceptuelle et opérationnelle de modèles spatio-dynamiques. Application à la dynamique du risque lié à l'ince
Le vendredi 04 juillet 2008 à 14h00 - Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Cédric CLOUCHOUX : Localisation et parcellisation corticale pour la mise en correspondance inter-sujets de données cérébrales
Le jeudi 03 juillet 2008 à 13h00 - ESIL bâtiment A, amphi A, Campus de Luminy

Ses publications : ici
François BATEMAN : Diagnostic Actif et Tolérance aux Défauts Majeurs d'Actionneurs : Application à un Drone
Le jeudi 03 juillet 2008 à 10h00 - Amphithéâtre des thèses Polytech'Marseille, site de St Jérôme

Ses publications : ici
Florent VERROUST : Protection de règles métier vers un moteur d'optimisation
Le lundi 26 mai 2008 à 10h00 - St Jérôme
Sous la direction de : JEGOU - PRCOVIC

Ses publications : ici
André FAWAZ : Réalité virtuelle et gestion technique du patrimoine construit : une application à la gestion du fonctionnement et de la main
Le vendredi 16 mai 2008 à 14h30 - ENSAM, Aix-en-Provence

Ses publications : ici
Van TRAN NAM : Traitement de surfaces triangulées pour la construction de modèles géologiques structuraux
Le jeudi 27 mars 2008 à 10h15 - Campus de Luminy - ESIL - salle de documentation A

Ses publications : ici
Abderrahmane BOUBEZOUL : Système d'aide au diagnostic par apprentissage : application aux systèmes microélectroniques.
Le jeudi 13 mars 2008 à 10h00 - site de Saint Jérôme

Ses publications : ici
Julio cesar RAMOS-FERNANDEZ : Intégration de techniques floues pour la modélisation, l'identification et le contrôle de systèmes non linéaires
Le vendredi 22 fevrier 2008 à 12h00 - Salle de conférences du CITIS à l'Universidad Autonoma del Estado Hidalgo - Pachuca - MEXIQUE
Université du Sud Toulon Var
Directeurs : Virgilio LOPEZ MORALES, UAEH, Pachuca (Mexique) et Gilles ENEA / Frédéric LAFONT (France).

Ses publications : ici
Cédric LOPEZ : Méthodes d'optimisation des trains d'atterrissage d'hélicoptère
Le jeudi 20 decembre 2007 à 10h30 - CER de l'ENSAM d'Aix en Provence dans l'amphithéâtre A

Ses publications : ici
Mamadou SECK : Utilisation de formalismes à événements discrets pour la modélisation et la simulation de comportements humains
Le lundi 17 decembre 2007 à 10h00 - salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Mohamed réda SAÏDI : Etude de la symétrie et de la dominance dans les réseaux de contraintes au sens CSPs à domaines finis discrets
Le jeudi 13 decembre 2007 à 14h30 - CMI - Technopôle de Château Gombert en salle C101

Ses publications : ici
Samba ndojh NDIAYE : Calcul et exploitation de recouvrements acylciques pour la résolution de (V)CS
Le mardi 11 decembre 2007 à 11h15 - amphitéâtre Ponte, Bâtiment EGIM NORD, Saint Jérôme

Ses publications : ici
Julien SEINTURIER : Fusion de connaissances : Applications aux relevés photogrammétriques de fouilles archéologiques sous-marines
Le mardi 11 decembre 2007 à 10h30 -

Ses publications : ici
Xavier HEURTEBISE : Représentation multirésolution et déformation d'objets définis par énumération spatiale
Le mardi 04 decembre 2007 à 14h30 - amphithéâtre de l'IUT de Provence à Arles

Ses publications : ici
Abbas CHAMSEDDINE : Méthodologie de diagnostic et tolérance aux défauts de systèmes complexes
Le vendredi 30 novembre 2007 à 14h00 - salle de conférences Gérard Jaumes à Polytech'Marseille - site de Saint Jérôme.

Ses publications : ici
Agung ALFIANSYAH : Intégration de données ultrasonores per-opératoires dans le geste de chirurgie orthopédique assisté par ordinateur
Le lundi 26 novembre 2007 à 14h00 - amphi C de l'ESIL, campus de Luminy
Sous la direction de : COULON Olivier, BELLEMARE Marc-Emmanuel

Ses publications : ici
Lionel PARIS : Approches pour les problèmes SAT et CSP : ensembles strong backdoor, voisinage consistant et forme normale généralisée
Le vendredi 09 novembre 2007 à 14h30 - CMI, salle C01

Ses publications : ici
Hassan SHRAIM : Modélisation, Estimation et Contrôle pour la dynamique du véhicule
Le jeudi 27 septembre 2007 à 14h00 - salle des conférences Gérard Jaumes, Polytech'Marseille, site de Saint Jérôme

Ses publications : ici
Thomas BONACCORSI : Modélisation pluridisciplinaire d'expériences d'irradiation dans un réacteur d'irradiation technologique
Le samedi 01 septembre 2007 à 10h00 - Université de la Méditerranée

Ses publications : ici
Gwladys GUZELIAN : Conception de systèmes d'information : une approche orientée service
Le mercredi 04 juillet 2007 à 14h30 - salle de conférences de l'école Polytech'Marseille (site de Saint Jérôme)

Ses publications : ici
Lynda MEKAOUCHE : Pilotage holonique auto-organisé de réseaux logistiques : Validation par modélisation et simulation distribuée
Le vendredi 22 juin 2007 à 14h00 - salle des conférences Gérard Jaumes, Polytech'Marseille, site de Saint Jérôme

Ses publications : ici
Karine ANDRIEN : Méthode, formalisme et outil pour le recueil, la modélisation et la simulation de scénarios de comportement. Application au d
Le vendredi 22 juin 2007 à 10h30 - faculté des sciences et techniques de saint Jérôme, salle Gérard Jaumes de l'école Polytech'Marseille
sous la direction de M. Jean Caussanel et M. Norbert Giambiasi

Ses publications : ici
Easter SELVAN : Combinaisons linéaires d'images du domaine multispectral pour la production d'images contenant des informations indépendantes
Le vendredi 01 juin 2007 à 10h00 -

Ses publications : ici
Jean-philippe POLI : Structuration automatique de flux télévisuels
Le mardi 29 mai 2007 à 10h00 -

Ses publications : ici
Julien SERMENT : Une infrastructure d'intégration à base d'agents logiciels pour l'élaboration de systèmes d'aide à la décision environneme
Le mardi 13 mars 2007 à 14h30 - salle de conférences Gérard Jaumes, Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Hervé MOREL : Diagnostic du rotor principal de l'hélicoptère : analyse de signatures vibratoires par réseaux de neurones.
Le lundi 29 janvier 2007 à 10h30 - ENSAM, Aix-en-Provence

Ses publications : ici
Lionel MARTIN : Intégration du métier de la fonderie dans les processus de conception : méthodologies et outils associés
Le lundi 18 decembre 2006 à 10h00 - ENSAM d'Aix-en-Provence, Amphi 1

Ses publications : ici
Jérôme MONTAGNY : Identification/recalage de paramètres dynamiques sur hélicoptère
Le jeudi 14 decembre 2006 à 10h00 - ENSAM d'Aix-en-Provence, Amphi 1

Ses publications : ici
Johan WIIG : Optimization of Fault Diagnosis in Helicopter Health and Usage Monitoring Systems
Le lundi 11 decembre 2006 à 11h00 - Salle de conférences Gérard Jaumes - Polytech'Marseille - site de St-Jérôme
Optimization_of_Fault_Diagnosi_42s.pdf

Ses publications : ici
Grégory ZACHAREWICZ : Un environnement g-devs/hla : application a la modélisation et simulation distribuée de workflow
Le jeudi 30 novembre 2006 à 10h30 - salle de conférences Gérard Jaumes, Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Mathieu ESTRATAT : Vers les grammaires de configuration
Le mardi 21 novembre 2006 à 10h30 - faculté des sciences et techniques de Saint Jérôme, amphithéâtre Rouard (EGIM NORD)
sous la direction de M. Laurent Henocque

Ses publications : ici
François-xavier FILIAS : Etude d'algorithmes pour la fonction détection d'obstacles pour les vols en hélicoptères
Le mercredi 01 novembre 2006 à 10h00 -

Ses publications : ici
Olivier LABARTHE : Modélisation et Simulation Orientées Agents de Chaînes Logistiques dans un Contexte de Personnalisation de Masse : Modèles e
Le lundi 30 octobre 2006 à 14h30 - salle de conférences Polytech'Marseille - site de Saint Jérôme

Ses publications : ici
Amine TRABELSI : Analyse et commande des systèmes multivariables : Application à une serre agricole
Le samedi 28 octobre 2006 à 10h00 - Amphithéatre - Ecole Nationale d'Ingénieurs de Sfax - TUNISIE.
Directeurs : Mohamed Kamoun, ENIS, Sfax (Tunisie) et Gilles Enea / Frédéric Lafont (France)
Université du Sud Toulon Var

Ses publications : ici
Thierry LATTANZIO : Caractérisation des entreprises organisées en gestion par affaires
Le jeudi 26 octobre 2006 à 10h00 - ENSAM d'Aix-en-Provence, Amphi 1

Ses publications : ici
Sabrina TOLLARI : Indexation et recherche d'images par fusion d'informations textuelles et visuelles
Le mardi 24 octobre 2006 à 13h30 - Université du Sud Toulon-Var (en Y'108)

Ses publications : ici
Patrice MICOUIN : Elements de définition et de mise en oeuvre de processus d'ingénierie de systèmes : Application à la construction automobile
Le vendredi 15 septembre 2006 à 10h00 - ENSAM, CER d'Aix-en-Provence

Ses publications : ici
Jean-christophe CHAMBELLAND : Reconstruction de surfaces à pôles pour la conversion et la simplification de modèles B-Rep
Le mercredi 06 septembre 2006 à 10h00 - ESIL batiment C

Ses publications : ici
Livio DE LUCA : Relève et multi-représentations du patrimoine architectural : Définition d'une approche hybride de reconstruction 3D d'édifi
Le vendredi 31 mars 2006 à 10h00 - ENSAM d'Aix-en-Provence, salle des Conseils

Ses publications : ici
Thomas RAKOTOMAMONJY : Modélisation et contrôle du vol d'un microdrone à ailes battantes
Le jeudi 05 janvier 2006 à 14h00 - Polytech'Marseille, Domaine Universitaire de Saint Jérôme

Ses publications : ici
Mahat KHELFALLAH : Révision et fusion d'informations à base de contraintes linéaires : Application à l'information géographique et temporelle
Le mercredi 14 decembre 2005 à 10h30 - salle des séminaires (R164), CMI

Ses publications : ici
Geoffroy AUBRY : Un cadre logique pour la génération d'arguments
Le mardi 13 decembre 2005 à 10h00 - amphi C de l'ESIL, Luminy
Un_cadre_logique_pour_la_gnrat_27s.pdf

Ses publications : ici
Abdelhamid RABHI : Estimation de la Dynamique d'un Véhicule en Interaction avec son environnement
Le jeudi 01 decembre 2005 à 14h00 - LSIS, EPUM

Ses publications : ici
Maâmar el-amine HAMRI : Spécification et Opérationnalisation des Systèmes de Connaissances Réactifs : extension de CommonKADS et du Formalisme DEVS
Le lundi 28 novembre 2005 à 10h30 - salle de conférences - Polytech-GII

Ses publications : ici
Mehdi ESSID : Intégration de données et applications hétérogènes et distribuées sur le Web
Le lundi 14 novembre 2005 à 14h00 - Centre de Mathématique et Informatique à chateau ombert à la salle C001

Ses publications : ici
Xiaomin CHE : Extraction et reconstruction du réseau hydrographique à partir du modèle numérique de terrain
Le mercredi 09 novembre 2005 à 14h00 - Luminy
Sous la direction de : SEQUEIRA Jean

Ses publications : ici
Philippe BOUCHÉ : Une approche stochastique de modélisation de séquences d'événements discrets pour le diagnostic des systèmes dynamiques
Le jeudi 03 novembre 2005 à 10h30 - Salle de Conférences, Polytech'Marseille, site de Saint Jérôme
Une_approche_stochastique_de_m_22s.pdf

Ses publications : ici
Sébastien RICHARD : Reconstruction 3D de la Cornée par Vidéokératographie
Le vendredi 14 octobre 2005 à 10h00 -

Ses publications : ici
Thuc trung PHAM : Fusion de l'information geographique hierarchisee
Le vendredi 30 septembre 2005 à 14h30 - CMI (salle C01)
Application des treillis a la fusion de l'information et de sa qualite dans les etudes de changement de couverture du sol (land-cover change).

Ses publications : ici
Yassine LASSOUED : Mediation de la qualite dans les systemes d'information geographiques
Le jeudi 28 avril 2005 à 10h45 - CMI (Chateau-Gombert), Salle du Conseil

Ses publications : ici
Marie-aline CAVARROC : Application des Réseaux Bayesiens de classification à l'étude des causalités en information géographique.
Le lundi 31 janvier 2005 à 10h30 - salle de seminaire du premier etage (163) au CMI, 39 rue Joliot Curie

Ses publications : ici
Bérengère VASSEUR : Modélisation de l'information de qualité externe dans les applications géographiques
Le lundi 13 decembre 2004 à 10h00 - salle de conférence du bâtiment Polytech'DGII
sous la direction de M. Robert Jeansoulin

Ses publications : ici
Sébastien BERNARD : Spécification d'un environnement d'ingénierie collaborative multisite - Application à l'industrie aéronautique européenne
Le vendredi 12 novembre 2004 à 10h00 - ENSAM - CER d'Aix-en-Provence
Spcification_dun_environnement_12s.doc

Ses publications : ici
Ahmed CHOULI : Contribution à l'élaboration d'une méthodologie d'aide au travail coopératif pour l'organisation distribuée multi-sites com
Le mardi 21 septembre 2004 à 14h15 - salle EPUM GII à ST JEROME
Contribution__lElaboration_dEu_11s.doc

Ses publications : ici
: Formalisation et développement de méthodes d'apprentissage pour la commande des machines et des robots
Le lundi 14 juin 2004 à 10h30 - l'ENSAM Aix-en-Provence - Amphi 1
Sous la direction de : Francis GERARDIN
Formalisation_et_dveloppement__10s.pdf

Ses publications : ici
Cecilia ZANNI : Proposition of a Conceptual Framework for the Analysis, Classification and Choice of Knowledge Based Diagnosis Systems
Le jeudi 03 juin 2004 à 11h00 - Salle de Conférences du Département GII du Polytech'Marseille
Proposition_of_a_Conceptual_Fr_9s.doc

Ses publications : ici
Marc GERVAIS : Gestion du risque juridique découlant de la fourniture de données géographiques : pertinence des instructions à l'usager
Le jeudi 04 decembre 2003 à 10h00 - MARNE LA VALLEE
Sous la direction de : JEANSOULIN Robert, BEDARD Y.

Ses publications : ici
: Sur des généralisations des graphes triangulés. Application aux problèmes de satisfaction de contraintes
Le vendredi 24 octobre 2003 à 11h00 - salle de Conférences de l'EPUM GII à Saint-Jérôme
Sous la direction de : Lamia KEDDAR
sous la direction de M. Philippe Jégou

Ses publications : ici
Cyril TERRIOUX : Approches structurelles et coopératives pour la résolution de problèmes de satisfaction de contraintes
Le mardi 10 decembre 2002 à 11h00 - CMI, salle de conférence C 001
sous la direction de M. Philippe Jégou

Ses publications : ici
George MORARU : Etude du Comportement du Système Pièce-Outil-Machine en Régime de Coupe Vibratoire
Le jeudi 24 octobre 2002 à 10h00 - Ecole Nationale Supérieure d'Arts et Métiers, Amphithéâtre A1, Bloc Scientifique - Aix-en-Provence
Etude_du_Comportement_du_Systm_3s.doc

Ses publications : ici
: Contribution à l'élaboration d'une méthode d'analyse prévisionnelle de la sécurité de systèmes à risques multiples : app
Le mardi 24 septembre 2002 à 14h30 - Salle de conférences. Polytech Marseille - Faculté de St Jérôme
Sous la direction de : Ronald LOSCHMANN
Contribution__llaboration_dune_2s.pdf

Ses publications : ici
: Spécifications formelles de systèmes de commande à évènements discrets
Le jeudi 04 juillet 2002 à 10h00 - CMI, salle de conférence C 001
Sous la direction de : Jumpamule WATCHAREE
sous la direction de M. Jean-Luc Paillet

Ses publications : ici