Détail de l'éditeur
Université de Paris 11 Paris-Sud Centre d'Orsay
localisé à :
Paris-Orsay
|
Documents disponibles chez cet éditeur (28)
Ajouter le résultat dans votre panier Affiner la recherche Interroger des sources externes
Réponses de la productivité des forêts aux fluctuations météorologiques : biais et surestimations des estimations de terrain / Olivier Bouriaud (2020)
Titre : Réponses de la productivité des forêts aux fluctuations météorologiques : biais et surestimations des estimations de terrain Type de document : Thèse/HDR Auteurs : Olivier Bouriaud , Auteur Editeur : Paris-Orsay : Université de Paris 11 Paris-Sud Centre d'Orsay Année de publication : 2020 Importance : 52 p. Note générale : bibliographie
Dossier présenté pour l’obtention de l’Habilitation à Diriger des Recherches, Université Paris-Sud, Ecole Doctorale Sciences du Végétal : du Gène à l'EcosystèmeLangues : Français (fre) Descripteur : [Vedettes matières IGN] Statistiques
[Termes IGN] allométrie
[Termes IGN] biomasse forestière
[Termes IGN] changement climatique
[Termes IGN] croissance des arbres
[Termes IGN] erreur systématique
[Termes IGN] estimation statistique
[Termes IGN] inventaire forestier (techniques et méthodes)
[Termes IGN] phénomène climatique extrême
[Termes IGN] productivité biologiqueRésumé : (auteur) La productivité, définie comme l’accroissement annuel en volume ou en biomasse d’un peuplement forestier, est le meilleur indicateur de sa vitalité, dont dépendent directement nombre de processus, biens et services. L’analyse de la productivité, omniprésente en sciences forestières, passe par son estimation, ce qui pose des questions méthodologiques importantes. Une question centrale de mes travaux de recherche a porté sur l’amélioration des estimations de productivité à différentes échelles spatiales et temporelles, et l’approfondissement de la compréhension des effets du climat et de la gestion sur la productivité des forêts. La croissance radiale des arbres est un des éléments les mieux étudiés et décrits dans la littérature, mais qui n’est qu’assez indirectement lié à la productivité lorsque celle-ci est exprimée en termes de biomasse ou de quantités de carbone fixés par unités de temps et de surface. Mes travaux ont montré que la raison de la perte de proportionnalité entre croissance radiale et productivité se structure en plusieurs termes : le manque de proportionnalité entre la croissance secondaire et la croissance primaire, le découplage existant entre croissance individuelle et production totale dans des communautés végétales fermées, le découplage entre la croissance radiale et la variation de la densité du bois, enfin l’échantillonnage, qui renvoie directement aux questions typiques des programmes d’inventaire forestier nationaux et qui tient donc à un axe de recherche spécifique. Tous ces mécanismes convergent vers une surestimation des fluctuations de la productivité. Sur cette base de connaissances, les travaux proposés dans mon projet s’organisent autour de deux axes : un axe portant sur l’amélioration de la quantification de la productivité, incluant une intégration des progrès dans les méthodes d’inventaire forestier national, et un axe portant sur l’analyse à très grande échelle de la productivité et de sa relation au climat, à la gestion. L’axe d’amélioration des estimations se justifie par le fait que pratiquement toutes les estimations de volume et de biomasse font appel à des modèles de biomasse ou de volume. Mais les erreurs de prédiction des modèles ont une amplitude représentant environ 10 à 40% de l’estimation elle-même. Toute amélioration des modèles offrirait donc un gain appréciable sur les prédictions. La multiplicité des sources de variation de l’allométrie impose l’utilisation de formes de modèles assez souples pour les absorber, et dont le développement est déjà en cours. L’estimation de la productivité nécessite d’utiliser en différentiel des modèles ajustés sur des données statiques. La dynamique de l’allocation aux compartiments aériens boisés n’est pas assez documentée pour être prise en compte, mais pourrait s’avérer importante quantitativement et apporter des connaissances sur le comportement et la réaction des essences aux stress. Concernant le deuxième axe, les objectifs sont de quantifier la réponse de la productivité des forêts aux évènements météorologiques à l’échelle de la ressource, en approfondissant la prise en compte de l’autocorrélation temporelle dans les estimations de productivité, et en abordant la problématique de la résistance aux évènements extrêmes. Les interactions avec la gestion seront analysées en se basant sur les progrès méthodologiques et se concentrant sur les changements de l’allométrie des couronnes et de leur intrication spatiale. De nombreuses études récentes montrent une augmentation globale de la productivité des forêts. Déterminer la part du forçage climatique et des effets de la gestion sont des objectifs déterminants des défis futurs que sont la transition climatique, et au plan de la gestion, l’antagonisme entre écologie politique, conservation de la nature et bioéconomie. Numéro de notice : 17534 Affiliation des auteurs : LIF (2020- ) Thématique : FORET/MATHEMATIQUE Nature : HDR Note de thèse : HDR : Sciences du végétal : Paris-Sud : 2020 nature-HAL : HDR DOI : sans Date de publication en ligne : 27/01/2021 En ligne : https://hal.archives-ouvertes.fr/tel-03123055/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=98238 Bayesian iterative reconstruction methods for 3D X-ray Computed Tomography / Camille Chapdelaine (2019)
Titre : Bayesian iterative reconstruction methods for 3D X-ray Computed Tomography Type de document : Thèse/HDR Auteurs : Camille Chapdelaine, Auteur ; Charles Soussen, Directeur de thèse Editeur : Paris-Orsay : Université de Paris 11 Paris-Sud Centre d'Orsay Année de publication : 2019 Importance : 185 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de Doctorat de l’Université Paris - Saclay préparée à l'Université Paris-Sud, Sciences et Technologies de l’Information et de la Communication (STIC), Traitement du signal et des imagesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] artefact
[Termes IGN] faisceau
[Termes IGN] inférence
[Termes IGN] itération
[Termes IGN] processeur graphique
[Termes IGN] rayon X
[Termes IGN] reconstruction 3D
[Termes IGN] reconstruction d'image
[Termes IGN] segmentation
[Termes IGN] spectroscopie
[Termes IGN] théorème de Bayes
[Termes IGN] tomographie
[Termes IGN] volume (grandeur)Index. décimale : THESE Thèses et HDR Résumé : (auteur) In industry, 3D X-ray Computed Tomography aims at virtually imaging a volume in order to inspect its interior. The virtual volume is obtained thanks to a reconstruction algorithm based on projections of X-rays sent through the industrial part to inspect. In order to compensate uncertainties in the projections such as scattering or beam-hardening, which are cause of many artifacts in conventional filtered backprojection methods, iterative reconstruction methods bring further information by enforcing a prior model on the volume to reconstruct, and actually enhance the reconstruction quality. In this context, this thesis proposes new iterative reconstruction methods for the inspection of aeronautical parts made by SAFRAN group. In order to alleviate the computational cost due to repeated projection and backprojection operations which model the acquisition process, iterative reconstruction methods can take benefit from the use of high-parallel computing on Graphical Processor Unit (GPU). In this thesis, the implementation on GPU of several pairs of projector and backprojector is detailed. In particular, a new GPU implementation of the matched Separable Footprint pair is proposed. Since many of SAFRAN's industrial parts are piecewise-constant volumes, a Gauss-Markov-Potts prior model is introduced, from which a joint reconstruction and segmentation algorithm is derived. This algorithm is based on a Bayesian approach which enables to explain the role of each parameter. The actual polychromacy of X-rays, which is responsible for scattering and beam-hardening, is taken into account by proposing an error-splitting forward model. Combined with Gauss-Markov-Potts prior on the volume, this new forward model is experimentally shown to bring more accuracy and robustness. At last, the estimation of the uncertainties on the reconstruction is investigated by variational Bayesian approach. In order to have a reasonable computation time, it is highlighted that the use of a matched pair of projector and backprojector is necessary. Note de contenu : 1- X-ray computed tomography : an inverse problem
2- Reconstruction methods in X-ray computed tomography
3- Projection and backprojection operators
4- Gauss-Markov-Potts prior model for joint reconstruction and segmentation
5- Error-splitting forward model and its application with Gauss-Markov-Potts prior
6- Towards the estimation of the uncertainties on the reconstruction by Variational Bayesian Approach
7- Conclusion and perspectivesNuméro de notice : 25702 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Sciences et Technologies de l’Information et de la Communication (STIC) : Traitement du signal et des images : Paris 11 : 2019 Organisme de stage : Safran nature-HAL : Thèse DOI : sans En ligne : https://tel.archives-ouvertes.fr/tel-02110033 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94827
Titre : Ensemble methods for pedestrian detection in dense crowds Type de document : Thèse/HDR Auteurs : Jennifer Vandoni, Auteur ; Sylvie Le Hégarat-Mascle, Directeur de thèse Editeur : Paris-Orsay : Université de Paris 11 Paris-Sud Centre d'Orsay Année de publication : 2019 Importance : 182 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l'Université Paris-Saclay, Sciences et technologies de l’information et de la communication (STIC), Spécialité : Traitement du Signal et des ImagesLangues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] algorithme d'apprentissage
[Termes IGN] apprentissage dirigé
[Termes IGN] apprentissage profond
[Termes IGN] classification par réseau neuronal convolutif
[Termes IGN] classification par séparateurs à vaste marge
[Termes IGN] comportement
[Termes IGN] densité de population
[Termes IGN] détection de piéton
[Termes IGN] données multicapteurs
[Termes IGN] étalonnage
[Termes IGN] fusion de données
[Termes IGN] taxinomie
[Termes IGN] théorie de Dempster-ShaferIndex. décimale : THESE Thèses et HDR Résumé : (auteur) The interest surrounding the study of crowd phenomena spanned during the last decade across multiple fields, including computer vision, physics, sociology, simulation and visualization. There are different levels of granularity at which crowd studies can be performed, namely a finer microanalysis, aimed to detect and then track each pedestrian individually; and a coarser macro-analysis, aimed to model the crowd as a whole.
One of the most difficult challenges when working with human crowds is that usual pedestrian detection methodologies do not scale well to the case where only heads are visible, for a number of reasons such as absence of background, high visual homogeneity, small size of the objects, and heavy occlusions. For this reason, most micro-analysis studies by means of pedestrian detection and tracking methodologies are performed in low to medium-density crowds, whereas macro-analysis through density estimation and people counting is more suited in presence of high-density crowds, where the exact position of each individual is not necessary. Nevertheless, in order to analyze specific events involving high-density crowds for monitoring the flow and preventing disasters such as stampedes, a complete understanding of the scene must be reached. This study deals with pedestrian detection in high-density crowds from a monocamera system, striving to obtain localized detections of all the individuals which are part of an extremely dense crowd. The detections can be then used both to obtain robust density estimation, and to initialize a tracking algorithm. In presence of difficult problems such as our application, supervised learning techniques are well suited. However, two different questions arise, namely which classifier is the most adapted for the considered environment, and which data to use to learn from. We cast the detection problem as a Multiple Classifier System (MCS), composed by two different ensembles of classifiers, the first one based on SVM (SVM-ensemble) and the second one based on CNN (CNN-ensemble), combined relying on the Belief Function Theory (BFT) designing a fusion method which is able to exploit their strengths for pixel-wise classification. SVM-ensemble is composed by several SVM detectors based on different gradient, texture and orientation descriptors, able to tackle the problem from different perspectives. BFT allows us to take into account the imprecision in addition to the uncertainty value provided by each classifier, which we consider coming from possible errors in the calibration procedure and from pixel neighbor’s heterogeneity in the image space due to the close resolution of the target (head) and
descriptor respectively. However, scarcity of labeled data for specific dense crowd contexts reflects in the impossibility to easily obtain robust training and validation sets. By exploiting belief functions directly derived
from the classifiers’ combination, we therefore propose an evidential Query-by-Committee (QBC) active learning algorithm to automatically select the most informative training samples. On the other side, we explore deep learning techniques by casting the problem as a segmentation task in presence of soft labels, with a fully convolutional network architecture designed to recover small objects (heads) thanks to a tailored use of dilated convolutions. In order to obtain a pixel-wise measure of reliability about the network’s predictions, we create a CNN-ensemble by means of dropout at inference time, and we combine the different obtained realizations in the
context of BFT. To conclude, we show that the dense output map given by the MCS can be employed not only
for pedestrian detection at microscopic level, but also to perform macroscopic analysis, bridging the gap between the two levels of granularity. We therefore finally focus our attention to people counting, proposing an evaluation method that can be applied at every scale, resulting to be more precise in the error and uncertainty evaluation (disregarding possible compensations) as well as more useful for the modeling community that could use it to improve and validate local density estimation.Note de contenu : 1- Crowd understanding
2- Supervised learning and classifier combination
3- SVM descriptors for pedestrian detection in high-density crowds
4- Taking into account imprecision with Belief Function Framework
5- Evidential QBC Active Learning
6- CNNs for pedestrian detection in high-density crowds
7- CNN-ensemble and evidential Multiple Classifier System
8- Density Estimation
ConclusionNuméro de notice : 25704 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Traitement du Signal et des Images : Paris 11 : 2019 Organisme de stage : Systèmes et applications des technologies de l'information et de l'énergie (Paris) nature-HAL : Thèse DOI : sans En ligne : https://theses.hal.science/tel-02318892/document Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94838
Titre : Uncertainty in radar emitter classification and clustering Titre original : Gestion des incertitudes en identification des modes radar Type de document : Thèse/HDR Auteurs : Guillaume Revillon, Auteur ; Charles Soussen, Directeur de thèse ; A. Mohammad-Djafari, Directeur de thèse Editeur : Paris-Orsay : Université de Paris 11 Paris-Sud Centre d'Orsay Année de publication : 2019 Importance : 181 p. Format : 21 x 30 cm Note générale : bibliographie
Thèse de Doctorat de l’Université Paris-Saclay préparée à l’Université Paris-Sud Sciences et Technologies de l’Information et de la Communication (STIC) Spécialité : Traitement du signal et des imagesLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement du signal
[Termes IGN] approximation
[Termes IGN] détection du signal
[Termes IGN] écho radar
[Termes IGN] émetteur
[Termes IGN] estimation bayesienne
[Termes IGN] inférence statistique
[Termes IGN] modèle de mélange multilinéaire
[Termes IGN] modulation du signal
[Termes IGN] probabilités
[Termes IGN] valeur aberranteIndex. décimale : THESE Thèses et HDR Résumé : (auteur) In Electronic Warfare, radar signals identification is a supreme asset for decision making in military tactical situations. By providing information about the presence of threats, classification and clustering of radar signals have a significant role ensuring that countermeasures against enemies are well-chosen and enabling detection of unknown radar signals to update databases. Most of the time, Electronic Support Measures systems receive mixtures of signals from different radar emitters in the electromagnetic environment. Hence a radar signal, described by a pulse-to-pulse modulation pattern, is often partially observed due to missing measurements and measurement errors. The identification process relies on statistical analysis of basic measurable parameters of a radar signal which constitute both quantitative and qualitative data. Many general and practical approaches based on data fusion and machine learning have been developed and traditionally proceed to feature extraction, dimensionality reduction and classification or clustering. However, these algorithms cannot handle missing data and imputation methods are required to generate data to use them. Hence, the main objective of this work is to define a classification/clustering framework that handles both outliers and missing values for any types of data. Here, an approach based on mixture models is developed since mixture models provide a mathematically based, flexible and meaningful framework for the wide variety of classification and clustering requirements. The proposed approach focuses on the introduction of latent variables that give us the possibility to handle sensitivity of the model to outliers and to allow a less restrictive modelling of missing data. A Bayesian treatment is adopted for model learning, supervised classification and clustering and inference is processed through a variational Bayesian approximation since the joint posterior distribution of latent variables and parameters is untractable. Some numerical experiments on synthetic and real data show that the proposed method provides more accurate results than standard algorithms. Note de contenu : Introduction
1- State of the art and the selected approach
2- Continuous data
3- Mixed data
4- Temporal evolution data
5- Conclusion and perspectivesNuméro de notice : 25703 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Thèse française Note de thèse : Thèse de Doctorat : Traitement du signal et des images : Paris 11 : 2019 Organisme de stage : Thales, GPI nature-HAL : Thèse DOI : sans Date de publication en ligne : 02/09/2019 En ligne : https://hal.science/tel-02275817 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=94829 Vision stéréoscopique temps-réel pour la navigation autonome d'un robot en environnement dynamique / Maxime Derome (2017)
Titre : Vision stéréoscopique temps-réel pour la navigation autonome d'un robot en environnement dynamique Type de document : Thèse/HDR Auteurs : Maxime Derome, Auteur ; Guy Le Besnerais, Directeur de thèse Editeur : Paris-Orsay : Université de Paris 11 Paris-Sud Centre d'Orsay Année de publication : 2017 Importance : 162 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse de doctorat de l'Université Paris-Saclay préparée à l’Université Paris-Sud,
École doctorale n°580 Sciences et technologies de l’information et de la communication (STIC)
Spécialité de doctorat : Mathématiques et informatiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] appariement d'images
[Termes IGN] détection d'objet
[Termes IGN] estimation de pose
[Termes IGN] estimation par noyau
[Termes IGN] estimation statistique
[Termes IGN] navigation autonome
[Termes IGN] odomètre
[Termes IGN] propagation d'erreur
[Termes IGN] robot mobile
[Termes IGN] temps réel
[Termes IGN] trajectoire (véhicule non spatial)
[Termes IGN] vision par ordinateur
[Termes IGN] vision stéréoscopiqueIndex. décimale : THESE Thèses et HDR Résumé : (auteur) L’objectif de la thèse est de concevoir un système de perception stéréoscopique embarqué, permettant une navigation robotique autonome en présence d’objets mobiles. Pour pouvoir naviguer en environnement inconnu et en présence d’objets mobiles quelconques, nous avons adopté une approche purement géométrique reposant sur l’estimation de la disparité stéréo, du flot optique et du flot de scène. Pour assurer une couverture maximale du champ visuel, nous avons employé des méthodes d'estimation denses qui traitent chaque pixel de l'image. Enfin, puisque les algorithmes utilisés doivent s’exécuter en embarqué sur un robot, nous nous sommes efforcé de sélectionner ou concevoir des algorithmes rapides, pour nuire au minimum à la réactivité du système. Cette thèse présente plusieurs contributions. Nous avons proposé une nouvelle approche pour l’estimation du flot de scène, en combinant des algorithmes d’odométrie visuelle, d’appariement stéréo et de flot optique. Son implémentation sur GPU permet une estimation du flot de scène à cadence vidéo sur les images du dataset KITTI. Une méthode de détection dense d’objets mobiles a aussi été proposée, en modélisant statistiquement et en propageant toutes les erreurs de mesures. Enfin, nous avons validé expérimentalement sur un petit robot terrestre ces algorithmes de perception, en les couplant à un module de commande prédictive. L’expérience montre que le système de perception proposé est suffisamment rapide pour permettre au robot de détecter un objet mobile et d’adapter à la volée sa trajectoire afin d’éviter une collision. Note de contenu : Introduction
1 - Perception 3D à Partir d'un Banc Stéréoscopique
2 - Estimations Temporelles : Odométrie Stéréo, Flot Optique, Flot de scène
3 - Détection Dense d'Objets Mobiles à Partir d'un Banc Stéréo en déplacement
4 - Programmation sur GPU d'Algorithmes Temps-Réel et Application à la Navigation Autonome en Robotique
ConclusionNuméro de notice : 21575 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE/MATHEMATIQUE Nature : Thèse française Note de thèse : Thèse de doctorat : Mathématiques et informatique : Université Paris-Saclay : 2017 nature-HAL : Thèse DOI : sans En ligne : http://www.theses.fr/2017SACLS156 Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=90578 Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection : approche par fusion de données / Gilles Cotteret (2005)Permalink[bases de données spatiales et objets mobiles] / Philippe Rigaux (2002)PermalinkAcquisition vectorielle 3D de milieux urbains pour les télécommunications mobiles / Yves Léchervy (1999)PermalinkReconstruction de courbes et de surfaces 3D en stéréo-acquisition / David Roussel (1999)PermalinkSpécial recherche 1999 / Université Paris-Sud (1999)PermalinkContribution de la géodésie à l'étude de grands décrochements actifs associés à des zones de subduction à convergence oblique / Thierry Duquesnoy (1997)PermalinkContribution à la recherche dans le domaine des bases de données spatiales et multimédias / Patrice Boursier (1996)PermalinkAnalyse et modélisation des processus discursifs mis en oeuvre dans la description d'itinéraires / Agnès Gryl (1995)PermalinkEstimation de l'albédo de surface à l'échelle globale, à l'aide de mesures satellitaires / François Cabot (1995)PermalinkPositionnement automatique des kilométrages / Jean-Michel Marrot (1994)Permalink