Détail de l'auteur
Auteur Valérie Gouet-Brunet
Commentaire :
Autorités liées :
idHAL :
valerie-gouet-brunet
idRef :
autre URL :
ORCID :
Scopus :
G. Scholar :
DBLP URL :
|
Documents disponibles écrits par cet auteur (53)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
How to combine lidar and very high resolution multispectral images for forest stand segmentation? / Clément Dechesne (2017)
Titre : How to combine lidar and very high resolution multispectral images for forest stand segmentation? Type de document : Article/Communication Auteurs : Clément Dechesne , Auteur ; Clément Mallet , Auteur ; Arnaud Le Bris , Auteur ; Valérie Gouet-Brunet , Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2017 Projets : 2-Pas d'info accessible - article non ouvert / Conférence : IGARSS 2017, IEEE International Geoscience And Remote Sensing Symposium 23/07/2017 28/07/2017 Fort Worth Texas - Etats-Unis Proceedings IEEE Importance : pp 2772 - 2775 Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image infrarouge
[Termes IGN] image multibande
[Termes IGN] inventaire forestier (techniques et méthodes)
[Termes IGN] peuplement forestier
[Termes IGN] segmentation sémantique
[Termes IGN] semis de points
[Vedettes matières IGN] Inventaire forestierRésumé : (auteur) Forest stands are a basic unit of analysis for forest inventory and mapping. Stands are defined as large forested areas of homogeneous tree species composition and age. Their accurate delineation is usually performed by human operators through visual analysis of very high resolution (VHR) infra-red and visible images. This task is tedious, highly time consuming, and needs to be automated for scalability and efficient updating purposes. The most appropriate fusion of two remote sensing modalities (lidar and multispectral images) is investigated here. The multispectral images give information about the tree species while 3D lidar point clouds provide geometric information. The fusion is operated at three different levels within a semantic segmentation workflow: over-segmentation, classification, and regularization. Results show that over-segmentation can be performed either on lidar or optical images without performance loss or gain, whereas fusion is mandatory for efficient semantic segmentation. Eventually, the fusion strategy dictates the composition and nature of the forest stands, assessing the high versatility of our approach. Numéro de notice : C2017-039 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : FORET/IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/IGARSS.2017.8127572 Date de publication en ligne : 04/12/2017 En ligne : https://doi.org/10.1109/IGARSS.2017.8127572 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91921
Titre : Image retrieval based on saliency for urban image contents Type de document : Article/Communication Auteurs : Kamel Guissous , Auteur ; Valérie Gouet-Brunet , Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2017 Projets : 2-Pas d'info accessible - article non ouvert / Conférence : IPTA 2017, 7th International Conference on Image Processing Theory, Tools and Applications 28/11/2017 01/12/2017 Montréal Canada Proceedings IEEE Importance : 6 p. Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] recherche d'image basée sur le contenu
[Termes IGN] saillance
[Termes IGN] scène urbaineRésumé : (auteur) With the increase of image datasets size and of descriptors complexity in Content-Based Image Retrieval (CBIR) and Computer Vision, it is essential to find a way to limit the amount of manipulated data, while keeping its quality. Instead of treating the entire image, the selection of regions which hold the essence of information is a relevant option to reach this goal. As the visual saliency aims at highlighting the areas of the image which are the most important for a given task, in this paper we propose to exploit visual saliency maps to prune the most salient image features. A novel visual saliency approach based on the local distribution analysis of the edges orientation, particularly dedicated to structured contents, such as street view images of urban environments, is proposed. It is evaluated for CBIR according to three criteria: quality of retrieval, volume of manipulated features and computation time. The proposal can be exploited into various applications involving large sets of local visual features; here it is experimented within two applications: cross-domain image retrieval and image-based vehicle localisation. Numéro de notice : C2017-040 Affiliation des auteurs : LASTIG MATIS (2012-2019) Autre URL associée : vers HAL Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/IPTA.2017.8310131 Date de publication en ligne : 12/03/2018 En ligne : https://doi.org/10.1109/IPTA.2017.8310131 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91922
Titre : Localisation Basée Vision : de l'hétérogénéité des approches et des données Type de document : Article/Communication Auteurs : Nathan Piasco , Auteur ; Désiré Sidibé, Auteur ; Valérie Gouet-Brunet , Auteur ; Cédric Demonceaux, Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2017 Conférence : ORASIS 2017, 16e journées francophones des jeunes chercheurs en vision par ordinateur 12/06/2017 16/06/2017 Colleville-sur-Mer France open access proceedings Importance : 9 p. Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Applications photogrammétriques
[Termes IGN] état de l'art
[Termes IGN] localisation basée vision
[Termes IGN] semis de pointsRésumé : (auteur) De nos jours, nous disposons d’une grande diversité de données sur les lieux qui nous entourent. Ces données peuvent être de natures très différentes : une collection d’images, un modèle 3D, un nuage de points colorisés, etc. Lorsque les GPS font défaut, ces informations peuvent être très utiles pour localiser un agent dans son environnement s’il peut lui-même acquérir des informations à partir d’un système de vision. On parle alors de Localisation Basée Vision (LBV). De par la grande hétérogénéité des données acquises et connues sur l’environnement, il existe de nombreux travaux traitant de ce problème. Cet article a pour objet de passer en revue les différentes méthodes récentes pour localiser un système de vision à partir d’une connaissance a priori sur l’environnement dans lequel il se trouve. Numéro de notice : C2017-016 Affiliation des auteurs : LASTIG MATIS+Ext (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans Date de publication en ligne : 30/06/2017 En ligne : https://orasis2017.sciencesconf.org/139157/document Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=87053 Documents numériques
en open access
Localisation Basée Vision - version auteurAdobe Acrobat PDF
Titre : Recherche d’images basée sur la saillance visuelle pour l’imagerie urbaine Type de document : Article/Communication Auteurs : Kamel Guissous , Auteur ; Valérie Gouet-Brunet , Auteur Editeur : Saint-Mandé : Institut national de l'information géographique et forestière - IGN (2012-) Année de publication : 2017 Conférence : ORASIS 2017, 16e journées francophones des jeunes chercheurs en vision par ordinateur 12/06/2017 16/06/2017 Colleville-sur-Mer France open access proceedings Importance : 8 p. Note générale : bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] analyse d'image orientée objet
[Termes IGN] contour
[Termes IGN] détection de régions
[Termes IGN] recherche d'image basée sur le contenu
[Termes IGN] vision par ordinateur
[Termes IGN] zone saillante 3DRésumé : (auteur) Avec l’augmentation de la taille des bases d’images et de la complexité des descripteurs dans les domaines de la recherche d’images par contenu visuel et de la vision par ordinateur, il est nécessaire de trouver un moyen pour limiter la quantité de données manipulées, tout en conservant leur représentativité. Au lieu d’analyser l’image entière, la sélection des régions qui détiennent l’essence de l’information est une option pertinente pour atteindre cet objectif. Comme la saillance visuelle a pour objectif de sélectionner les zones les plus importantes de l’image pour une tâche donnée, dans cet article, nous proposons d’exploiter des cartes de saillance visuelle pour filtrer les caractéristiques visuelles les plus saillantes de l’image. Une nouvelle approche de saillance visuelle basée sur l’analyse de la distribution locale de l’orientation des contours, en particulier dédiée aux contenus image structurés, comme les images de type streetview de l’environnement urbain, est proposée. Il est évalué pour la recherche d’images par contenu visuel à partir d’un exemple selon trois critères : la qualité de la recherche, le volume des caractéristiques manipulées et le temps de calcul. L’approche proposée peut être exploitée dans diverses applications qui manipulent de grands nombres de caractéristiques visuelles ; ici il est expérimenté dans deux applications : la recherche d’images cross-domain et la localisation de véhicule basée image. Numéro de notice : C2017-032 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésNat DOI : sans En ligne : https://orasis2017.sciencesconf.org/139245/document Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=89296 Documents numériques
en open access
Recherche d’images basée sur la saillance visuelle - postprintAdobe Acrobat PDF
Titre : Recherche multi-descripteurs dans les fonds photographiques numérisés Titre original : Multi-descriptor retrieval in digitalized photographs collections Type de document : Thèse/HDR Auteurs : Neelanjan Bhowmik , Auteur ; Valérie Gouet-Brunet , Directeur de thèse Editeur : Champs/Marne : Université Paris-Est Année de publication : 2017 Importance : 266 p. Format : 21 x 30 cm Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] base de données d'images
[Termes IGN] collection
[Termes IGN] descripteur
[Termes IGN] détection d'objet
[Termes IGN] estimation de pose
[Termes IGN] exploration de données
[Termes IGN] extraction de traits caractéristiques
[Termes IGN] index
[Termes IGN] localisation basée image
[Termes IGN] modèle de simulation
[Termes IGN] patrimoine culturel
[Termes IGN] point d'intérêt
[Termes IGN] recherche d'image basée sur le contenu
[Termes IGN] reconnaissance d'objets
[Termes IGN] régression linéaireIndex. décimale : THESE Thèses et HDR Résumé : (auteur) La recherche d’images par contenu (CBIR) est une discipline de l’informatique qui vise à structurer automatiquement les collections d’images selon des critères visuels. Les fonctionnalités proposées couvrent notamment l’accès efficace aux images dans une grande base de données d’images ou l’identification de leur contenu par des outils de détection et de reconnaissance d’objets. Ils ont un impact sur une large gamme de domaines qui manipulent ce genre de données, telles que le multimedia, la culture, la sécurité, la santé, la recherche scientifique, etc. Indexer une image à partir de son contenu visuel nécessite d’abord de produire un résumé visuel de ce contenu pour un usage donné, qui sera l’index de cette image dans la collection. En matière de descripteurs d’images, la littérature est désormais très riche : plusieurs familles de descripteurs existent, et dans chaque famille, de nombreuses approches cohabitent. Bon nombre de descripteurs ne décrivant pas la même information et n’ayant pas les mêmes propriétés d’invariance, il peut être pertinent de les combiner de manière à mieux décrire le contenu de l’image. Cette combinaison peut être mise en oeuvre de différentes manières, selon les descripteurs considérés et le but recherché. Dans cette thèse, nous nous concentrons sur la famille des descripteurs locaux, avec pour application la recherche d’images ou d’objets par l’exemple dans une collection d’images. Leurs bonnes propriétés les rendent très populaires pour la recherche, la reconnaissance et la catégorisation d'objets et de scènes. Deux directions de recherche sont étudiées : Combinaison de caractéristiques pour la recherche d’images par l’exemple : Le coeur de la thèse repose sur la proposition d’un modèle pour combiner des descripteurs de bas niveau et génériques afin d’obtenir un descripteur plus riche et adapté à un cas d’utilisation donné tout en conservant la généricité afin d’indexer différents types de contenus visuels. L’application considérée étant la recherche par l’exemple, une autre difficulté majeure est la complexité de la proposition, qui doit correspondre à des temps de récupération réduits, même avec de grands ensembles de données. Pour atteindre ces objectifs, nous proposons une approche basée sur la fusion d'index inversés, ce qui permet de mieux représenter le contenu tout en étant associé à une méthode d’accès efficace. Complémentarité des descripteurs : Nous nous concentrons sur l’évaluation de la complémentarité des descripteurs locaux existant en proposant des critères statistiques d’analyse de leur répartition spatiale dans l'image. Ce travail permet de mettre en évidence une synergie entre certaines de ces techniques lorsqu’elles sont jugées suffisamment complémentaires. Les critères spatiaux sont exploités dans un modèle de prédiction à base de régression linéaire, qui a l'avantage de permettre la sélection de combinaisons de descripteurs optimale pour la base considérée mais surtout pour chaque image de cette base. L'approche est évaluée avec le moteur de recherche multi-index, où il montre sa pertinence et met aussi en lumière le fait que la combinaison optimale de descripteurs peut varier d'une image à l'autre. En outre, nous exploitons les deux propositions précédentes pour traiter le problème de la recherche d'images inter-domaines, correspondant notamment à des vues multi-source et multi-date. Deux applications sont explorées dans cette thèse. La recherche d’images inter-domaines est appliquée aux collections photographiques culturelles numérisées d’un musée, où elle démontre son efficacité pour l’exploration et la valorisation de ces contenus à différents niveaux, depuis leur archivage jusqu’à leur exposition ou ex situ. Ensuite, nous explorons l’application de la localisation basée image entre domaines, où la pose d’une image est estimée à partir d’images géoréférencées, en retrouvant des images géolocalisées visuellement similaires à la requête. Numéro de notice : 17573 Affiliation des auteurs : LASTIG MATIS (2012-2019) Thématique : IMAGERIE/INFORMATIQUE Nature : Thèse française Organisme de stage : MATIS (IGN) ; Nicéphore Cité nature-HAL : Thèse DOI : sans En ligne : https://tel.hal.science/tel-01759559 Format de la ressource électronique : URL Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=91963 Segmentation sémantique de données de télédétection multimodale : application aux peuplements forestiers / Clément Dechesne (2017)PermalinkSegmentation sémantique de peuplements forestiers par analyse conjointe d’imagerie multispectrale très haute résolution et de données 3D Lidar aéroportées / Clément Dechesne (2017)PermalinkQuelle carte numérique pour le véhicule autonome ? / Pascal Vasseur in Transport environnement circulation TEC, n° 231 (novembre 2016)PermalinkForest stand segmentation using airborne lidar data and very high resolution multispectral imagery / Clément Dechesne (2016)PermalinkAugmenting vehicle localization accuracy with cameras and 3D road infrastructure database / Lijun Wei (2015)PermalinkDetection of abrupt changes in spatial relationships in video sequences / Abdalbassir Abou-Elailah (2015)PermalinkVisual word spatial arrangement for image retrieval and classification / Otávio A.B. Penatti in Pattern recognition, vol 47 n° 2 ([01/02/2014])PermalinkPermalinkManifold harmonic transform and spatial relationships for partial 3D object retrieval / Nguyen-Vu Hoang (April 2014)PermalinkObject detection and localization using a knowledge graph on spatial relationships / Nguyen-Vu Hoang (July 2013)Permalink
- Member of the steering committee of the Time Machine Organisation, association resulting from the CSA Time Machine project. See https://www.timemachine.eu/time-machine-organisation/