Descripteur
Termes IGN > imagerie > image numérique
image numériqueSynonyme(s)image en mode mailléVoir aussi |
Documents disponibles dans cette catégorie (2121)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Titre : Réalité Terrain Étendue : une nouvelle approche pour l’extraction de paramètres de surface biophysiques et géophysiques à l’échelle des individus = Extended Ground Truth : a new methodology for biophysical and geophysical surface parameters extraction at subject scale Type de document : Thèse/HDR Auteurs : A. Gademer, Auteur ; Jean-Paul Rudant , Directeur de thèse Editeur : Champs/Marne : Université Paris-Est Année de publication : 2010 Importance : 257 p. Format : 21 x 30 cm Note générale : Bibliographie
Thèse pour obtenir le grade de Docteur de l’École Doctorale Mathématique et STIC, Spécialité Sciences de l’Information GéographiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Acquisition d'image(s) et de donnée(s)
[Termes IGN] carte de la végétation
[Termes IGN] données de terrain
[Termes IGN] drone
[Termes IGN] géoréférencement
[Termes IGN] image aérienne oblique
[Termes IGN] image multibande
[Termes IGN] pas d'échantillonnage au sol
[Termes IGN] prise de vue aérienne
[Termes IGN] restitutionIndex. décimale : THESE Thèses et HDR Résumé : (Auteur) L'observation de notre planète et de ses paramètres de surface est une activité essentielle des Sciences de la vie et de la Terre. Ce mémoire propose une nouvelle approche pour l'analyse des paramètres biophysiques et géophysiques, appelée Réalité Terrain Étendue, et qui mêle les avantages des relevés terrain et de la télédétection. Nous nous sommes en particulier attachés aux avantages de la télédétection basse altitude et d'un système micro-drone multi-caméras pour la cartographie de la dynamique de la végétation à l'échelle des individus. Cette problématique pose de nombreuses contraintes sur notre système notamment sur l'acquisition des données et a nécessité le développement de capteurs innovants et la capacité de s'adapter aux cycles phénologiques pour améliorer leur capacité de discrimination. La télédétection basse altitude à partir de micro-drones civils est une solution intéressante en terme de résolution spatiale et de souplesse opérationnelle. Nous avons donc mis en place un système complet de drone avec une charge utile spécifique emportant simultanément trois appareils photographiques pour l'acquisition à la demande d'images obliques, stéréoscopiques ou multispectrales et permettant le développement de nouvelles méthodes d'identification de la végétation. Enfin, en participant à un relevé terrain du Muséum national d'Histoire naturelle, nous avons validé l'intérêt de notre système pour la cartographie de la dynamique de la végétation. Ce travail s'ouvre sur de nombreuses applications et perspectives de recherche, comme l'extraction de paramètres biophysiques par stéréorestitution et l'agriculture de précision. Note de contenu : Introduction Générale
1 Cartographie de la végétation à l'échelle des individus : utilisation de la Réalité Terrain Étendue
1.1 Enjeux de la cartographie de la végétation
1.1.1 Contexte de la biodiversité
1.1.2 Étude et protection des ressources naturelles
1.1.3 Cartographie de la dynamique de la végétation
1.2 Concept de Réalité Terrain Étendue
1.2.1 Méthodes actuellement utilisées
1.2.2 Formalisation du concept
1.3 Contraintes posées par la cartographie de la végétation à l'échelle des individus
1.3.1 Discrimination des espèces
1.3.1.1 Signature spectrale
1.3.1.2 Aspect morphologique et textural
1.3.1.3 Approche 3D
1.3.2 Contraintes opérationnelles
1.3.3 Résolution et identification de la végétation
1.3.3.1 Échelle, résolution des capteurs et taille de l'échantillon au sol
1.3.3.2 Interprétabilité des images
1.3.4 Synthèse
2 Quels outils de télédétection pour la Réalité Terrain Étendue ?
2.1 Un problème de média
2.1.1 Télédétection spatiale
2.1.2 Télédétection aéroportée
2.1.2.1 Caméras petit format
2.1.2.2 Caméras moyen format
2.1.2.3 Caméras grand format
2.1.2.4 Limites opérationnelles
2.1.3 Télédétection basse altitude
2.2 Arrivée des microdrones civils
2.2.1 Brève histoire des drones
2.2.2 Classification
2.2.3 Aspects règlementaires
2.2.4 Évolutions technologiques récentes
2.2.5 Avantages opérationnels
2.2.6 Limites des systèmes actuels
2.3 Contraintes sur l'instrumentation
2.3.1 Notion de charge utile
2.3.2 Caméras pour les micro-drones
2.3.3 Systèmes multi-caméras
2.3.3.1 Systèmes directionnels
2.3.3.2 Systèmes stéréoscopiques
2.3.3.3 Systèmes multi-spectraux
2.3.3.4 Synthèse
2.3.4 Géolocalisation des images
2.3.4.1 Principe et enjeux de la géolocalisation
2.3.4.2 Capteurs pour le géoréférencement direct
2.3.5 Contraintes sur le système
2.4 Contraintes tirées du modèle image
2.4.1 Calcul de la vitesse de déplacement en fonction du recouvrement désiré
2.4.2 Calcul de la vitesse de déplacement en fonction du flou de filé
2.4.3 Choix de la distance focale
2.4.4 Influence de l'inclinaison sur la taille de l'échantillon au sol
2.4.5 Synthèse générale
3 Système micro-drone multi-cameras développé durant la thèse
3.1 Présentation du système utilisé
3.1.1 Choix du quadri-rotors
3.1.2 Principe de vol
3.1.3 Architecture du système
3.1.3.1 Assistant bas niveau
3.1.3.2 Assistant pilotage
3.1.3.3 Cartes filles : altimètre et charge utile
3.1.3.4 La station sol
3.1.4 Caractéristiques du porteur
3.2 Capteur multi-caméras
3.2.1 Avantages attendus du système
3.2.2 Support tri-caméras
3.2.3 Réalisation mécanique
3.2.4 Choix du modèle d'appareil photographique numérique
3.2.5 Électronique de contrôle et station sol
3.2.5.1 Contrôle électronique d'un appareil du commerce
3.2.5.2 Analyse des signaux
3.2.5.3 Réalisation de la carte
3.2.6 Autres systèmes de vision
3.2.6.1 Système de visée et de pilotage embarqué
3.2.6.2 Acquisition de flux vidéos
3.2.6.3 Afficheur tête haute
3.3 Avancées logicielles
3.3.1 Station sol
3.3.2 Plan de vol
3.3.3 Projection des empreintes au sol des images
3.3.4 Recherche topologique dans une base d'images
3.4 Bilan des travaux
3.4.1 Sorties terrain
3.4.2 Avancement
4 Mise en oeuvre du système et premiers résultats
4.1 Mission terrain
4.1.1 Présentation de la zone d'étude
4.1.2 Déroulement de la mission terrain
4.1.3 Bilan de la mission
4.1.4 Exemples d'images acquises et interprétation manuelle
4.2 Premier travaux sur les images
4.2.1 Classification automatique
4.2.2 Stéréorestitution
4.3 Perspectives pour de nouvelles missions
Conclusion générale et perspectivesNuméro de notice : 10975 Affiliation des auteurs : non IGN Thématique : FORET/IMAGERIE Nature : Thèse française Note de thèse : Thèse de doctorat : Sciences de l’Information Géographique : Paris-Est : 2010 Organisme de stage : Équipe GTMC (Université Paris-Est Marne-la-Vallée) ; Équipe ATIS (École Supérieure d’Informatique Électronique Automatique) nature-HAL : Thèse DOI : sans Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=45152 Documents numériques
peut être téléchargé
10975_these_2010_gademer.pdfAdobe Acrobat PDF Traitement de l'image et de la vidéo / Rachid Belaroussi (2010)
Titre : Traitement de l'image et de la vidéo : images et vidéo, avec exercices pratiques en Matlab et C++ Type de document : Guide/Manuel Auteurs : Rachid Belaroussi, Auteur Editeur : Paris : Ellipses-Edition Marketing Année de publication : 2010 Collection : Technosup Sous-collection : Niveau C - Compléments (approfondissement, spécialisation) Importance : 228 p. Format : 18 x 26 cm ISBN/ISSN/EAN : 978-2-7298-5424-9 Langues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] C++
[Termes IGN] colorimétrie
[Termes IGN] détection de cible
[Termes IGN] détection de contours
[Termes IGN] image en couleur
[Termes IGN] Matlab
[Termes IGN] modélisation géométrique de prise de vue
[Termes IGN] niveau de gris (image)
[Termes IGN] restauration d'image
[Termes IGN] segmentation d'image
[Termes IGN] transformation de Hough
[Termes IGN] vidéoIndex. décimale : 35.20 Traitement d'image Résumé : (Editeur) Pour les étudiants et les professionnels en vision robotique ou en traitement d'image en temps réel, comme pour les amateurs, l'ouvrage développe une large gamme de techniques de traitement des images et de reconnaissance des formes. Il permet également un apprentissage rapide et ludique de la programmation en Matlab et C++. L'ouvrage est divisé en onze chapitres abordant progressivement la lecture d'une image, les prétraitements de ses données, puis la détection d'objets s'appuyant sur un modèle colorimétrique, géométrique ou global. Chaque chapitre commence par un exposé explicatif des notions à mettre en oeuvre et détaillant les notations, les équations et les algorithmes rencontrés. Le lecteur apprend à programmer des applications lui permettant de régler les différents paramètres introduits et d'en étudier l'effet en temps réel. La connaissance préalable des langages C++ ou Matlab n'est pas indispensable. La progression se fait pas à pas. L'accent est mis sur la pratique du traitement de l'image à travers une cinquantaine d'exercices didactiques qui amènent le lecteur à construire des applications interactives à l'aide d'interfaces graphiques. Note de contenu : - Manipulation des images et vidéos
- Images en niveaux de gris
- Prétraitements et amélioration
- Images en couleur
- Modélisation colorimétrique
- Segmentation basée région
- Champ de gradient et contours
- Modélisation géométrique : transformée de Hough
- Détection de mouvement
- Détection de visagesNuméro de notice : 20974 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Manuel de cours Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=46973 Réservation
Réserver ce documentExemplaires(2)
Code-barres Cote Support Localisation Section Disponibilité 20974-01 35.20 Livre Centre de documentation Télédétection Disponible 20974-02 35.20 Livre Centre de documentation Télédétection Disponible A two-pass random forests classification of airborne Lidar and image data on urban scenes / Li Guo (2010)
Titre : A two-pass random forests classification of airborne Lidar and image data on urban scenes Type de document : Article/Communication Auteurs : Li Guo, Auteur ; Nesrine Chehata , Auteur ; Samia Boukir, Auteur Editeur : New York : Institute of Electrical and Electronics Engineers IEEE Année de publication : 2010 Conférence : ICIP 2010, 17th IEEE International Conference on Image Processing 25/09/2010 29/09/2010 Hong Kong Proceedings IEEE Importance : pp 1369 - 1372 Note générale : bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image
[Termes IGN] classification par forêts d'arbres décisionnels
[Termes IGN] données lidar
[Termes IGN] données localisées 3D
[Termes IGN] image RVB
[Termes IGN] intervalle de classe
[Termes IGN] scène urbaineRésumé : (auteur) Random forests ensemble classifier showed to be suitable for classifying multisource data such as lidar and RGB image for urban scene mapping. However, two major problems remain: (1) the class boundaries are not well classified, a common issue in classification (2) the data are highly imbalanced raising another issue more specific to urban scenes. In this paper, we propose a new ensemble method based on the margin paradigm to improve the classification accuracy of minor classes. Random forests classifier is used in a two-pass methodology with an improved capability for classifying imbalanced data. Numéro de notice : C2010-061 Affiliation des auteurs : MATIS+Ext (1993-2011) Thématique : IMAGERIE Nature : Communication nature-HAL : ComAvecCL&ActesPubliésIntl DOI : 10.1109/ICIP.2010.5653030 Date de publication en ligne : 03/12/2010 En ligne : https://doi.org/10.1109/ICIP.2010.5653030 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=101943 Utilisation conjointe d'mageries optique et radar haute résolution spatiale pour la cartographie de l'occupation du sol dans un contexte tropical / Mohamed Sebane (2010)
Titre : Utilisation conjointe d'mageries optique et radar haute résolution spatiale pour la cartographie de l'occupation du sol dans un contexte tropical Type de document : Mémoire Auteurs : Mohamed Sebane, Auteur Editeur : Champs/Marne : Université Paris-Est Marne-la-Vallée UPEM Année de publication : 2010 Autre Editeur : Champs-sur-Marne : Ecole nationale des sciences géographiques ENSG Importance : 66 p. Format : 21 x 30 cm Note générale : Bibliographie
Rapport de stage de fin d'études pour l'obtention du diplôme de master 2ème année spécialité Sciences de l'Information GéographiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Traitement d'image mixte
[Termes IGN] Abidjan (Côte d'Ivoire)
[Termes IGN] analyse en composantes principales
[Termes IGN] filtre de déchatoiement
[Termes IGN] image optique
[Termes IGN] image radar
[Termes IGN] image Radarsat
[Termes IGN] image SPOT 5
[Termes IGN] occupation du sol
[Termes IGN] pansharpening (fusion d'images)
[Termes IGN] transformation de Brovey
[Termes IGN] transformation en ondelettes
[Termes IGN] transformation intensité-teinte-saturationIndex. décimale : DSIG Mémoires du master 2 IG, du master 2 SIG, de l'ex DEA SIG Résumé : (auteur) Le but de ce travail est d'utiliser la fusion entre la télédétection optique et radar pour la cartographie de l'occupation du sol dans un contexte tropical, les images ayant servi à cette étude proviennent du satellite optique Spot 5 et du capteur radar Radarsat 2. Le site test est situé en Côte d'ivoire, incluant la capitale Abidjan. Le pansharpening est une technique utilisée pour combiner la structure spatiale de l'image panchromatique de haute résolution spatiale et l'information spectrale de l'image mufti-spectrale de basse résolution spatiale pour produire une image multi-spectrale de haute résolution spatiale. Beaucoup de travaux se focalisent sur cette technique, mais peu d'études utilisent cette technique pour la fusion des données radar et optique simultanément. Nous avons testé plusieurs algorithmes et techniques de fusion entre les deux types d'images, ce travail est nécessaire car actuellement la fusion intervient plus particulièrement dans le domaine des faibles longueurs d'ondes (domaine optique) entre l'image multi-spectrale et l'image panchromatique. Le radar imageur offre une mesure différente des capteurs optiques qui effectuent des mesures de réflectance solaire par la surface terrestre. La fusion multi-source sera donc intéressante pour bénéficier des deux mesures à la fois et ainsi optimiser au mieux l'interprétation des images résultantes. La première approche utilisée est la fusion par procédé combinatoire des deux images où nous avons exploité le maximum d'algorithmes de transformation et d'amélioration spatiale présents actuellement dans la littérature et les plus récents en particulier avec différents tests et configurations en mentionnant les résultats obtenus et des suggestions à proposer. Une comparaison entre les résultats de fusion obtenus et l'image d'origine est ensuite présentée, cette comparaison est sous forme d'une évaluation visuelle basée sur la variation des couleurs et la préservation des caractéristiques spectrales et une évaluation statistique basée sur le calcul des indicateurs statistiques pour estimer la qualité de chaque algorithme. Nous voulions aussi essayer une autre approche basée sur un processus de fusion d'information basé sur la classification des modes d'occupation du sol, en testant des méthodes récentes de classification pour voir l'efficacité et l'adéquation de ces méthodes à chaque type d'image en possession. Parmi ces algorithmes on trouve la classification FCM (Fuzzy C-Means) qui semble intéressante. Note de contenu : Introduction générale
1. Présentation de la zone d'étude
1.1. Situation géographique
1.2. Topographie et caractéristiques du terrain
1.3. Données utilisées
1.4. Outils et matériels utilisés
2. Traitements de l'image SPOT
2.1. Préparation et prétraitement
2.2. Superposition sur Google Earth et contrôle de géoréférencement
3. Traitement des images radar
3.1. Préparation et prétraitement
3.2. Normalisation des images
3.3. Superposition sur Google Earth et contrôle de géoréférencement
4. Techniques de fusion en télédétection
4.1. Méthode de la transformée de couleurs : RVB (Rouge, Vert, Bleu) en TSV (Teinte, Saturation, Valeur)
4.2. Méthode de la transformée ITS modifiée
4.3. Méthode de l'analyse en composantes principales (CP Spectral Sharpening)
4.4. Méthode des couleurs normalisées (Brovey)
4.5. Méthode de normalisation des couleurs (CN Spectral Sharpening)
4.6. Méthode de Gram Schmidt (GS Spectral Sharpening)
4.7. Méthode de fusion par les ondelettes
4.8. Méthode de fusion par HPF (High Pass Filter)
4.9. Méthode de fusion par l'algorithme d'Ehlers
5. Résultats des tests de fusion
5.1. Fusion optique-radar mono polarisation HH
5.2. Fusion optique-radar (quadri polarisation et indices polarimétriques)
6. Evaluation de la qualité des fusions
6.1. Evaluation visuelle
6.2. Evaluation statistique
7. Approche classificatoire
7.1. Classification non supervisée
7.2. Classification de l'image SPOT
7.3. Classification de l'image radar
Conclusion générale et perspectivesNuméro de notice : 19390 Affiliation des auteurs : non IGN Thématique : IMAGERIE/INFORMATIQUE Nature : Mémoire Master 2 IG Organisme de stage : Ecole nationale des sciences géographiques ENSG Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=82311 Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 19390-01 DSIG Livre Centre de documentation Travaux d'élèves Disponible Influence of resolution in irrigated area mapping and area estimations / N. Velpuri in Photogrammetric Engineering & Remote Sensing, PERS, vol 75 n° 12 (December 2009)
[article]
Titre : Influence of resolution in irrigated area mapping and area estimations Type de document : Article/Communication Auteurs : N. Velpuri, Auteur ; Prasad S. Thenkabail, Auteur ; M. Gumma, Auteur ; et al., Auteur Année de publication : 2009 Article en page(s) : pp 1383 - 1395 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] carte agricole
[Termes IGN] classification dirigée
[Termes IGN] cultures irriguées
[Termes IGN] image Landsat-ETM+
[Termes IGN] image multitemporelle
[Termes IGN] image NOAA-AVHRR
[Termes IGN] image Terra-MODIS
[Termes IGN] Inde
[Termes IGN] irrigation
[Termes IGN] limite de résolution géométrique
[Termes IGN] parcelle agricole
[Termes IGN] précision de la classificationRésumé : (Auteur) The overarching goal of this paper was to determine how irrigated areas change with resolution (or scale) of imagery. Specific objectives investigated were to (a) map irrigated areas using four distinct spatial resolutions (or scales), (b) determine how irrigated areas change with resolutions, and (c) establish the causes of differences in resolution-based irrigated areas. The study was conducted in the very large Krishna River basin (India), which has a high degree of formal contiguous, and informal fragmented irrigated areas. The irrigated areas were mapped using satellite sensor data at four distinct resolutions: (a) NOAA AVHRR Pathfinder 10,000 m, (b) Terra MODIS 500 m, (c) Terra MODIS 250 m, and (d) Landsat ETM+ 30 m. The proportion of irrigated areas relative to Landsat 30 m derived irrigated areas (9.36 million hectares for the Krishna basin) were (a) 95 percent using MODIS 250 m, (b) 93 percent using MODIS 500 m, and (c) 86 percent using AVHRR 10,000 m. In this study, it was found that the precise location of the irrigated areas were better established using finer spatial resolution data. A strong relationship (R2 = 0.74 to 0.95) was observed between irrigated areas determined using various resolutions. This study proved the hypotheses that “the finer the spatial resolution of the sensor used, greater was the irrigated area derived,” since at finer spatial resolutions, fragmented areas are detected better. Accuracies and errors were established consistently for three classes (surface water irrigated, ground water/conjunctive use irrigated, and nonirrigated) across the four resolutions mentioned above. The results showed that the Landsat data provided significantly higher overall accuracies (84 percent) when compared to MODIS 500 m (77 percent), MODIS 250 m (79 percent), and AVHRR 10,000 m (63 percent). Copyright ASPRS Numéro de notice : A2009-500 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.14358/PERS.75.12.1383 En ligne : https://doi.org/10.14358/PERS.75.12.1383 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=30129
in Photogrammetric Engineering & Remote Sensing, PERS > vol 75 n° 12 (December 2009) . - pp 1383 - 1395[article]Nouvelles cartographies au 1:200 000 du Sénégal et au 1:5 000 en Polynésie Française : deux exemples de production opérationnelle de cartes topographiques numériques à partir d'imagerie satellitaire / Dominique Lasselin in Le monde des cartes, n° 202 (décembre 2009)PermalinkApplication of satellite image processing techniques for Talakadu a unique archaeological landscape in India / M.B. Rajani in Photo interprétation, European journal of applied remote sensing, vol 45 n° 4 (novembre 2009)PermalinkEvaluating the temporal and spatial urban expansion patterns of Guangzhou from 1979 to 2003 by remote sensing and GIS methods / F. Fan in International journal of geographical information science IJGIS, vol 23 n°11-12 (november 2009)PermalinkA matching algorithm for detecting land use changes using case-based reasoning / X. Li in Photogrammetric Engineering & Remote Sensing, PERS, vol 75 n° 11 (November 2009)Permalinkvol 30 n° 20 - October 2009 - Accuracy 2008, [actes], spatial accuracy in remote sensing, Shangai, 25 - 27 June 2008 (Bulletin de International Journal of Remote Sensing IJRS) / Jingxiong ZhangPermalinkvol 30 n° 19 - October 2009 - ForestSat 2007, [actes], operational tools in forestry using remote sensing techniques, Montpellier, 5 - 7 November 2007 (Bulletin de International Journal of Remote Sensing IJRS) / Ronald E. McRobertsPermalinkAutomated high-speed high-accuracy orthorectification and mosaicking: using Rapideye data without ground control / Penggen Cheng in Geoinformatics, vol 12 n° 7 (01/10/2009)PermalinkA Wavelet and IHS integration method to fuse high resolution SAR with moderate resolution multispectral images / G. Hong in Photogrammetric Engineering & Remote Sensing, PERS, vol 75 n° 10 (October 2009)PermalinkDigital airborne photogrammetry - a new tool for quantitative remote sensing? - a state-of-the-art review on radiometric aspects of digital photogrammetric images / Eija Honkavaara in Remote sensing, vol 1 n° 3 (September 2009)PermalinkGéolocalisation en milieu urbain par appariement entre une collection d'images et un SIG 2D / N. Bioret in Ingénierie des systèmes d'information, ISI : Revue des sciences et technologies de l'information, RSTI, vol 14 n° 5 (septembre - octobre 2009)Permalink