Descripteur
Termes IGN > imagerie > résolution globale (imagerie)
résolution globale (imagerie)Voir aussi |
Documents disponibles dans cette catégorie (60)
Ajouter le résultat dans votre panier
Visionner les documents numériques
Affiner la recherche Interroger des sources externes
Etendre la recherche sur niveau(x) vers le bas
Quality assessment for GPS-supported bundle block adjustment based on aerial digital frame imagery / X. Yuan in Photogrammetric record, vol 24 n° 126 (June - August 2009)
[article]
Titre : Quality assessment for GPS-supported bundle block adjustment based on aerial digital frame imagery Type de document : Article/Communication Auteurs : X. Yuan, Auteur Année de publication : 2009 Article en page(s) : pp 139 - 156 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie numérique
[Termes IGN] aérotriangulation numérique
[Termes IGN] bloc d'images
[Termes IGN] compensation par bloc
[Termes IGN] compensation par faisceaux
[Termes IGN] coordonnées géographiques
[Termes IGN] pas d'échantillonnage au sol
[Termes IGN] point d'appui
[Termes IGN] positionnement par GPS
[Termes IGN] qualité géométrique (image)Résumé : (Auteur) Accuracy and reliability are two popular indicators for assessment of the quality of aerial triangulation. This paper explores these quality indicators in relation to GPS-supported bundle block adjustment based on aerial digital frame imagery with GPS navigation data. A set of aerial digital frame imagery, taken over hilly terrain using an SWDC-4 area-array digital camera made in China, was selected and used. These empirical images have superior resolution with a pixel size of 9 um, with a ground sample distance of 10 cm and larger than traditional overlaps (80% longitudinal and 63% lateral). GPS-supported bundle block adjustment was carried out with the WuCAPS high-precision combined bundle block adjustment software package developed by the author. The achieved a posteriori standard deviation (rms errors of observation residuals) of the image coordinates is +3·7 um. The empirical accuracy of the photogrammetric point coordinates reaches +7·1 cm for planimetry and +4·8 cm for elevation on the ground, and the average redundancies (average components of the redundancy for one kind of observation) of the image coordinates and the camera station coordinates determined via GPS are more than 0·74 and 0·69, respectively. These results have shown that GPS-supported aerial triangulation with aerial digital frame imagery provides higher precision and reliability; the practical height accuracy is close to its theoretical possibility; also, it avoids the use of the cross strips and lines of ground height control points on each side of the adjusted block. This not only changes the present situation, in which height accuracy is always lower than the planimetric accuracy in aerial triangulation of aerial film images, but also opens up a new prospect in which the orientation points for models for stereoplotting need not be determined by full field surveying for topographic mapping of reasonably flat terrain at medium and large scales. Therefore, this paper provides an operational basis for a broad range of applications for aerial digital imagery in national basic surveying and mapping, and the rapid production and updating of geographic information in general. Copyright RS&PS + Blackwell Publishing Numéro de notice : A2009-207 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.1111/j.1477-9730.2009.00527.x En ligne : https://doi.org/10.1111/j.1477-9730.2009.00527.x Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=29837
in Photogrammetric record > vol 24 n° 126 (June - August 2009) . - pp 139 - 156[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 106-09021 RAB Revue Centre de documentation En réserve L003 Disponible Optimizing the high-pass filter addition technique for image fusion / U.G. Gangkofner in Photogrammetric Engineering & Remote Sensing, PERS, vol 74 n° 9 (September 2008)
[article]
Titre : Optimizing the high-pass filter addition technique for image fusion Type de document : Article/Communication Auteurs : U.G. Gangkofner, Auteur ; P.S. Pradhan, Auteur ; D.W. Holcomb, Auteur Année de publication : 2008 Article en page(s) : pp 1107 - 1118 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Traitement d'image optique
[Termes IGN] analyse comparative
[Termes IGN] filtrage numérique d'image
[Termes IGN] filtre passe-haut
[Termes IGN] fusion d'images
[Termes IGN] image à basse résolution
[Termes IGN] image à très haute résolution
[Termes IGN] image optique
[Termes IGN] netteté
[Termes IGN] transformation en ondelettesRésumé : (Auteur) Pixel-level image fusion combines complementary image data, most commonly low spectral-high spatial resolution data with high spectral-low spatial resolution optical data. The presented study aims at refining and improving the High-Pass Filter Additive (HPFA) fusion method towards a tunable and versatile, yet standardized image fusion tool. HPFA is an image fusion method in the spatial domain, which inserts structural and textural details of the higher resolution image into the lower resolution image, whose spectral properties are thereby largely retained. Using various input image pairs, workable sets of HPFA parameters have been derived with regard to high-pass filter properties and injection weights. Improvements are the standardization of the HPFA parameters over a wide range of image resolution ratios and the controlled trade-off between resulting image sharpness and spectral properties. The results are evaluated visually and by spectral and spatial metrics in comparison with wavelet-based image fusion results as a benchmark. Copyright ASPRS Numéro de notice : A2008-347 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Article DOI : 10.14358/PERS.74.9.1107 En ligne : https://doi.org/10.14358/PERS.74.9.1107 Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=29340
in Photogrammetric Engineering & Remote Sensing, PERS > vol 74 n° 9 (September 2008) . - pp 1107 - 1118[article]Orientation and self-calibration of ALOS PRISM imagery / S. Kocaman in Photogrammetric record, vol 23 n° 123 (September - November 2008)
[article]
Titre : Orientation and self-calibration of ALOS PRISM imagery Type de document : Article/Communication Auteurs : S. Kocaman, Auteur ; Armin W. Gruen, Auteur Année de publication : 2008 Conférence : ISPRS 2007, High-Resolution Earth Imaging for Geospatial Information workshop 29/05/2007 01/06/2007 Hanovre Allemagne Article en page(s) : pp 323 - 340 Note générale : Bibliographie Langues : Anglais (eng) Descripteur : [Vedettes matières IGN] Photogrammétrie spatiale
[Termes IGN] auto-étalonnage
[Termes IGN] capteur en peigne
[Termes IGN] compensation par faisceaux
[Termes IGN] détecteur à transfert de charge
[Termes IGN] élément d'orientation interne
[Termes IGN] erreur systématique
[Termes IGN] géoréférencement
[Termes IGN] image à très haute résolution
[Termes IGN] image ALOS-PRISM
[Termes IGN] modélisation géométrique de prise de vue
[Termes IGN] orientation d'image
[Termes IGN] pas d'échantillonnage au solRésumé : (Auteur) High-resolution satellite images (HRSI) at sub-5 m footprint are becoming increasingly available. A set of algorithms for processing of HRSI has been developed at the Institute of Geodesy and Photogrammetry (IGP), ETH Zurich and realised in a software suite called Satellite Image Precision Processing (SAT-PP). The software has been used for the processing of a number of high resolution satellite sensors, such as IKONOS, QuickBird, SPOT 5 HRS/HRG, Cartosat-1 and ALOS PRISM. PRISM is a panchromatic radiometer carried on board the Japanese ALOS satellite. It has three optical systems for forward, nadir and backward view with 2·5 m ground sample distance (GSD). The photogrammetric processing of PRISM imagery has special requirements owing to the linear array CCD sensor structure and special characteristics of the interior geometry and exterior orientation. As a member of the ALOS calibration/validation team, new algorithms for geometric processing of the PRISM images have been implemented at the IGP, in particular for the interior orientation and self-calibration. The physical sensor model in SAT-PP is refined according to the multiple camera heads of the sensor. The rigorous model for PRISM is based on a modified bundle adjustment with the possibility of using two different trajectory models. The self-calibration is introduced into the adjustment to model the systematic errors of the sensor and the system as a whole. The methods of georeferencing and digital surface model (DSM) generation were tested using the PRISM data-sets acquired over five different testfields. The rigorous sensor model performed well and resulted in sub-pixel accuracy for point positioning in all testfields. The self-calibration model has been tested in two different phases of the project separately. In the initial phase, where interior orientation data was not available, the use of the self-calibration was essential to achieve good accuracy. However, in the later phase the relative positions of the CCD chip detectors on the focal plane were provided by the Japan Aerospace Exploration Agency (JAXA) and the improvements by self-calibration became less significant. A detailed analysis of the DSM generation is presented in another publication. Copyright RS&PS + Blackwell Publishing Numéro de notice : A2008-396 Affiliation des auteurs : non IGN Thématique : IMAGERIE/POSITIONNEMENT Nature : Article DOI : 10.1111/j.1477-9730.2008.00493.x En ligne : https://doi.org/10.1111/j.1477-9730.2008.00493.x Format de la ressource électronique : URL article Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=76551
in Photogrammetric record > vol 23 n° 123 (September - November 2008) . - pp 323 - 340[article]Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 106-08031 RAB Revue Centre de documentation En réserve L003 Disponible Capture de layers durant une session dans un globe virtuel / G. Mazabraud (2008)
Titre : Capture de layers durant une session dans un globe virtuel Type de document : Mémoire Auteurs : G. Mazabraud, Auteur Editeur : Champs/Marne : Université de Marne-la-Vallée Année de publication : 2008 Importance : 58 p. Format : 21 x 30 cm Note générale : Bibliographie
Mémoire de master 2ème année, domaine sciences et technologies, mention systemes d'information, spécialité sciences de l'information géographiqueLangues : Français (fre) Descripteur : [Vedettes matières IGN] Géomatique web
[Termes IGN] application informatique
[Termes IGN] arbre quadratique
[Termes IGN] coordonnées cartésiennes
[Termes IGN] coordonnées géographiques
[Termes IGN] couche thématique
[Termes IGN] données maillées
[Termes IGN] erreur moyenne quadratique
[Termes IGN] géomatique web
[Termes IGN] globe virtuel
[Termes IGN] interface utilisateur
[Termes IGN] Java (langage de programmation)
[Termes IGN] pas d'échantillonnage au sol
[Termes IGN] projection perspective
[Termes IGN] transformation de coordonnéesIndex. décimale : DSIG Mémoires du master 2 IG, du master 2 SIG, de l'ex DEA SIG Résumé : (Auteur) Les globes virtuels ont permis de démocratiser le concept de géoréférencement et servent même actuellement d'outil de travail : présentation, visualisation ou superposition de données géoréférencées. Il peut être intéressant de vouloir conserver un travail effectué dans un globe virtuel sous une forme indépendante du globe virtuel utilisé. C'est ce que permet l'application VTTileGrabber, que j'ai développé durant mon stage : Sachant une aire d'intérêt et une résolution, VTTileGrabber permet d'exporter les informations affichées à l'écran sous forme d'image. Note de contenu : Introduction
1) Spécifications du projet « VTTileGrabber
Spécifications de l'utilisateur
Objet du logiciel
Interface utilisateur
Configuration des captures
2) Détermination de la projection utilisée pour le rendu dans Google Earth
2.1 Importance de la projection
2.2 Les différents référentiels
Passage du référentiel écran RS au référentiel de rendu RR
Passage du référentiel de rendu RR au référentiel Google Earth RGE
Passage du référentiel Google Earth RGE au référentiel géographique Rgeo
Passage du référentiel géographique Rgeo au référentiel géodésique REN
2.3 Les projections candidates
Projection perspective verticale sur sphère
Projection perspective verticale sur ellipsoïde
Projection orthographique sur sphère
2.4 Recherche de la projection native par analyse des moindres carrés
Modèle image
Minimisation de l'erreur quadratique moyenne
Erreur quadratique moyenne
Recherche des valeurs optimales
2.5 Résultats numériques et conclusions
Résultats de la projection « perspective verticale sur sphère
Résultats de la projection « perspective verticale sur ellipsoïde WGS84
Résultats de la projection « orthographique sur sphère »
Sélection de la projection
Détermination du rayon de la sphère dans la projection « perspective verticale sur sphère »
Détermination de la résolution spatiale (GSD) en fonction de la distance Résolution 1280x800
Résolution 1024x768
Résolution 800x600
Conclusions
3) Développement
3.1 Choix du langage
3.2 Analyse de la procédure de capture
3.3 Détail de certains algorithmes
Contrôle d'un globe virtuel : Google Earth
Contrôle de la fenêtre du globe virtuel
Capture d'écran
Organisation des tuiles
Format d'image « interne
4) Analyse architecturale
5) Evolutions
Globes virtuels supportés
Projections de sortie
Format d'image en sortie
6) Exemples
ConclusionNuméro de notice : 13647 Affiliation des auteurs : non IGN Thématique : GEOMATIQUE Nature : Mémoire Master 2 IG Organisme de stage : VisioTerra Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=50081 Réservation
Réserver ce documentExemplaires(1)
Code-barres Cote Support Localisation Section Disponibilité 13647-01 DSIG Livre Centre de documentation Travaux d'élèves Disponible Imagerie spatiale / P. Lier (2008)
Titre : Imagerie spatiale : des principes d'acquisition au traitement des images optiques pour l'observation de la Terre Type de document : Guide/Manuel Auteurs : P. Lier, Éditeur scientifique ; Christophe Valorge, Éditeur scientifique ; Xavier Briottet , Éditeur scientifique Editeur : Toulouse : Cépaduès Année de publication : 2008 Importance : 490 p. Format : 17 x 24 cm ISBN/ISSN/EAN : 978-2-85428-844-5 Note générale : Bibliographie Langues : Français (fre) Descripteur : [Vedettes matières IGN] Télédétection
[Termes IGN] correction géométrique
[Termes IGN] correction radiométrique
[Termes IGN] déconvolution
[Termes IGN] échantillonnage d'image
[Termes IGN] étalonnage radiométrique
[Termes IGN] filtrage du bruit
[Termes IGN] fonction de transfert de modulation
[Termes IGN] fusion d'images
[Termes IGN] géométrie de l'image
[Termes IGN] interpolation
[Termes IGN] limite de résolution radiométrique
[Termes IGN] modèle géométrique de prise de vue
[Termes IGN] modèle mathématique
[Termes IGN] modélisation 3D
[Termes IGN] prise de vue radiométrique
[Termes IGN] qualité d'image
[Termes IGN] qualité géométrique (image)
[Termes IGN] qualité radiométrique (image)
[Termes IGN] simulation 3D
[Termes IGN] simulation d'image
[Termes IGN] spécification de produit
[Termes IGN] tâche image d'un point
[Termes IGN] transformation de Fourier
[Termes IGN] valeur radiométriqueIndex. décimale : 35.00 Télédétection - généralités Résumé : (Editeur) Cet ouvrage s'adresse aux étudiants et ingénieurs désirant comprendre les principes fondamentaux d'acquisition des images optiques pour l'observation de la Terre et les moyens de maîtriser la qualité de ces images. Destiné au concepteur comme à l'utilisateur aval, cet ouvrage part de l'exposé des principes physiques qui interviennent lors de l'acquisition d'une image spatiale optique, pour amener le lecteur aux traitements associés avec leurs limitations et la performance obtenue in fine. Il traite largement les problématiques de dimensionnement des systèmes d'observation et permettra au lecteur de se familiariser avec les différents processus mis en jeu dans l'acquisition d'une image optique. il aborde des thèmes très vastes, depuis la physique (rayonnement, électronique, optique) jusqu'aux mathématiques appliquées (analyse fréquentielle) en passant par la géométrie et les problèmes technologiques. Cet ouvrage capitalise les travaux menés depuis de nombreuses années par les ingénieurs du CNES, de l'IGN et de l'ONERA dans le domaine de l'imagerie spatiale optique. Note de contenu : 1. INTRODUCTION / Philippe LIER (CNES), Christophe VALORGE (CNES)
1.1. Un peu d'histoire
1.2. Qu'est-ce que la télédétection ?
1.2.1. Définition
1.2.2. Qu'est ce qu'une "image numérique" ?
1.2.3. Qu'est-ce que la "Qualité d'une image" ?
1.2.4. Les traitements de "dé-spatialisation"
1.3. Quelques exemples d'applications de l'observation de la Terre
1.3.1. Météorologie
1.3.2. Cartographie
1.3.3. Renseignement
1.3.4. Suivi des catastrophes naturelles
1.3.5. Applications scientifiques
1.4. Panorama de quelques missions d'observation de la Terre
1.4.1. Les satellites KEY HOLE du programme CORONA
1.4.2. La famille LANDSAT : exemple LANDSAT 7
1.4.3. La famille SPOT
1.4.4. PLEIADES
1.4.5. Les satellites commerciaux américains
1.4.6. Végétation
1.4.7. Polder
1.4.8. ScaRaB
1.4.9. Caméra Infra Rouge de CALIPSO
1.5. Périmètre de l'ouvrage
2. LA GEOMETRIE DES IMAGES / Jean Marc DELVIT (CNES), Daniel GRESLOU (CNES), Sylvia SYLVANDER (IGN), Christophe VALORGE (CNES)
2.1. Préambule
2.1.1. Plan du chapitre
2.1.2. Généralités sur la location directe
2.2. Pré-requis : les repères de l'espace et du temps
2.2.1. Position du problème
2.2.2. Repères et référentiels
2.2.3. De la Terre aux étoiles
2.2.4. Les repères de l'Espace
2.2.5. Les repères du temps
2.2.6. Les changements de repères
2.3. Principes géométriques de l'acquisition
2.3.1 Les différents types de capteurs
2.3.2. La datation des images
2.3.3. L'orbite des satellites
2.3.4. L'attitude des satellites
2.4. Modélisation géométrique de la prise de vue
2.4.1. Principe général
2.4.2. Rappel de géométrie conique
2.4.3. Modélisation physique de la prise de vue
2.4.4. Modélisation analytique de la géométrie de prise de vue
2.4.5. Affinage du modèle géométrique de prise de vue
2.5. Traitements géométriques
2.5.1. Corrections géométriques
2.5.2. L'appariement d'images
2.5.3. Traitements géométriques "aval"
2.6. Qualité géométrique des images
2.6.1. Introduction
2.6.2. Des besoins utilisateurs aux critères QIG
2.6.3. La qualité image géométrique en vol
2.6.4. Synthèse des besoins et performances QIG
2.7. Petit formulaire de géométrie
2.7.1. Quelques notations
2.7.2. Formules de base
2.7.3. Projection des détecteurs
2.8. Références bibliographiques
3. RADIOMETRIE / Alain BARDOUX (CNES), Xavier BRIOTTET (ONERA), Bertrand FOUGNIE (CNES), Patrice HENRY (CNES), Sophie LACHERADE (ONERA), Laurent LEBEGUE (CNES), Philippe LIER (CNES), Christophe MIESCH (ONERA), Françoise VIALLEFONT (ONERA)
3.1. Introduction
3.2. Physique de la mesure
3.2.1. Introduction
3.2.2. Définition des grandeurs radiatives
3.2.3. Propriétés optiques des surfaces
3.2.4. L'atmosphère
3.2.5. Analyse de la luminance au niveau du capteur
3.3. Principe d'acquisition : description de la chaîne image bord
3.3.1. Introduction
3.3.2. L'optique
3.3.3. La chaîne de détection
3.3.4. La chaîne électronique
3.4. Modèle mathématique de la chaîne d'acquisition
3.4.1. Calcul de l'éclairement au plan focal
3.4.2. Calcul du nombre d'électrons produits
3.4.3. Calcul du nombre de pas codeur
3.5. Modélisation radiométrique de la prise de vue
3.5.1. Introduction
3.5.2. Exemple 1 : le modèle radiométrique 2R CALIPSO
3.5.3. Exemple 2 : le modèle radiométrique SPOT
3.5.4. Exemple 3 : le modèle radiométrique PLEIADES-HR
3.5.5. Exemple 4 : le modèle radiométrique POLDER
3.6. Etalonnage et mesures de performances radiométriques
3.6.1. Introduction
3.6.2. Etalonnage relatif dans le champ ou "égalisation"
3.6.3. Etalonnage absolu
3.7. Résolution radiométrique
3.7.1. Introduction
3.7.2. Exemple : le modèle de bruit radiométrique PLEIADES
3.7.3. Estimation du bruit instrumental
3.8. Synthèses et perspectives
3.9. Références
4. LA RESOLUTION DES IMAGES / Sébastien FOUREST (CNES), Philippe KUBIK (CNES), Christophe LATRY (CNES), Dominique LEGER (ONERA), Françoise VIALLEFONT (ONERA)
4.1. Introduction
4.2. Tache image et FTM
4.2.1. Rappels sur la théorie des systèmes linéaires stationnaires
4.2.2. Cas des imageurs
4.2.3. Expression de la tache image et de la FTM
4.2.4. Modèle global
4.3. L'échantillonnage
4.3.1. Les effets de l'échantillonnage
4.3.2. L'impact sur la conception du système
4.4. L'interpolations d'images
4.4.1. Généralités
4.4.2. L'interpolation classique
4.4.3. Filtres interpolateurs 1D
4.4.4. Filtres interpolateurs 2D
4.4.5. L'interpolation dans le domaine de Fourier
4.5. Les traitements d'amélioration de la résolution
4.5.1. Introduction
4.5.2. Déconvolution
4.5.3. Débruitage
4.5.4. Fusion Panchromatique/multispectral
4.6. Méthodes de mesure en vol de la FTM et du défaut de mise au point
4.6.1. Introduction
4.6.2 Méthodes de mesure de défaut de mise au point
4.6.3. Méthodes de mesure de FTM
4.6.4. Conclusion
4.7. Conclusion
4.8. Annexe 1 : la transformation de Fourier
4.8.1. La transformée de Fourier continue
4.8.2. Passage du monde continu au monde discret : l'échantillonnage
4.8.3. Un outil adapté au monde échantillonné : la Transformée de Fourier Discrète
4.8.4. La Transformée de Fourier discrète finie
4.8.5. Synthèse : de la transformée de Fourier continue à la transformée de Fourier discrète finie
4.8.6. Propriétés de la TFDF
4.8.7. Utilisation de la TFDF
4.8.8. Conclusion
4.9. Annexe 2 : ondelettes et paquets
4.9.1. Limitations de la représentation fréquentielle
4.9.2. Les ondelettes
4.10. Annexe 3 : Interpolation et B-splines
4.10.1. Propriété des bases de fonctions interpolantes
4.10.2. Construction des splines
4.11. Bibliographie
5. LE DIMENSIONNEMENT DU SYSTEME / Philippe KUBIK (CNES)
5.1. Objectif et définitions
5.2. Principes de dimensionnement
5.2.1. La géométrie
5.2.2. La radiométrie
5.2.3. La résolution
5.3. Exemples de dimensionnement
5.3.1. Mission type SPOT 10m
5.3.2. Satellite métrique
5.4. Conclusions
6. LA COMPRESSION DES IMAGES / Catherine LAMBERT (CNES), Christophe LATRY (CNES), Gilles MOURY (CNES)
6.1. Introduction
6.2. Présentation générale de la compression d'image
6.3. Compression et qualité d'image
6.3.1. Insuffisance des critères usuels
6.3.2. Prise en compte de la chaîne image bord/sol globale
6.3.3. Les critères applicatifs
6.4. Panoramas des compresseurs dans le domaine spatial
6.4.1. Techniques de codage prédictif
6.4.2. Techniques de codage par transformée DCT
6.4.3. La transformée orthogonale à recouvrement (LOT).
6.4.4. Compression par transformée en ondelettes
6.4.5. Perspectives
6.4.6. Bibliographie
7. LA SIMULATION IMAGE / Philippe LIER (CNES), Christophe VALORGE (CNES)
7.1. Objectifs de la simulation d'image
7.1.1. Rappel : la notion de "Qualité Image"
7.1.2. La simulation : un outil de dimensionnement
7.1.3. La simulation : un outil d'interface
7.2. Principes généraux de simulation d'une image
7.2.1. Simulation du paysage en entrée du capteur ou prétraitement
7.2.2. Simulation du capteur
7.2.3. Simulation des traitements sol
7.2.4. Synthèse
7.2.5. Exemples d'utilisation de cette chaîne au CNES
7.2.6. Limitations de la simulation "Classique"
7.2.7. Remarques
7.3. La synthèse d'image et la simulation 3D
7.3.1. Rappel : la modélisation "2,5D" du paysage
7.3.2. La modélisation 3D du paysage
7.3.3. Les prétraitements 3D
7.3.4. La simulation 3D
7.4. Perspectives pour la simulation image
8. CONCLUSION / Philippe LIER (CNES)
8.1. La course à la résolution
8.1.1. Autres critères
8.1.2. Le pas temporel
8.1.3. Les bandes spectrales
8.1.4. La stéréoscopie
8.1.5. La capacité opérationnelle
8.2. L'imagerie haute résolution au quotidien ?Numéro de notice : 13633 Affiliation des auteurs : non IGN Thématique : IMAGERIE Nature : Recueil / ouvrage collectif Permalink : https://documentation.ensg.eu/index.php?lvl=notice_display&id=40448 Réservation
Réserver ce documentExemplaires(3)
Code-barres Cote Support Localisation Section Disponibilité 13633-01 35.00 Livre Centre de documentation Télédétection Disponible 13633-02 35.00 Livre Centre de documentation Télédétection Disponible 13633-03 DEP-TRC Livre LASTIG Dépôt en unité Exclu du prêt Geometric Correction and Digital Elevation Extraction Using Multiple MTI Datasets / J.A. Mercier in Photogrammetric Engineering & Remote Sensing, PERS, vol 73 n° 2 (February 2007)PermalinkNew methodologies for true orthophoto generation / A.F. Habib in Photogrammetric Engineering & Remote Sensing, PERS, vol 73 n° 1 (January 2007)PermalinkEvaluation of resolving power and MTF of DMC / Eija Honkavaara in Revue Française de Photogrammétrie et de Télédétection, n° 183 (Septembre 2006)PermalinkVery large scale aerial photography for rangeland monitoring / D.T. Booth in Geocarto international, vol 21 n° 3 (September - November 2006)PermalinkAngular resolution of terrestrial laser scanners / Derek D. Lichti in Photogrammetric record, vol 21 n° 114 (June - August 2006)PermalinkMTF-tailored multiscale fusion of high-resolution multispectral and panchromatic imagery / B. Aiazzi in Photogrammetric Engineering & Remote Sensing, PERS, vol 72 n° 5 (May 2006)PermalinkPermalinkAnalytical methods of assessing the image quality associated with digital and photographic imaging systems / G.H. Thomson in Photogrammetric record, vol 19 n° 107 (September - November 2004)PermalinkHigh resolution mapping with small satellites / R. Sandau in GIS Geo-Informations-Systeme, vol 2004 n° 9 (September 2004)PermalinkA basis for estimating digital camera parameters / D. Light in Photogrammetric Engineering & Remote Sensing, PERS, vol 70 n° 3 (March 2004)Permalink