UNIVERSIDAD DE EXTREMADURA Escuela Politécnica Ingeniería en Informática

UNIVERSIDAD DE EXTREMADURA Escuela Polit´ecnica Ingenier´ıa en Inform´atica Proyecto Fin de Carrera Integraci´ on de Datos Hiperespectrales y LiDAR e

3 downloads 130 Views 6MB Size

Recommend Stories


UNIVERSIDAD DE EXTREMADURA
DIPLOMATURA EN CIENCIAS EMPRESARIALES FACULTAD DE CIENCIAS ECONOMICAS Y EMPRESARIALES. UNIVERSIDAD DE EXTREMADURA. CURSO 2005-2006. PROGRAMA DE LA

UNIVERSIDAD DE EXTREMADURA
UNIVERSIDAD DE EXTREMADURA. FACULTAD DE EDUCACIÓN. TESIS DOCTORAL FORMACIÓN INICIAL Y CONOCIMIENTO DIDÁCTICO DEL CONTENIDO EN LOS PROFESORES DE EDUC

Story Transcript

UNIVERSIDAD DE EXTREMADURA Escuela Polit´ecnica Ingenier´ıa en Inform´atica Proyecto Fin de Carrera

Integraci´ on de Datos Hiperespectrales y LiDAR en Aplicaciones de Observaci´ on Remota de la Superficie Terrestre Autora:

´ Mar´ıa de los Angeles Garc´ıa Sopo

Directores:

Dr. Antonio J. Plaza Miguel Fdo. Dr. Aurora Cuartero S´aez Fdo.

Tribunal Calificador Presidente: Fdo.

Dr. Pablo Garc´ıa Rodr´ıguez

Secretario: Fdo.

Dr. Javier Plaza Miguel

Vocal : Fdo.

Dr. Manuel Barrena Garc´ıa

´ CALIFICACION: FECHA:

Resumen P recisi´on es la caracter´ıstica que se busca al clasificar datos en el campo de teledetecci´on. En los datos hiperespectrales, esta precisi´on ha llegado a un l´ımite con datos de alta resoluci´on espacial (1-5m) que obtienen mejores o peores resultados dependiendo con que escena o clases se trabaje. Este motivo junto con el avance en la tecnolog´ıa ha permitido que empiece a surgir una nueva l´ınea de investigaci´on donde las clasificaciones ya no se realizan con una u ´nica fuente de datos. De aqu´ı surge la idea de fusionar datos hiperespectral y datos LiDAR para mejorar la exactitud cuando la altitud del terreno puede aportar informaci´on valiosa. Varios estudios se han realizado combinando ambos datos para clasificar vegetaci´ on donde los resultados han sido favorables. Este estudio, pretende aportar informaci´ on sobre s´ı estos datos de altitud procedentes de LiDAR aportan siempre informaci´on que facilite la identificaci´on de clases. Para ello, se han realizado clasificaciones cuando los datos hiperespectrales ya obtiene buenos resultados. Tras realizar varias clasificaciones, se ha concluido que los datos LiDAR no aportan siempre informaci´on que ayude a obtener mejores resultados. Sin embargo, la metodolog´ıa utilizada en este estudio no a˜ nade toda la informaci´on disponible procedente de los datos LiDAR que pueden llegar a ser de utilidad para este tipo de clasificaciones.

Everything is theoretically impossible, until it is done. Robert A. Heinlein

´Indice

. Agradecimientos

XVI

1. Introducci´ on

1

1.1. Plan Nacional de Orto fotograf´ıa A´erea en Espa˜ na . . . . . . . . . . . . 2. Antecedentes

3 4

2.1. Datos hiperespectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

2.1.1. Concepto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

2.1.2. Obtenci´on de datos . . . . . . . . . . . . . . . . . . . . . . . . . .

5

2.1.3. An´alisis de datos . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

2.2. LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2.2.1. L´aser

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2.2.2. Concepto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

2.2.3. Obtenci´on de datos . . . . . . . . . . . . . . . . . . . . . . . . . .

12

2.2.4. An´alisis de datos . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

3. Estado del arte

17

3.1. Fusi´on hiperespectral m´as LiDAR . . . . . . . . . . . . . . . . . . . . . . i

17

4. Definici´ on del problema

19

4.1. Objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

4.2. Material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

4.2.1. Informaci´on hiperespectral

. . . . . . . . . . . . . . . . . . . . .

20

4.3. Informaci´on LiDAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

4.4. Definici´on de tareas a realizar . . . . . . . . . . . . . . . . . . . . . . . .

27

5. Metodolog´ıa

30

5.1. Descripci´on de los datos . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

5.1.1. Sensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

5.1.2. Zona de trabajo . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

5.1.3. Vuelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

5.2. Georeferenciaci´on de imagen hiperespectral . . . . . . . . . . . . . . . .

33

5.2.1. Primera soluci´on: Georeferenciaci´on por puntos de control . . . .

33

5.2.2. Segunda soluci´on: Registro por fichero IGM . . . . . . . . . . . .

38

5.2.3. Discusi´on de resultados comparativos

. . . . . . . . . . . . . . .

40

5.3. Selecci´on de la regi´on de inter´es de datos hiperespectrales . . . . . . . .

41

5.4. An´alisis de los datos LiDAR . . . . . . . . . . . . . . . . . . . . . . . . .

41

5.4.1. B´ usqueda de informaci´on de los datos . . . . . . . . . . . . . . .

43

5.5. Selecci´on de la regi´on de inter´es de datos LiDAR . . . . . . . . . . . . .

56

5.5.1. Cambiar el formato de los ficheros . . . . . . . . . . . . . . . . .

56

5.5.2. Seleccionar regi´on de inter´es . . . . . . . . . . . . . . . . . . . . .

57

5.6. Fusi´on de los datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

60

5.6.1. Convertir datos LiDAR a raster

. . . . . . . . . . . . . . . . . .

60

5.6.2. Combinaci´on de datos . . . . . . . . . . . . . . . . . . . . . . . .

63

5.7. Verdad Terreno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

66

ii

5.8. Elecci´on del m´etodo empleado para realizar la clasificaci´on . . . . . . . .

69

5.8.1. SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

70

6. Resultados

71

6.1. Datos hiperespectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

72

6.1.1. Muestras de entrenamiento 1 % . . . . . . . . . . . . . . . . . . .

73

6.1.2. Muestras de entrenamiento 5 % . . . . . . . . . . . . . . . . . . .

78

6.1.3. Muestras de entrenamiento 10 % . . . . . . . . . . . . . . . . . .

82

6.2. Datos LiDAR (Altitud) . . . . . . . . . . . . . . . . . . . . . . . . . . .

86

6.2.1. Muestras de entrenamiento 1 % . . . . . . . . . . . . . . . . . . .

86

6.2.2. Muestras de entrenamiento 5 % . . . . . . . . . . . . . . . . . . .

91

6.2.3. Muestras de entrenamiento 10 % . . . . . . . . . . . . . . . . . .

95

6.3. Datos LiDAR (Altitud + Intensidad) . . . . . . . . . . . . . . . . . . . .

99

6.3.1. Muestras de entrenamiento 1 % . . . . . . . . . . . . . . . . . . .

99

6.3.2. Muestras de entrenamiento 5 % . . . . . . . . . . . . . . . . . . . 104 6.3.3. Muestras de entrenamiento 10 % . . . . . . . . . . . . . . . . . . 108 6.4. Datos fusionados: Hiperespectral + LiDAR (Altitud) . . . . . . . . . . . 112 6.4.1. Muestras de entrenamiento 1 % . . . . . . . . . . . . . . . . . . . 112 6.4.2. Muestras de entrenamiento 5 % . . . . . . . . . . . . . . . . . . . 117 6.4.3. Muestras de entrenamiento 10 % . . . . . . . . . . . . . . . . . . 122 7. Conclusiones & L´ıneas futuras

127

A. Documentaci´ on Programa Realizado

131

A.1. Documentaci´on usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 A.1.1. Instalaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 A.2. Funcionamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 iii

A.2.1. Mezclar ficheros

. . . . . . . . . . . . . . . . . . . . . . . . . . . 134

A.2.2. Seleccionar ROI

. . . . . . . . . . . . . . . . . . . . . . . . . . . 136

A.2.3. Desinstalaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 A.3. Documentaci´on programador . . . . . . . . . . . . . . . . . . . . . . . . 138 A.3.1. Mezclar ficheros

. . . . . . . . . . . . . . . . . . . . . . . . . . . 139

A.3.2. Seleccionar ROI

. . . . . . . . . . . . . . . . . . . . . . . . . . . 140

A.3.3. Instalador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 .

Bibliography

144

iv

´Indice de figuras 1.1. Rango de longitudes de onda de la luz. Fuente: www.esacademic.com. . .

2

2.1. Bandas imagen hiperespectral. . . . . . . . . . . . . . . . . . . . . . . .

5

2.2. Adquisi´on de im´agenes hiperespectrales mediante sat´elite. Fuente: Jawaharlal Nehru Architecture and Fine Arts University. . . . . . . . . . .

6

2.3. Obtenci´on de firmas espectrales [1]. . . . . . . . . . . . . . . . . . . . . .

7

2.4. Definici´on de concepto l´aser [2]. . . . . . . . . . . . . . . . . . . . . . . .

10

2.5. Visualizaci´on datos LiDAR. . . . . . . . . . . . . . . . . . . . . . . . . .

11

2.6. Adquisici´on de datos LiDAR mediante una aeronave. [3]. . . . . . . . . .

14

2.7. T´ecnicas de barrido por el sensor LiDAR [4]. . . . . . . . . . . . . . . .

14

2.8. Retornos de un haz de luz emitido por un sensor LiDAR [5]. . . . . . . .

15

4.1. Sensores utilizados la adquisici´on de datos. Fuente: INTA. . . . . . . . .

21

4.2. Visualizaci´on a trav´es de un mapa de adquisici´on de los datos de la Zona 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

4.3. Visualizaci´on a trav´es de un mapa de la adquisici´on de los datos de la Zona 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

5.1. Imagen del vuelo P41. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

v

5.2. Imagen para realizar el registro. . . . . . . . . . . . . . . . . . . . . . . .

34

5.3. M´etodo de georeferenciaci´on de im´agenes [6]. . . . . . . . . . . . . . . .

35

5.4. Imagen del vuelo P41 con los puntos de control elegidos. . . . . . . . . .

36

5.5. Imagen resultante del registro por puntos de control en el primer intento. 36 5.6. Forma geom´etrica utilizada al posicionar los puntos de control. . . . . .

37

5.7. Segunda imagen georeferenciada por puntos de control. . . . . . . . . . .

37

5.8. Resultado de la segunda imagen georeferenciada. . . . . . . . . . . . . .

38

5.9. Ficheros IGM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

5.10. Imagen resultante del registro mediante ficheros IGM. . . . . . . . . . .

39

5.11. Ficheros GLT generados. . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

5.12. Regi´on de la imagen elegida para realizar la clasificaci´on. . . . . . . . . .

42

5.13. Funcionamiento del sensor ASL60 LEICA [7]. . . . . . . . . . . . . . . .

44

5.14. Especificaci´on ficheros LAS. . . . . . . . . . . . . . . . . . . . . . . . . .

47

5.15. Nomenclatura utilizada para los datos clasificados en formato LAS. . . .

48

5.16. Fichero cabecera de ficheros LAS. . . . . . . . . . . . . . . . . . . . . . .

49

5.17. Visualizaci´on de datos LiDAR mediante ENVI. . . . . . . . . . . . . . .

50

5.18. Visualizaci´on de datos LiDAR con ARGIS. . . . . . . . . . . . . . . . .

51

5.19. Visualizaci´on de datos LiDAR por fichero. . . . . . . . . . . . . . . . . .

52

5.20. Visualizaci´on de datos LiDAR por l´ıneas de vuelo. . . . . . . . . . . . .

52

5.21. Visualizaci´on de datos LiDAR mediante MARS7. . . . . . . . . . . . . .

53

5.22. Visualizaci´on de datos LiDAR clasificados mediante MARS7. Los puntos rosas pertenecen a ruido y los grises a clases sin identificar. . . . . . . .

53

5.23. Visualizaci´on de datos LiDAR 3D mediante FURGO. . . . . . . . . . . .

54

5.24. Visualizaci´on de datos LiDAR mediante Global Mapper. . . . . . . . . .

55

5.25. Visualizaci´on de datos LiDAR 3D mediante Global Mapper. . . . . . . .

55

vi

5.26. Visualizaci´on de regi´on de inter´es mediante Global Mapper. . . . . . . .

58

5.27. Visualizaci´on de regi´on de inter´es mediante Global Mapper. . . . . . . .

59

5.28. Visualizaci´on 3D de regi´on de inter´es de datos LiDAR mediante Global Mapper. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

59

5.29. Raster generado por ENVI Tools. . . . . . . . . . . . . . . . . . . . . . .

62

5.30. Visualizaci´on del raster de elevaci´on mediante Conversion tools. . . . . .

63

5.31. Visualizaci´on del raster de intensidad mediante Conversion tools. . . . .

64

5.32. Visualizaci´on de la fusi´on. . . . . . . . . . . . . . . . . . . . . . . . . . .

66

5.33. Ejemplo verdad terreno. . . . . . . . . . . . . . . . . . . . . . . . . . . .

67

5.34. Verdad Terreno de cada una de las clases. . . . . . . . . . . . . . . . . .

68

5.35. Fusi´on de todas las verdad terreno. . . . . . . . . . . . . . . . . . . . . .

69

6.1. Imagen hiperespectral clasificada con 1 % de muestras. . . . . . . . . . .

73

6.2. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75

6.3. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75

6.4. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

76

6.5. Imagen hiperespectral clasificada con 5 % de muestras. . . . . . . . . . .

78

6.6. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79

6.7. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

80

6.8. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii

81

6.9. Imagen hiperespectral clasificada con 10 % de muestras. . . . . . . . . .

82

6.10. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

83

6.11. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

84

6.12. Im´agenes mon´ocromaticas de la clasificaci´on hiperespectral con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

84

6.13. Imagen LiDAR (Altitud) clasificada con 1 % de muestras. . . . . . . . .

87

6.14. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

88

6.15. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

89

6.16. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

89

6.17. Imagen LiDAR (Altitud) clasificada con 5 % de muestras. . . . . . . . .

91

6.18. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

92

6.19. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

93

6.20. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

93

6.21. Imagen LiDAR (Altitud) clasificada con 10 % de muestras. . . . . . . . .

95

6.22. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii

96

6.23. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

97

6.24. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud) con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.25. Imagen LiDAR (Altitud + Intensidad) clasificada con 1 % de muestras.

97 100

6.26. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . 101 6.27. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . 101 6.28. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . 102 6.29. Imagen LiDAR (Altitud + Intensidad) clasificada con 5 % de muestras.

104

6.30. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . 105 6.31. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . 105 6.32. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . 106 6.33. Imagen LiDAR (Altitud + Intensidad) clasificada con 10 % de muestras. 108 6.34. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . 109 6.35. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . 110 6.36. Im´agenes mon´ocromaticas de la clasificaci´on LiDAR (Altitud + Intensidad) con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . 110 ix

6.37. Imagen fusionada clasificada con 1 % de muestras. . . . . . . . . . . . . 113 6.38. Im´agenes mon´ocromaticas de la clasificaci´on de los datos fusionados con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 6.39. Im´agenes mon´ocromaticas de la clasificaci´on con datos fusionados con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 6.40. Im´agenes mon´ocromaticas de la clasificaci´on de datos fusionados con un 1 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 6.41. Imagen fusionada clasificada con 5 % de muestras. . . . . . . . . . . . . 118 6.42. Im´agenes mon´ocromaticas de la clasificaci´on de los datos fusionados con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.43. Im´agenes mon´ocromaticas de la clasificaci´on con datos fusionados con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.44. Im´agenes mon´ocromaticas de la clasificaci´on de datos fusionados con un 5 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.45. Imagen fusionada clasificada con 10 % de muestras. . . . . . . . . . . . . 123 6.46. Im´agenes mon´ocromaticas de la clasificaci´on de los datos fusionados con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 6.47. Im´agenes mon´ocromaticas de la clasificaci´on con datos fusionados con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 6.48. Im´agenes mon´ocromaticas de la clasificaci´on de datos fusionados con un 10 % de las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 A.1. Fichero ejecutable para comenzar la instalaci´on. . . . . . . . . . . . . . . 132 A.2. Ventanas del instalador del programa LIDAR. . . . . . . . . . . . . . . . 133 A.3. Ventanas del instalador del programa LIDAR. . . . . . . . . . . . . . . . 133 A.4. Ventanas del instalador del programa LIDAR. . . . . . . . . . . . . . . . 134 x

A.5. Programa LIDAR con la pesta˜ na de Mezclar Ficheros . . . . . . . . . . 135 A.6. Programa LIDAR con la pesta˜ na de Seleccionar ROI . . . . . . . . . . . 137 A.7. Ventana del programa LIDAR para desinstalar dicho software. . . . . . 139

xi

´Indice de tablas 2.1. Informaci´on proporcionada por datos LiDAR. . . . . . . . . . . . . . . .

13

4.1. Nombre de las clases elegidas para el estudio. . . . . . . . . . . . . . . .

20

4.2. Caracter´ısticas del sensor AHS. . . . . . . . . . . . . . . . . . . . . . . .

22

4.3. Puertos del sensor AHS. . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

4.4. Caraceter´ısticas sensor CASI 1500i. . . . . . . . . . . . . . . . . . . . . .

23

4.5. Coordenadas globales de cada vuelo en la Zona 1. . . . . . . . . . . . . .

25

4.6. Coordenadas globales de cada vuelo en la Zona 4. . . . . . . . . . . . . .

26

5.1. Comparaci´on de las caracter´ısticas de los sensores. . . . . . . . . . . . .

31

5.2. Coordenadas del vuelo P41. . . . . . . . . . . . . . . . . . . . . . . . . .

33

5.3. Tabla comparativa de resultados en la georeferenciaci´on de la imagen. .

41

5.4. Resumen de par´ametros de la Figura 5.12 . . . . . . . . . . . . . . . . .

42

5.5. Caracter´ısticas del sensor ASL60 Leica. . . . . . . . . . . . . . . . . . .

43

5.6. Coordenadas de la imagen LiDAR y de la imagen del vuelo P41. . . . .

50

5.7. Datos LiDAR en fichero de texto con cabecera 1/2. . . . . . . . . . . . .

56

5.8. Datos LiDAR en fichero de texto con cabecera 2/2. . . . . . . . . . . . .

57

5.9. Par´ametros de la transformaci´on LAS a raster mediante ENVI Tools. .

61

xii

5.10. Comprobaci´on de similitud de propiedades entre las im´agenes hiperespectral y LiDAR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

65

5.11. Coordenadas de la regi´on de inter´es de datos LiDAR y hiperespectral. .

65

6.1. Descripci´on del conjunto de muestras de entrenamiento. . . . . . . . . .

72

6.2. Par´ametros del algoritmo SVM para datos hiperespectrales. . . . . . . .

73

6.3. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos hiperespectrales con muestras de 1 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

77

6.4. Matriz de confusi´on por porcentaje de la clasificaci´on de datos hiperespectrales con muestras de 1 %. . . . . . . . . . . . . . . . . . . . . . . .

77

6.5. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos hiperespectrales con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81

6.6. Matriz de confusi´on por porcentaje de la clasificaci´on de datos hiperespectral con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . . . .

81

6.7. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos hiperespectral con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

85

6.8. Matriz de confusi´on por porcentaje de la clasificaci´on de datos hiperespectrales con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . . . .

85

6.9. Par´ametros del algoritmo SVM para datos LiDAR (altitud). . . . . . . .

86

6.10. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos LiDAR (Altitud) con muestras de 1 %. . . . . . . . . . . . . . . . . . . . . . . . . . .

90

6.11. Matriz de confusi´on por porcentaje de la clasificaci´on de datos LiDAR (Altitud) con muestras de 1 %. . . . . . . . . . . . . . . . . . . . . . . .

90

6.12. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos LiDAR (Altitud) con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . . . . . xiii

94

6.13. Matriz de confusi´on por porcentaje de la clasificaci´on de datos LiDAR (Altitud) con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . .

94

6.14. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos LiDAR (Altitud) con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . . . . . .

98

6.15. Matriz de confusi´on por porcentaje de la clasificaci´on de datos LiDAR (Altitud) con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . . . .

98

6.16. Par´ametros del algoritmo SVM para datos LiDAR (altitud + intensidad). 99 6.17. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos LiDAR (Altitud + Intensidad) con muestras de 1 %. . . . . . . . . . . . . . . . . . . . . . 103 6.18. Matriz de confusi´on por porcentaje de la clasificaci´on de datos LiDAR (Altitud) con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . . 103 6.19. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos LiDAR (Altitud + Intensidad) con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . 107 6.20. Matriz de confusi´on por porcentaje de la clasificaci´on de datos LiDAR (Altitud) con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . . 107 6.21. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos LiDAR (Altitud + Intensidad) con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . 111 6.22. Matriz de confusi´on por porcentaje de la clasificaci´on de datos LiDAR (Altitud) con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . . . . 111 6.23. Par´ametros del algoritmo SVM para datos LiDAR (altitud + intensidad).112 6.24. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos fusionados con muestras de 1 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 6.25. Matriz de confusi´on por porcentaje de la clasificaci´on de datos fusionados con muestras de 1 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 xiv

6.26. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos fusionados con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 6.27. Matriz de confusi´on por porcentaje de la clasificaci´on de datos fusionados con muestras de 5 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 6.28. Matriz de confusi´on por p´ıxel de la clasificaci´on de datos fusionados con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 6.29. Matriz de confusi´on por porcentaje de la clasificaci´on de datos fusionados con muestras de 10 %. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 7.1. Comparaci´on de p´ıxeles identificados entre la clasificaci´on de datos hiperespectrales y datos fusionados. . . . . . . . . . . . . . . . . . . . . . . 128 7.2. Porcentaje de muestras asignado a las clasificaciones de datos LiDAR (Altitud). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 A.1. Librer´ıas din´amicas del programa LIDAR. . . . . . . . . . . . . . . . . . 141

xv

Agradecimientos Me gustar´ıa comenzar agradeciendo la oportunidad que me han brindado Aurora y Antonio al depositar su confianza en m´ı, d´andome la oportunidad de realizar este trabajo con el que he disfrutado introduci´endome en el mundo de las im´agenes terrestres y de la investigaci´on. Tamb´ıen por su esfuerzo, apoyo y tiempo empleado para que esto pudiese llevarse a cabo. Quisiera agradecer a los miembros de HyperComp su c´alida bienvenida y su atenci´on, que recib´ı desde el primer d´ıa y que consiguieron que todo fuese m´as llevadero. A RRII Uex, que me ayudaron a ampliar mis horizontes profesionales y personales y sin ellos este trabajo no podr´ıa haberse llevado a cabo. A Julio, Carlos y en especial a Carol, que hicieron de aprender una diversi´on durante mi etapa universitaria. Por supuesto, una menci´on especial a mi famil´ıa. A mis padres, Antonio y Leo que me inculcar´on el valor, el esfuerzo y me demostrar´on siempre su apoyo y amor incondicional. A mi hermana M Jos´e, por estar siempre a mi lado por muy lejos que estes, por tus consejos y por ser un trocito de mi. Por u ´ltimo y no menos importante a H´ector, por tu apoyo y por alegrarme los d´ıas.

xvi

Cap´ıtulo 1

Introducci´ on Las t´ecnicas de teledetecci´on tienen como principio b´asico la luz debido a que sin ella la obtenci´on de valores no ser´ıa posible. Dependiendo de d´onde se obtenga la luz para obtener dichos valores se dividen los sensores activos y pasivos. Con el t´ermino de sensores activos se refiere a aquellos que emiten su propia luz mientras que sensores pasivos son aquellos que aprovechan la luz del sol. No es posible hablar de luz como t´ermino general cuando se trabaja con instrumentos de teledetecci´on. La luz se puede comportar como onda electromagn´etica o como part´ıcula. En este campo, el comportamiento de la luz es como onda electromagn´etica, por lo tanto, este documento s´olo se centrar´a en las caracter´ısticas que a este comportamiento se refiere. La luz est´a compuesta por diferentes ondas que se caracterizan por su longitud de onda o frecuencia y no todas son perceptibles por el ojo humano. Cada sensor trabaja con longitudes de ondas espec´ıficas que se encuentran en el espectro visible e infrarrojo como puede observarse en la Figura 1.1. Cuando se obtienen datos en una frecuencia concreta se obtiene informaci´on que desde otra longitud de onda podr´ıan haber sido imperceptibles. Por este motivo, es importante la selecci´on de ondas a utilizar y la combinaci´on de esta informaci´on en la clasificaci´on de clases. Para este estudio, se utilizan im´agenes hiperespectrales e im´agenes LiDAR y la combinaci´on de esta informaci´on para comprobar c´omo afecta en la clasificaci´on a dicha fusi´on. Las im´agenes hiperespectrales se componen de un gran n´ umero de ondas de frecuencia que puede variar desde decenas hasta pocos centenares. La caracter´ıstica particular de estas im´agenes se centra en la peque˜ na distancia entre 1

Cap´ıtulo 1: Introducci´on

2

Figura 1.1: Rango de longitudes de onda de la luz. Fuente: www.esacademic.com.

longitudes de onda dando como resultado una firma espectral en cada uno de sus p´ıxeles [8]. Las im´agenes LiDAR en cambio se componen s´olo de una onda de frecuencia que suele localizarse en la zona infrarroja. Este tipo de im´agenes tiene como objetivo captar la distancia a la que se encuentra cualquier objeto como puede ser un ´arbol o un edificio o incluso el nivel de profundidad del agua. Esto es posible a trav´es de la captaci´on de retornos cuando un haz de luz es emitido y por cada retorno captado lleva incluida su coordenadas cartesianas [4]. La fusi´on de ambos datos es posible gracias a la informaci´on de coordenadas globales de cada uno de sus p´ıxeles o retornos, esto es necesario para realizar una fusi´on de datos precisa. Adem´as, es necesario que ambos datos tengan similares caracter´ısticas de error y resoluci´on de terreno. Los estudios en la combinaci´on de estos tipos de datos cada vez va siendo mayor obteniendo resultados exitosos en la clasificaci´on donde la altura es un factor clave. El foco de estos estudios se encuentra en la utilidad que esto supone para el ´ambito forestal donde se debe tener un inventario con el n´ umero exacto de ´arboles que hay en una zona o para la agricultura, cartograf´ıa y medioambiente entre otros [8]. Por otra parte, la aparici´on de las nuevas tecnolog´ıas hace posible la tendencia de investigaci´on en la combinaci´on de este tipo de datos debido al abaratamiento del coste que supone la obtenci´on de estos y su capacidad de procesamiento junto con su almacenaje. Un proyecto a destacar el Espa˜ na que se est´a llevando a cabo en los u ´ltimo a˜ nos es el PNOA (Plan Nacional Orto fotograf´ıa A´erea) y que permitir´a el auge de este tipo de investigaciones en Espa˜ na.

3

1.1 Plan Nacional de Orto fotograf´ıa A´erea en Espa˜ na

1.1.

Plan Nacional de Orto fotograf´ıa A´ erea en Espa˜ na

En los u ´ltimos a˜ nos, el Instituto Geogr´ afico Nacional ha fomentado la cooperaci´ on entre las diferentes CCAA y el gobierno central para la producci´on de informaci´ on geogr´afica en Espa˜ na. Su objetivo es el de reducir costes y ofrecer un servicio homog´eneo y actualizado de todo el territorio de manera gratuita. Este proyecto, denominado Plan Nacional de Orto fotograf´ıa A´erea en Espa˜ na, se encarga de la adquisici´on de datos, su procesado y la extracci´on de informaci´on para ofrecer productos listos para su utilizaci´on [9]. Estos productos se dividen principalmente en: Fotograf´ıas digitales de cuatro bandas (RGBI) y pixel 9, 22 y 45cm. Ficheros LiDAR (Formato LAS) con 0.5 p/m2 , distancia nominal entre puntos 1.4 y precisi´on altim´etrica de la nube de puntos menor o igual a 0.2m. Modelo Digital de Elevaciones (Modelo Digital del Terreno y Modelo Digital de Orto proyecci´on) con GRID 5x5m. Al igual que en otros campos, la tecnolog´ıa tiene como objetivo automatizar el proceso de detecci´on de im´agenes en la observaci´on de la tierra. Hasta ahora, con im´agenes hiperespectrales se obtienen resultados de gran eficacia si la imagen tiene una resoluci´on espacial alta y se utiliza un algoritmo de clasificaci´on adecuado obteniendo una precisi´on mayor del 90 %. Normalmente estas clasificaciones se centran en clases donde los objetos son bien diferenciados por el color o propiedades f´ısicas como puede ser la humedad o el calor. Sin embargo, una propiedad de las clases que no est´a muy estudiada en este campo es la altura que se a˜ nade con la informaci´on LiDAR. Aunque se han realizado estudios, no existe a´ un un procedimiento claro de trabajo para saber c´omo sacar el mayor provecho a esta nueva informaci´on o en qu´e casos no es necesario. Por este motivo, este estudio combina ambos tipos de informaci´on con sus determinadas propiedades para a continuaci´on, clasificar clases donde imagenes hiperespectrales obtienen buenos resultados y comprobar si se obtiene una mejora en la identificaci´on para estos casos. Si en este estudio, la mejor´ıa de resultados da positivo significar´ıa que los datos LiDAR mejoran los resultados en todo tipo de clasificaciones mientras que en caso negativo, se demostrar´ıa que s´olo en aquellos casos donde la altura juega un papel importante.

Cap´ıtulo 2

Antecedentes A continuaci´on, se definen los datos con los que se trabajar´an en este estudio: datos hiperespectrales y datos LiDAR.

2.1. 2.1.1.

Datos hiperespectrales Concepto

Imagen hiperespectral hace referencia a un conjunto de im´agenes monocrom´aticas donde cada uno de sus p´ıxeles contiene un valor discreto dentro de un rango de valores que se conoce como resoluci´on radiom´etrica y con ´el se define el n´ umero de niveles digitales que se utiliza para expresar los datos recogidos por el sensor. Este conjunto de im´agenes son tomadas por un sensor al mismo tiempo sobre una misma escena. Cada imagen monocrom´atica est´a tomada sobre una longitud de onda diferente pudiendo estar contenida en el espectro visible o el infrarrojo. El valor discreto de cada p´ıxel se refiere a la intensidad de la longitud de onda que ha percibido el sensor en la imagen que se toma para captar informaci´on en dicha longitud de onda. Este tipo de im´agenes son muy u ´tiles debido a que adem´as de medir la intensidad en una longitud de onda dada sobre el espectro visible, lo hace sobre el infrarrojo captando informaci´on que no es posible a trav´es del ojo humano. En la Figura 2.1, se muestra distintas bandas de la imagen que se clasificar´a en este trabajo donde cada una de ellas tiene una longitud de onda diferente. El n´ umero de longitudes de ondas o bandas puede ser desde decenas a pocos cen4

5

2.1 Datos hiperespectrales

(a) Banda de imagen hiperespectral to- (b) Banda de imagen hiperespectral tomada con 403,8nm mada con 811,1nm

(c) Banda de imagen hiperespectral to- (d) Banda de imagen hiperespectral tomada con 729,9nm mada con 859,0nm

Figura 2.1: Bandas imagen hiperespectral. tenares. Por este motivo, a este tipo de im´agenes puede llamarse cubo de informaci´ on por la gran cantidad de informaci´on que almacena. Las frecuencias utilizadas dependen del sensor utilizado y dependiendo de la aplicaci´on que le demos a estas im´agenes ser´an m´as interesantes unos que otros. La caracter´ıstica de este tipo de imagen que la diferencia de la dem´as, es que la distancia que separa dos longitudes de onda contiguas debe ser lo suficiente peque˜ na para obtener una firma espectral en cada uno de sus p´ıxeles que permita diferenciar a clases similares. Por u ´ltimo, las caracter´ısticas que diferencian a unas im´agenes de otras son: el n´ umero de bandas, la resoluci´on espacial, la resoluci´on radiom´etrica y el tama˜ no de sus imagen monocrom´atica [6]. Estos valores vienen definidos por el sensor utilizado para su obtenci´on.

2.1.2.

Obtenci´ on de datos

La obtenci´on de los datos se realiza a trav´es de sensores que son dispositivos pasivos capaces de capturar una escena en diferentes longitudes de ondas al mismo tiempo.

Cap´ıtulo 2: Antecedentes

6

Al tratarse de sensores pasivos, necesita un agente externo que proporcione luz para capturar su reflejo utiliz´andose la luz solar para ello. Por este motivo, los sat´elites se encuentran sincronizados a la ´orbita del sol para aprovechar en todo momento la luz solar cuando el sensor se encuentra en un sat´elite. Aunque no siempre se toman a trav´es de sat´elites, como es el caso de las im´agenes con las que se trabaja en este estudio, que est´an tomadas desde una avioneta. Entre estas longitudes de ondas no hay m´as de entre 5 y 10nm para proporcionar una firma espectral por p´ıxel lo suficientemente n´ıtida para diferenciar objetos o materiales similares. Adem´as, cada sensor lleva integrado un sistema GPS/IMU que se trata de un sistema de navegaci´on inercial para tener localizado el sensor en cada momento y poder a˜ nadirle coordenadas del mundo a cada p´ıxel tomado. En la Figura 2.2 se muestra a un sat´elite tomando im´agenes de una escena.

Figura 2.2: Adquisi´on de im´agenes hiperespectrales mediante sat´elite. Fuente: Jawaharlal Nehru Architecture and Fine Arts University. El sensor que es utilizado para captar la imagen influye en las caracter´ısticas de la imagen resultante. Algunas de ellas son: tama˜ no del p´ıxel, n´ umero de l´ıneas y muestras (filas y columnas), resoluci´on radiom´etrica y n´ umero de bandas y distancia entre ellas. Otros valores que influyen en la imagen resultante son el barrido que utiliza o el ´angulo de visi´on entre otros. Existen otros par´ametros procedentes del vuelo que influyen en los datos resultantes, estos son: altitud a la que se encontraba el sensor, la trayectoria

7

2.1 Datos hiperespectrales

o el tiempo meteorol´ogico que hubo en el momento de la captura de la imagen.

2.1.3.

An´ alisis de datos

La clasificaci´on de datos tiene en cuenta tanto la informaci´on espacial como espectral de la que es posible obtener la firma espectral o endmember de cada p´ıxel. Con la firma espectral es posible apreciar caracter´ısticas que desde el ojo humano no son perceptibles como es la temperatura o el agua que contiene una planta. Por este motivo, esta informaci´on es de gran utilidad en campos como la agricultura, ciencias forestales, la geolog´ıa y la climatolog´ıa y en los u ´ltimos a˜ nos, se ha comenzado su utilizaci´on el campo de la medicina. La firma espectral se obtiene eligiendo un p´ıxel y uniendo todas las bandas que componen la imagen. Este fen´omeno se muestra en la Figura 2.3.

(a) Imagen hiperespectral.

(b) Firmas espectrales obtenidas de los p´ıxeles de la imagen hiperespectral.

Figura 2.3: Obtenci´on de firmas espectrales [1]. El an´alisis de los datos se lleva a cabo de una manera diferente dependiendo de su aplicaci´on y objetivo en concreto. En este estudio, el objetivo final es una clasificacin autom´atica de clases definidas previamente. Por lo tanto, se tratar´a en este apartado una visi´on general de las opciones que se disponen para realizar esta operaci´on. Los clasificadores que se utilizan m´as frecuentemente se agrupan en dos grupos bien diferenciados: clasificaci´on supervisada y clasificaci´on no supervisada. Hay ocasiones en la que estas t´ecnicas independientemente no obtienen unos resultados ´optimos. Por esta raz´on, ha aparecido una nueva t´ecnica que combina ambos m´etodos llamada metodo-

Cap´ıtulo 2: Antecedentes

8

log´ıa h´ıbrida supervisada/no supervisada. A continuaci´on se detallan estas t´ecnicas y se nombran sus principales algoritmos [6]. Clasificaci´ on supervisada La caracter´ıstica de esta t´ecnica es que debe tener suficientes p´ıxeles identificados de cada una de las clases de inter´es. El motivo de esto, es generar una firma espectral gen´erica para utilizar en la clasificaci´on de cada una de las clases de inter´es, a estos p´ıxeles se le llamar´an muestras de entrenamiento. La muestras de entrenamiento deber´an comprenden un rango entre 1-5 % p´ıxeles de la imagen completa. La firma espectral generada de las mismas muestras de entrenamiento por diferentes algoritmos es diferente debido a que cada uno de ellos centra su atenci´on en relaciones diferentes de los datos. El siguiente paso tras generar estas firmas de cada una de las clases es analizar todos los p´ıxeles que no se han utilizado como muestras de entrenamiento. Los algoritmos m´as conocidos son: Maximum likelihood, Minimum distance, Parallelepiped, Neural Net y Support Vector Machine. Clasificaci´ on No Supervisada Los algoritmos que pertenecen a este grupo clasifican todos los p´ıxeles de la imagen sin tener ninguna informaci´on previa. El resultado de esto es una clasificaci´on por cluster, agrupando aquellos p´ıxeles que tienen igual o similar firma espectral. El problema de este procedimiento es un alto tiempo computacional. Una vez que esta clasificaci´on se ha realizado es necesario identificar cada grupo de p´ıxeles con una o varias clases de inter´es. Los algoritmos m´as populares son: Iso Data y k -Means. Metodolog´ıa hibr´ıda Supervisado/No supervisado La combinaci´on de ambos m´etodos utiliza el algoritmo Maximum Likelihood de la clasificaci´on supervisada debido a su gran aceptaci´on. La clasificaci´on supervisada u ´nicamente posee una firma espectral por clase y ocasiones esto no es suficiente. Mientras que la clasificaci´on no supervisada supone un alto coste computacional, por ese motivo se utiliza una regi´on de la imagen que represente a toda esta. Los pasos para esta metodolog´ıa son los siguientes: 1. Aplicar el algoritmo de clasificaci´on no supervisada sobre una regi´on de la imagen.

9

2.2 LiDAR

2. Identificar mediante un mapa verdad terreno cada cluster. Puede haber por una clase de inter´es varios clusters. 3. Evaluar la clasificaci´on mediante la selecci´on de caracter´ısticas para ver si la clasificaci´on es precisa. 4. Realizar la clasificaci´on de la imagen completa median el algoritmo Maximum likelihood con el grupo de clusters identificado anteriormente. 5. Identificar cada p´ıxel mediante el mapa verdad terreno.

2.2.

LiDAR

El acr´onimo LiDAR proviene de su original nombre Light Detection and Ranging. LiDAR es una tecnolog´ıa que apareci´o en el a˜ no 1973 cuando se intentaba mejorar la t´ecnica del l´aser para el estudio de la atm´osfera [10]. Por lo tanto, para comprender como funciona y se originan los datos provenientes de esta tecnolog´ıa se detallar´an los principios del l´aser. LiDAR es el m´etodo m´as preciso del que se dispone para generar informaci´on espacial georeferenciada con forma de la superficie terrestre [3]. Es necesario conocer informaci´on t´ecnica sobre c´omo se toman estos datos para entender y tomar decisiones en toda clase de proyectos relacionados con este tipo de datos. Su precisi´ on es tan alta que es posible construir modelos 3D a trav´es de la informaci´on obtenida mediante este tipo de sensores [11].

2.2.1.

L´ aser

L´aser cuyas siglas significa Light Amplification by Stimulated Emission of Radiation es una luz monocrom´atica, direccional, coherente y se puede enfocar agudamente. L´aser en definitiva, es un dispositivo que emite luz a trav´es de un proceso de ampliaci´on ´optica basada en la emisi´on estimulada. Esta emisi´on estimulada tiene lugar cuando un fot´ on interact´ ua con un sistema at´omico que se encuentra en un estado superior, el sistema baja su estado y adquiere las caracter´ısticas del fot´on con el que ha interactuado. Tras varias ejecuciones de este proceso se produce una cascada de fotones. Una representaci´ on de este proceso se muestra en la Figura 2.4.

Cap´ıtulo 2: Antecedentes

(a) Cascasda de fotones.

10

(b) Luz monocrom´ atica, direccional, coherente y enfocable.

Figura 2.4: Definici´on de concepto l´aser [2]. Finalmente en el sistema at´omico todos los fotones adquieren la misma energ´ıa, direcci´on, fase y estado de polarizaci´on. Para direccionar el haz de luz, todo esto se produce entre dos espejos, con lo que se consigue direccionar a estos fotones.

2.2.2.

Concepto

Aunque LiDAR tiene sus bases en el l´aser cuyo mecanismo se han explicado en el apartado anterior difiere de este en que emite haces de luz en vez de ondas de radio. Se trata de una tecnolog´ıa que mide distancias y con ella es posible conocer el aspecto de la superficie de la tierra. Esta informaci´on se construye a trav´es de los retornos que se reciben de cada haz de luz que emite el sensor pudiendo recibir hasta un m´aximo de cinco por cada uno de sus haces. Usualmente, se presenta esta informaci´on mediante ficheros de formato LAS [12]. Los datos LiDAR se pueden dividir en: aquellos donde el haz de luz se representa en una onda con los retornos recibidos de cada haz de luz y en aquellos donde los retornos se representan c´omo puntos independientes detectados por el esc´aner. A cada uno de los retornos se le asocia unas coordenadas geogr´aficas que permite identificar el retorno en la superficie y realizar innumerables operaciones con dicha informaci´on. Visualmente la informaci´on tiene un aspecto como la que presenta en la Figura 2.5. Estos datos usualmente se presenta mediante una escala de colores que distribuye su rango de valores dentro del rango que poseen los datos, en la imagen 2.5 se han presentado mediante una escala de colores que van desde el m´as bajo en azul hasta el valor m´as alto en rojo. Con estas im´agenes se aprecia el potencial que poseen estos datos, en la Figura 2.5 a) se pueden diferenciar puntos rojos repartidos toda la imagen que se refieren

11

2.2 LiDAR

(a) Imagen LiDAR a gran escala.

(b) Imagen LiDAR en detalle.

Figura 2.5: Visualizaci´on datos LiDAR. probablemente a edificios y la zona que tiene el azul m´as intenso se corresponde con el cauce del r´ıo. En la siguiente Figura 2.5 b), se distingue la figura de un ´arbol a peque˜ na escala, destacando la alta precisi´on de los datos que se coment´o anteriormente. Una vez, presentado los datos gr´ aficamente y sabiendo toda la informaci´on que se puede obtener de ellos, se detallan la informaci´on procedente de los datos brutos que se obtiene tras un vuelo y de donde derivan todos los productos que proceden de LiDAR. Nos centraremos en aquellos datos que guardan la informaci´on de los retornos captados independientemente debido a que se trabajar´a con este tipo de datos m´as adelante. Las propiedades de cada punto de retorno var´ıa dependiendo del sensor utilizado en cada caso. A continuaci´ on, expondremos los par´ametros m´as comunes que de los que se obtiene informaci´ on: 1. X. T´ermino Este en coordenadas geogr´aficas cartesianas. 2. Y. T´ermino Norte en coordenadas geogr´aficas cartesianas. 3. Z. T´ermino de altitud. 4. Intensidad. Intensidad del retorno reflectado.

Cap´ıtulo 2: Antecedentes

12

5. N´ umero de retorno. Posici´on ordinal del retorno correspondiente a un mismo haz. 6. N´ umero de retornos. N´ umero m´aximo de retornos que experimenta el haz de luz del que proviene. 7. Clasificaci´ on. Si tiene alguna clase asociada, se asociar´a un n´ umero que representa dicha clase. ´ 8. Angulo de escaneado. Se trata del ´angulo que forma el haz de luz emitido con el eje vertical desde el centro del l´aser hasta el suelo. Puede ser tanto positivo como negativo y no suele exceder de los 15 grados. 9. Tiempo GPS. Tiempo preciso que ´ındica el tiempo en el que un pulso de luz fue emitido. Se puede utilizar como identificador de un pulso [4]. La informaci´on que se presenta en la Tabla 2.1 se refiere a datos brutos. Estos datos tras su obtenci´on regularmente se tratan para establecen un valor u ´nico para la Z en grupos de p´ıxeles seg´ un diferentes criterios o se construyen modelos digitales de elevaci´on para los cuales LiDAR es la herramienta m´as precisa hasta ahora. El formato est´andar para presentar los datos es mediante el mecanismo LASzip [12]. Esta t´ecnica permite almacenar grandes cantidades de puntos en un mismo fichero. Se trata de un fichero binario por lo que la misma cantidad de informaci´on es mucho menor que en un fichero de texto y su procesado m´as r´apido.

2.2.3.

Obtenci´ on de datos

LiDAR es una tecnolog´ıa donde su sensor activo permite coleccionar datos durante la noche cuando hay menos interferencias. Es utilizado para medir las distancias en la superficie de la tierra, que es posible midiendo los tiempos en que el retorno es capturado, el ´angulo a que el haz fue emitido y la localizaci´on absoluta del sensor. De cada haz de luz emitido captura sus retornos cada vez que este experimenta una reflexi´on. El n´ umero m´aximo de retornos es cinco, como comentamos anteriormente aunque es posible que alguno de estos se pierda [5]. Nuestro inter´es reside en su aplicaci´on sobre el campo de la topograf´ıa y la observaci´on del terreno. Para coleccionar los datos en el campo topogr´afico, el sensor es posicionado en una aeronave para sobrevolar el terreno

13

2.2 LiDAR

X

Y

Z

Intensity

Return number

Number of returns

249.574,330 249.574,140 249.573,960 249.573,760 249.573,540 249.573,390 249.573,170 249.573,310 249.572,950 249.573,040

4.446.042,020 4.446.039,680 4.446.037,270 4.446.034,940 4.446.032,570 4.446.030,190 4.446.027,810 4.446.025,170 4.446.025,480 4.446.022,840

564,880 564,780 564,780 564,430 563,800 564,280 563,720 569,290 562,980 567,830

101 81 81 77 123 59 87 2 58 1

1 1 1 1 1 1 1 1 2 1

1 1 1 1 1 1 1 2 2 1

Tabla 2.1: Informaci´on proporcionada por datos LiDAR. donde se encuentran los datos de inter´es en ese momento. Los rayos de luz son emitidos por haces ortogonales al vuelo y cubriendo una zona controlada que se corresponde con un ´angulo llamado campo de visi´on (Field Of View ). A Cada uno de los retornos detectados por el escaner se le asocian unas coordenadas globales gracias al sistema GPS/IMU que integran. El mecanismo de teledetecci´on LiDAR est´a compuesto por varios instrumentos donde cada uno tiene su funci´on. Estos instrumentos se muestran en la Figura 2.6 durante la adquisici´on de datos. A continuacin se describe cada uno de ellos: Dispositivo l´ aser, se encarga de emitir los haces de luz y contiene un esc´aner para detectar los retornos. Sistema de navegaci´ on inercial (IMU), continuamente almacena la orientaci´on, velocidad y las fuerzas gravitatorias de la aeronave. Sistema de posicionamiento preciso GPS, almacena la posici´on de la aeronave en el espacio. Este sistema requiere tambi´en una estaci´on GPS base a menos de 50km. No todos los sensores recogen la informaci´on en el mismo orden debido a que existen diferentes t´ecnicas de barrido. Las diferentes t´ecnicas se muestran en la Figura 2.7.

Cap´ıtulo 2: Antecedentes

14

Figura 2.6: Adquisici´ on de datos LiDAR mediante una aeronave. [3].

Figura 2.7: T´ecnicas de barrido por el sensor LiDAR [4]. M´ ultiple retorno El dispositivo l´ aser emite haces de luz que tienen un di´ametro aproximado de 10cm. Lo que supone que un mismo haz puede tener diferentes retornos cuando el obst´aculo con el que choca no ocupa todo el di´ ametro que este tiene. Teniendo como cinco el n´ umero m´aximo de retornos. Esta es la caracter´ıstica m´ as destacada de esta tecnolog´ıa debido a que ning´ un m´etodo de teledetecci´ on permite traspasar objetos pero gracias a la densidad de este es

15

2.2 LiDAR

Figura 2.8: Retornos de un haz de luz emitido por un sensor LiDAR [5]. posible seguir detectando objetos tras haber detectado uno anterior. En la Figura 2.8 se muestra como es posible que un u ´nico haz de luz devuelva cinco retornos atravesando un ´arbol. LiDAR batim´ etrico Cuando el l´aser choca con agua parte de la luz es captada como retorno y la parte refractada continua avanzando siendo posible obtener retornos que nos indiquen la profundidad que tiene un r´ıo por ejemplo. Permite calcular distancias bajo el agua con profundidades desde 0.9m hasta 40m. En estos casos depende la claridad del agua y la frecuencia utilizada en el l´aser siendo m´as id´oneas las frecuencias que corresponden a los colores verde o azul.

2.2.4.

An´ alisis de datos

En el caso de los datos LiDAR no hay una aplicaci´on clara aunque varias son las aplicaciones donde se hace uso de estos datos. Hoy en d´ıa, se utiliza para realizar modelos de elevaci´on precisos que sirven de utilidad en el campo de la topograf´ıa y en el ´ambito forestal. Tambi´en se utilizan para hacer balance en el caso de desastres naturales o para observar el cambio clim´atico en el paso del tiempo. Otra utilizaci´on que se est´a llevando a cabo en los u ´ltimos a˜ nos es su combinaci´on con datos LiDAR debido a

Cap´ıtulo 2: Antecedentes

16

que se espera grandes expectativas. Y por u ´ltimo, el an´alisis de la atm´osfera donde surgi´o LiDAR a trav´es de una variaci´on en los l´aseres. Su aplicaci´on en este estudi´o ser´a su combinaci´on con datos hiperespectrales por lo que los m´etodos de clasificaci´on ser´an los mismos que los comentados anteriormente.

Cap´ıtulo 3

Estado del arte En este apartado se describen los trabajos realizados anteriormente con el mismo propos´ıto y los resultados obtenidos. Comprobaremos si se ha realizado alg´ un trabajo similar para poder contrastar resultados.

3.1.

Fusi´ on hiperespectral m´ as LiDAR

Como ya se coment´o anteriormente, la clasificaci´on de im´agenes a´ereas mediante sensores hiperespectrales ha sido muy estudiada y gracias a la alta resoluci´on que ofrecen hoy en d´ıa se han conseguido resultados en clasificaci´on de m´as del 90 % en muchas ocasiones [13]. Tras el ´exito de estos resultados, se han comenzado a definir clases m´ as en profundidad como es el caso de diferentes tipos de ´arboles o vegetaci´on pero estos resultados no son tan precisos como los obtenidos anteriormente. Esto se debe a que la informaci´on vertical o la estructura es un factor clave en estas nuevas clasificaciones y de aqu´ı surge la necesidad de introducir datos LiDAR para una clasificaci´on m´as exacta. En los u ´ltimos a˜ nos, ha aumentado el n´ umero de estudios dedicados combinar ambos datos siendo una nueva l´ınea de investigaci´on [14]. Adem´as, se est´a estudiando la eficacia que tiene LiDAR para reducir costes en la adquisici´on de datos hiperespectrales, es decir, en reducir la resoluci´on de estos datos hiperespectrales y en su lugar a˜ nadir datos LiDAR para obtener unos resultados similares mediante la extracci´on de caractersticas a trav´es datos hiperespectrales de alta resoluci´on [15]. Tambi´en ha surgido un prototipo de aplicaci´on que tiene como usuario final aquellos que trabajan en el ´ambito forestal y trata de obtener detallada informaci´on de la 17

Cap´ıtulo 3: Estado del arte

18

vegetaci´on y los ´arboles que hay en una zona para que pueda servir en la tarea que deben realizar estos como es el inventario de ´arboles de una zona concreta [16]. Tras los buenos resultados conseguidos en la combinaci´on de estos datos se ha comenzado a utilizar para otras aplicaciones como conocer las consecuencias de los huracanes en EEUU. Para este fin, es necesario el uso de datos temporales, es decir, colecciones de datos sobre la misma zona en diferentes fechas. El objetivo de este proyecto se centra en detectar estuarios y macro algas bajo el agua a trav´es del LiDAR batim´etrico para conocer las consecuencias que estos fen´omenos tienen sobre los estuarios y estas macro algas [17]. Nuevas metodolog´ıas e instrumentos han surgido para la combinaci´on de estos datos como capturar ambos datos en el mismo vuelo para obtener mayor similitud en caracter´ısticas como la iluminaci´on o condiciones meteorolog´ıcas en su fusi´on. Otras caracter´ısticas que pueden influir son: la radiaci´on solar, la altura del vuelo o la evoluci´on de la escena si los datos se tomaron en fechas diferentes. Junto con esta t´ecnica de obtener los datos al mismo tiempo existe una herramienta con la cual el resultado es un conjunto de puntos 3D donde todos ellos tienen informaci´on hiperespectral [18]. Con esta nueva metodolog´ıa se ha desarrollado una herramienta por Finnish Geodetic Institute (FGI). La eficacia de esta herramienta ha sido testeada en la concentraci´on de nitr´ogeno en plantas dando un resultado favorable a los datos obtenidos siendo contrastados con la estimaci´on de nitr´ogeno calculada a partir de los ´ındices de vegetaci´on [19]. LiDAR no s´olo comprende la altura sino tambi´en la estructura de una zona siendo capaz de construir modelos 3D si la calidad es lo suficientemente buena, esto tambi´en supone una nueva forma de analizar los datos que no debe depender s´olo del valor de un p´ıxel en concreto si no de los que est´an a su alrededor. Hasta ahora no hay muchos trabajos publicados sobre este tema ni se ha establecido ninguna t´ecnica de an´alisis o la combinaci´on de estos como est´andar. Realizandose en algunos casos esta fusi´on de ambos en un cubo de informaci´on o una nueva t´ecnica de combinar ambos como se ha visto anteriormente. La contribuci´on de este trabajo consistir´a en el an´alisis de im´agenes hiperespectrales de alta resoluci´on junto con datos LiDAR sobre clases donde los datos hiperespectrales ya realizan una buena clasificaci´on y se examinar´a c´omo afecta la combinaci´on de estos datos para este caso.

Cap´ıtulo 4

Definici´ on del problema La observaci´on del terreno es un campo que est´a mejorando a una gran velocidad. Aunque se obtienen buenos resultados no son suficientes en el presente debido a la gran cantidad de informaci´on que se dispone y a los avances tecnol´ogicos. La precisi´on de estos datos supone un gran ahorro de esfuerzo manual empleado y coste econ´omico en otras ´areas. Los datos para realizar estudios cada vez son m´as accesibles y los costes m´as bajos. Como consecuencia de esto, ha surgido este estudio combinando dos tipos de datos procedentes de sensores con caractersticas muy diferentes sobre una misma zona de rural.

4.1.

Objetivo

La informaci´on aportada sobre una zona por datos hiperespectrales es muy rica siendo mayor que la capacidad de observaci´on por el ojo humano. Su consecuencia es que esta informaci´on junto con grandes algoritmos de clasificaci´on es capaz clasificar im´agenes terrestres con gran exactitud. Sin embargo, esta exactitud no es suficiente cuando las clases de inter´es necesitan m´as componentes para diferenciarlas como es el caso de la altura. Anteriormente se han realizado estudios de ambos tipos de informaci´on combinados obteniendo mejor resultados de clasificaci´on donde la altura era un factor clave para unos buenos resultados. En estos estudios el caso era muy concreto centr´andose principalmente en diferenciar varios tipos de vegetaci´on. Tras los buenos resultados obtenidos, se abre el debate a si estos dos datos deber´ıan de combinarse en todo tipo de situaciones y s´ı son siempre un valor a˜ nadido a los datos hiperespectrales 19

Cap´ıtulo 4: Definici´on del problema

20

Nombre de las clases Asfalto Suelo Agua Camino ´ Arbol Edificio Tabla 4.1: Nombre de las clases elegidas para el estudio. o el ´exito de los estudios anteriores son casos aislados. Por estos motivos, este trabajo propone combinar ambos datos en una misma estructura debido a que los datos LiDAR al igual que los hiperespectrales se obtienen a partir de una longitud de onda pudiendo ser com´ un incluso en alg´ un caso. Tras combinar ambos datos, se realizar´a una clasificaci´on para compararla con la misma clasificaci´on de ambos datos independientemente y comprobar si se trata de un valor a˜ nadido en caso general. Las clases de inter´es son un factor clave, por eso se ha decidido elegir aquellas donde los datos hiperespectrales obtienen buenos resultados y ver c´omo afecta su mejor´ıa en la clasificaci´on y si en alg´ un caso perjudica a alguna de las clases. Las clases de inter´es aparecen en la Tabla 4.1.

4.2.

Material

En esta secci´on se describir´an los datos de que se dispone para realizar el proyecto junto con sus caracter´ısticas y los sensores con los que han sido capturados para un mayor entendimiento y mejor capacidad de decisi´on.

4.2.1.

Informaci´ on hiperespectral

Las im´agenes hiperespectrales fueron obtenidas por el Instituto Nacional de T´ecnica Aeroespacial (INTA) y cedidas por la Universidad de Valencia. Los datos se adquirieron en un mismo vuelo por dos sensores diferentes: AHS y CASI1500i que tomaron datos sobre dos zonas diferentes. Los vuelos fueron realizados el 4 de Octubre de 2014 y comenz´o a obtenerse informaci´on a partir de las 11:00 UTC. La Zona 1 que se corresponde con Majadas del Ti´etar que fue la primera sobre la c´ ual se obtuvieron datos y seguidamente la Zona 4 cuyos datos se adquirieron en la parcela Praones. En las

21

4.2 Material

secciones siguientes se describiran las caracter´ısticas de los sensores y las zonas donde se tomaron los datos juntos con sus coordenadas. Caracter´ısticas t´ ecnicas de los sensores Las propiedades que posee un sensor son un punto b´asico a la hora de decisi´on debido a que las propiedades de estos son las caracter´ısticas de su producto y dependiendo del uso ser´ a m´ as interesante uno u otro en un caso concreto. Por lo tanto, a continuaci´ on definiremos las peculiaridades de cada uno de los sensores que aparecen en la Figura 4.1 para m´ as adelante decidir cu´al es m´as interesante para el objetivo de este trabajo.

(a) Sensor CASI1500i.

(b) Sensor AHS.

Figura 4.1: Sensores utilizados la adquisici´on de datos. Fuente: INTA. Sensor AHS Las caracter´ısticas del sensor AHS se resumen en la Tabla 4.2. Los puertos que aparecen en la Tabla 4.2 son en realidad cinco diferentes puertos donde cada uno se corresponde con un rango de bandas espectrales a detectar y se describen en la Tabla 4.3. Para m´ as informacin sobre sus caracter´ısticas y como procesan las im´agenes tomadas por este sensor consultar el informe realizado por INTA [20].

Cap´ıtulo 4: Definici´on del problema

22

Dise˜ no ´ optico

Espejo de escaneo m´as ´optica reflectada con un u ´nico IFOV (Instantaneus Field Of View ). Utiliza la t´ecnica de barrido mec´anico

FOV/IFOV

90o / 2,5nm

Distancia muestras de superficie

2,1mrad (0,12grados)

Velocidades de escaneo

12,5, 18,75, 25, 35Hz con distancia de muestras desde 7 a 2metros

Resoluci´ on radiom´ etrica

12bits por p´ıxel con aumento de x0,25 a x10

Muestras por l´ınea de escaneo

750 p´ıxeles/l´ınea

Fuentes de referencia

Dos cuerpos negros t´ermicos controlados dentro del campo de visi´on apuntan a una temperatura entre 15o C y 25o C con respecto a la temperatura del disipador de calor del esc´aner central

Espectr´ ometro

Cuatro filtros dicroicos dividen la radiaci´on en cuatro puertos ´opticos y redes de difracci´on dentro de cada detector de puertos Tabla 4.2: Caracter´ısticas del sensor AHS.

Puerto 1 Visible + NIR

Puerto 2A SWIR

Puerto SWIR

Cobertura

430-1025

1550-1650

1900-2550

3300-5400

8000-13000

Ancho de banda (FWHM)

28nm

90nm

18nm

300nm

450nm

N bandas

20

1

42

7

10

Tabla 4.3: Puertos del sensor AHS.

2

Puerto MIR

3

Puerto TIR

4

23

4.2 Material

Dise˜ no ´ optico

Utiliza la t´ecnica de barrido pushbroom a trav´es de dos dimensional CCD (Couple charge device)

FOV/IFOV

40o / 0.5nm

Distancia muestras de superficie

Alrededor de 3nm

Velocidades de escaneo

Almacena 20M b/segundo

Resolucin radiom´ etrica

14 bits por p´ıxel

Muestras por l´ınea de escaneo

1500 p´ıxel por l´ınea

Fuentes de referencia

Frames negros y de uniformidad son autom´aticamente captados antes y despu´es de cada escena usando una rueda montada en la parte frontal de la apertura. Frames negros son usados para producir una salida a radiancia cero.

Espectr´ ometro

Es posible de medir la escena hasta en un m´aximo de 288 bandas. Estas pueden estar en cualquier valor dentro del rango entre 380nm y 1050nm con una distancia m´ınima entre cada una de 2.4nm. Tabla 4.4: Caraceter´ısticas sensor CASI 1500i.

Sensor CASI 1500i Las caracter´ısticas del sensor CASI1500i se resumen en la Tabla 4.4. Algo a destacar con respecto al sensor anterior, es que la resoluci´on espacial en anchura es cinco veces mejor a la misma altura de vuelo. Para mayor informaci´on sobre este sensor acudir a las espec´ıficaciones de este [21] o al informe realizado por el INTA donde detalla como procesa las im´agenes de este sensor [22]. Zonas de adquisici´ on de datos A continuaci´on, se mostrar´an en el mapa de la pen´ınsula ib´erica cada una de las zonas donde se han recogido datos junto con sus l´ıneas de vuelos y las coordenadas geogr´aficas de los vuelos realizados. Adem´as, en cada una de las zona se esta llevando a cabo un proyecto que se detallar´a para saber en que consiste.

Cap´ıtulo 4: Definici´on del problema

24

Zona 1: Majadas del Ti´etar. C´aceres. Espa˜ na Estos datos se han tomado sobre el t´ermino municipal de Majadas del T´ıetar, sobre una zona rural. Adem´as sobre esta zona se est´a realizando el proyecto BIOSPEC1Tower que consiste en la evaluaci´on del ´ındice de vegetaci´on a trav´es de teledetecci´on. El objetivo de este proyecto esencialmente es conocer el flujo de agua y carb´on en esta zona para en un futuro conocerlo a trav´es de este tipo de datos en todo el planeta. M´as informaci´on sobre el proyecto llevado en esta zona puede encontrarse en [23].

(a) Visualizaci´ on Zona 1 en el mapa.

(b) Vuelos realizados en la Zona 1.

Figura 4.2: Visualizaci´on a trav´es de un mapa de adquisici´on de los datos de la Zona 1. Las coordenadas que abarcan esta zona son 39o 58’71,9”N 5o 48’95,5”O 39o 54’39,4”S 5o 44’24,2”E. El centro de estas coordenadas aparecen se˜ naladas en la Figura 4.2 a) donde se han realizado diferentes l´ıneas de vuelos mediante una aeronave y aparecen en la Figura 4.2 b) junto con sus coordenadas de cada l´ınea de vuelo en la Tabla 4.5. Zona 4: parcela Praones. C´aceres. Espa˜ na. Los vuelos realizados en esta zona se encuentran dentro de la comarca Valle del Jerte. Exactamente, estos vuelos se realizan dentro de una parcela cuyo nombre es Los Praones y se utiliza para el cultivo. Lo caracter´ıstico de esta parcela es que realizan experimentos pilotos cuyo fin es controlar valores que permitan mejorar la calidad del cultivo con un coste sea m´ınimo. La zona donde se realizaron las l´ıneas de vuelos, como se puede comprobar en la

25

4.2 Material

WGS84/ETR89 LAT(GMS)

LONG(GMS)

Altitud

P11N

39o 58’719”N

5o 46’598”O

2.103,12m

P11S

39o 54’394”N

5o 46’598”O

2.103,12m

P12N

39o 57’734”N

5o 44’242”O

2.103,12m

P12S

39o 55’378”N

5o 48’954”O

2.103,12m

P13N

39o 57’734”N

5o 48’955”O

2.103,12m

P13S

39o 55’378”N

5o 44’243”O

2.103,12m

P14N

39o 58’719”N

5o 47’068”O

2.103,12m

P14S

39o 54’394”N

5o 47’068”O

2.103,12m

P15N

39o 58’719”N

5o 46’128”O

2.103,12m

P15S

39o 54’394”N

5o 46’128”O

2.103,12m

Tabla 4.5: Coordenadas globales de cada vuelo en la Zona 1.

(a) Visualizaci´ on Zona 4 en el mapa.

(b) Vuelos realizados en la Zona 4.

Figura 4.3: Visualizaci´on a trav´es de un mapa de la adquisici´on de los datos de la Zona 4. Figura 4.3 a), est´a muy pr´oxima a la Zona 1 debido a que ambas se encuentran en el norte de C´aceres. Las coordenadas de la parcela Praones son 40o 9’395”N 5o 59’19”O 40o 5’0,71”S 5o 54’0,67”E. Adem´as, en la Figura 4.3 b) se muestra c´omo se realizaron las l´ıneas de vuelo sobre la zona junto con las coordenadas de cada uno de sus l´ıneas

Cap´ıtulo 4: Definici´on del problema

WGS84/ETR89 LAT(GMS)

26

LONG(GMS)

Altitud

P41N

40o 9’395”N

5o 56’373”O

2.286m

P41S

40o 5’071”N

5o 56’373”O

2.286m

P42N

40o 8’473”N

5o 54’066”O

2.286m

P42S

40o 5’992”N

5o 58’680”O

2.286m

P43E

40o 7’232”N

5o 53’557”O

2.286m

P43O

40o 7’232”N

5o 59’190”O

2.286m

P44N

40o 8’473”N

5o 58’681”O

2.286m

P44S

40o 5’992”N

5o 54’067”O

2.286m

P45N

40o 9’395”N

5o 56’845”O

2.286m

P45S

40o 5’071”N

5o 56’844”O

2.286m

P46N

40o 9’395”N

5o 55’902”O

2.286m

P46S

40o 5’071”N

5o 55’903”O

2.286m

Tabla 4.6: Coordenadas globales de cada vuelo en la Zona 4. de vuelo en la Tabla 4.6. Datos Por cada uno de los vuelos y de los sensores se facilitaron dos productos cuyas nomenclaturas son L1b y L1c. Estos fueron los datos con los que se comenz´o el estudio y su obtenci´on y procesado realizado por INTA se puede consultar en [20] [22]. El producto L1b est´a compuesto de varios archivos que son: L1b: Imagen georeferenciable a trav´es de una imagen obtenida por el sensor. Este fichero contiene todas las bandas captadas por el sensor y se presenta mediante el formato ENVI BSQ. Su tipo de datos es unsigned integer. IGM: Imagen de dos bandas que contiene las coordenadas WGS84 UTM de cada uno de los p´ıxeles de la imagen L1b. Estas coordenadas se expresan en metro. El fichero se presenta en un formato ENVI BIP cuyo tipo de datos es d ouble y cada coordenada se corresponde con una banda de este fichero.

27

4.3 Informaci´on LiDAR

Aux: Almacena la geometr´ıa utilizada e IFOV de cada uno de los p´ıxeles en L1b. Se presenta en un formato ENVI BSQ con tipo de datos Signed integer con seis bandas cada una correspondiente a un par´ametro diferente. QAL: hace referencia a la calidad de las bandas adquiridas por el sensor. Sus par´ametros son: N´ umero de bandas saturadas por p´ıxel, detector BadPixel-Anomalous (NC), detector BadPixel- Anomalous detector (C), Radiancia badPixel-Zero. Fichero txt: donde describe caracter´ısticas del vuelo y del sensor correspondiente a la imagen L1b. Stats: este fichero contiene una tabla de valores correspondiente a estad´ısticas recogidas de la imagen L1b. El producto L1c re´ une los siguientes ficheros: L1c: Se trata de la imagen tomada por el sensor georeferenciada con el sistema WGS84 pero en este caso se compone u ´nicamente de 4 bandas (azul, verde, roja e infrarrojo cercano). Fichero txt: Al igual que en el producto anterior este fichero se encarga de una descripci´on de las caracter´ısticas del vuelo y del sensor.

4.3.

Informaci´ on LiDAR

Al comienzo de este trabajo no se dispusieron de datos LiDAR. Estos datos se obtuvieron a trav´es del Plan Nacional de Orto fotogrametr´ıa A´erea en Espa˜ na. Una vez que se decidi´o que zona y vuelo iba a ser el utilizado para realizar el estudio, se elabor´o la solicitud al Instituto Geogr´ afico Nacional con el tipo de datos que necesit´abamos y sus coordenadas globales.

4.4.

Definici´ on de tareas a realizar

En este apartado se enumerar´an y describir´an aquellas tareas que tienen como fin alcanzar el objetivo que se defini´o anteriormente:

Cap´ıtulo 4: Definici´on del problema

28

Descripci´ on de los datos. Lo primero a realizar fue la selecci´on del sensor que reun´ıa las mejores caracter´ısticas para nuestro prop´osito junto con la zona. Una vez que se conoci´o con qu´e zona y vuelo se realizar´ıa el estudio se solicitaron los datos LiDAR para reunir lo antes posible todo el material necesario para el desarrollo del estudio. Georeferenciaci´ on de imagen hiperespectral. El producto hiperespectral L1b de los sensores no contiene las coordenadas geogr´aficas de cada uno de sus p´ıxeles. Por lo tanto, se debe de llevar a cabo la georeferenciaci´on de toda la imagen para su posterior fusi´on con datos LiDAR. Selecci´ on de la regi´ on de inter´ es de datos hiperespectrales. C´omo ya se coment´o anteriormente el objetivo final es la clasificaci´on de una imagen que re´ una todas las clases de la Tabla 4.1. Debido a que los vuelos realizados tienen como productos im´agenes demasiado grandes que suponen un gran c´omputo, se reducir´a la imagen del vuelo elegida de forma que a trav´es de esta regi´on se represente a la imagen completa. An´ alisis de los datos LiDAR. Esta tarea consiste en analizar las caracter´ısticas de los datos facilitados del PNOA y toda la informaci´on contenida en estos ficheros para saber c´omo interpretarla y cu´al es el alcance que esta tiene. Selecci´ on de la regi´ on de inter´ es de datos LiDAR. Es necesario seleccionar la misma regi´on de inter´es que en los datos hiperespectrales y obtener un nuevo fichero que solo contenga esta zona. Para realizar esto, se llevar´a a cabo un revisi´on del software disponible que existe o en caso necesario, se producir´a un peque˜ no algoritmo para ello. Fusi´ on de datos. Una vez que se tienen en ficheros independientes la misma regi´on de inter´es se fusionar´a estos dos en un nuevo fichero que contenga toda la informaci´on. Se valorar´an diferentes opciones y se llevar´a a cabo aquella que sea m´as adecuada. Verdad terreno. Sobre la zona seleccionada no existen datos previos sobre este tipo de trabajo, por lo tanto, se realizar´a una verdad terreno. Es decir, se identificar´an p´ıxeles de cada una de las clases de inter´es sobre la zona. Esto es una

29

4.4 Definici´on de tareas a realizar

herramienta necesaria en la post-clasificaci´on para comprobar la precisi´on de los resultados. Elecci´ on del m´ etodo empleado para realizar la clasificaci´ on. Debido a que existen diferentes t´ecnicas o algoritmos para realizar una clasificaci´on de este tipo de im´agenes, revisaremos estas t´ecnicas y se justificar´a la t´ecnica seleccionada. El algoritmo seleccionado es importante en este estudio ya que influye directamente en los resultados que se obtienen. Resultados. Este es el paso final a realizar, se clasificar´an con el m´etodo elegido anteriormente cada conjunto de datos independientemente y la fusi´on de ambos para poder comparar y discutir los datos.

Cap´ıtulo 5

Metodolog´ıa En este apartado se describir´an cada una de las tareas que definimos anteriormente que conjuntamente tienen como fin la fusi´on de ambos datos con la mayor calidad posible. Adem´as, se explicar´an y se justificar´a todas las decisiones que fueron tomadas en cada una de las tareas de este trabajo con el fin de que todo aquel que lea el desarrollo de este estudio en un futuro sepa porque fueron tomadas y suponga una mayor comprensi´on y entendimiento.

5.1.

Descripci´ on de los datos

5.1.1.

Sensor

La tarea de decisi´on del sensor supone una cuesti´on clave debido a que las caracter´ısticas de las im´agenes depender´an del sensor. El objetivo es el de clasificar donde las im´agenes hiperespectrales ya tienen un buen resultado para comprobar si esta informaci´on a˜ nadida afecta en alg´ un caso de manera negativa o en caso contrario cu´al es su repercusi´on. Tal que nuestro objetivo es el de tener im´agenes hiperespectrales de gran resoluci´on elegiremos las im´agenes de aquel sensor que posea mejores caracter´ısticas. En el cap´ıculo 4 se definieron las caracter´ısticas de cada sensor, en la Taba 5.1 aparece un resumen comparativo que muestra que el sensor CASI 1500i posee mejores propiedades por lo que se elegir´an las im´agenes que pertenecen a este sensor para trabajar con ellas. 30

31

5.1 Descripci´on de los datos

Sensor

AHS

CASI 1500i

Configuraci´on 80 canales Espectral

144 canales

Resoluci´on Anchura/Altura

4,60m

0,90m/1,66m

Ritmo de obtenci´on

18,7Hz

23ms

Resoluci´on radiom´etrica

12bits

14bits

Muestras por l´ınea

750p´ıxeles

21.440p´ıxeles

Franja (SWATH )

1,839m

1,839m

IFOV

2,5mrad

0,49mrad

Tabla 5.1: Comparaci´on de las caracter´ısticas de los sensores.

Cap´ıtulo 5: Metodolog´ıa

5.1.2.

32

Zona de trabajo

Una vez que se ha decidido de qu´e sensor ser´an las im´agenes a utilizar, lo siguiente es saber qu´e zona de trabajo se adecua m´as a las necesidades de este prop´osito. Aquello que deber´a cumplir es todas las clases descritas en los objetivos esten presentes ya que el fin es identificarlas y comparar los resultados obtenidos en dichas identificaciones. Tras estudiar las im´agenes de los vuelos que aparecen en las figuras 4.2 b) y 4.3 b), la zona elegida es la Zona 4 por varias razones: el n´ umero de edificios es m´as abundante en la Zona 4, la vegetaci´on es mayor y m´as variada y el relieve es m´as variopinto por lo que se tendr´an m´as complicaciones. Por estas razones, es m´as f´acil reunir todas las clases de inter´es en una u ´nica regi´on.

5.1.3.

Vuelo

La regi´on elegida que re´ une todas las clases de inter´es ha sido el centro de la estrella que forman los vuelos sobre la Zona 4. En este caso, cualquier vuelo podr´ıa ser seleccionado y el vuelo elegido fue el P41 que aparece en la Figura 5.1.

Figura 5.1: Imagen del vuelo P41. Estos datos se tomaron el 4 de octubre de 2012 y el vuelo comenz´o a las 12:10 UTC. La aeronave mantuvo una altura de 2.286m y la duraci´on del trayecto fue de 1 minuto y 51 segundos. La imagen est´a compuesta por 1441 columnas y 6296 filas y cuyas coordenadas aparecen en la Taba 5.2. Al tratarse del producto L1b, que es la imagen hiperespectral, no contiene las coordenadas globales en cada p´ıxel de la imagen ni corregido su error geom´etrico. Esto supone un problema para seleccionar la zona exacta. Para resolver este problema, lo primero que se llev´o a cabo fue a˜ nadir las coordenadas globales que ayud´o a corregir su distorsi´on geometr´ıca. Una vez, se tuvieron las coordenadas exactas sobre las que se iba a trabajar durante

33

5.2 Georeferenciaci´on de imagen hiperespectral

Vuelo P41

Oeste Norte 4.452.058,50 250.243,50

Este Sur 4.441.414,50 248.686,50

Tabla 5.2: Coordenadas del vuelo P41. todo el estudio, se solicitaron al Instituto Geogr´ afico Nacional los datos LiDAR. Aunque el IGN pretende la libre distribuci´on de datos, hasta el momento todos los datos que se encuentran en su centro de descargas son datos post-procesados y el en esta ocasi´on, se necesitaban los datos originales de los cuales se obtienen los dem´as productos.

5.2.

Georeferenciaci´ on de imagen hiperespectral

En la fusi´on de ambos datos, la georeferenciaci´on de la imagen hiperespectral es indudablemente necesaria para su combinaci´on. Por lo tanto, la imagen hiperespectral elegida no est´a lista para trabajar con ella. Las im´agenes a´ereas tienen errores geom´etricos y radiom´etricos. Estos u ´ltimos errores, se deben a errores en la utilizaci´on de los instrumentos, a la luz solar y a las condiciones atmosf´ericas. En esta imagen, los errores radiom´etricos se han solventado antes de obtener los datos para este estudio pero en cambio los errores geom´etricos saltan a la vista. Los errores geom´etricos se deben a la curvatura de la tierra, su rotaci´on, distorsi´on panor´amica y en gran medida al vuelo que realiza la aeronave (velocidad, altitud, oblicuidad, . . . ) y resumiendo al movimiento [6]. Durante este vuelo hubo un gran viento que acent´ uo la distorsi´on notable de la imagen. El primer problema de esta imagen fue que los p´ıxeles no son cuadrados. Teniendo como valores para su resoluci´on una anchura 0,9m y una altura 1.66m. Para solucionar los errores geom´etricos hay dos posibles soluciones. La primera es localizar la fuente de la distorsi´on y su magnitud para aplicar f´ormulas de correcci´on y la segunda m´ as sencilla e independiente del sensor es establecer relaciones entre p´ıxeles de la imagen con sus correspondientes coordenadas en la tierra. Este u ´ltimo m´etodo es el m´as usado y es el que se utilizar´a en este estudio [24].

5.2.1.

Primera soluci´ on: Georeferenciaci´ on por puntos de control

Es necesario en este punto elegir que medio se utilizar´a para establecer la relaci´ on con los p´ıxeles de la imagen hiperespectral y hallar los t´erminos en las ecuaciones a

Cap´ıtulo 5: Metodolog´ıa

34

Figura 5.2: Imagen para realizar el registro. usar. Existen diferentes posibilidades: Establecer relaciones identificando puntos en la imagen y midi´endolos en la zona donde se tom´o la imagen a trav´es de un GPS geod´esico. Utilizar la herramienta IBERPIX. Identificando puntos en la imagen e intentar identificar los mismo puntos en esta herramienta donde ya vienen integradas las coordenadas geogr´aficas. El inconveniente de elecci´on es que las fotos no fueron tomadas en el mismo a˜ no y se observan diferencias como son el tama˜ no de las copas de los ´arboles por ejemplo. La u ´ltima opci´on es la correspondencia de p´ıxeles entre la imagen hiperespectral y la imagen de 4 bandas tomada por el mismo sensor y en el mismo instante. La elecci´on de la primera propuesta supone uno o varios desplazamiento innecesarios hasta la zona de trabajo, la segunda opci´on tiene el inconveniente de la variaci´on del tiempo que ha trascurrido entre ambas y por tanto, en algunos puntos se observan diferencias lo suficiente grandes debido a la precisi´on de esta tarea. Teniendo en cuenta estas razones, se eligi´o la u ´ltima opci´on debido a que la correspondencia es m´as sencilla de hacer cuando son im´agenes tomadas por el mismo sensor y al mismo tiempo, lo que facilita la tarea de identificaci´on de puntos. La herramienta utilizada fue ENVI 4.5 y la imagen se muestran en la Figura 5.2. Registro de una imagen mediante otra imagen La correspondencia entre un p´ıxel de la imagen que se desea georeferenciar y una coordenada correspondiente al mundo a trav´es de cualquier sistema de coordenadas que se utilice, se realiza mediante sistemas de polinomios. Para cada coordenada de la imagen, es decir X o Y, se utiliza un sistema de polinomios diferente dado que

35

5.2 Georeferenciaci´on de imagen hiperespectral

(a) Ecuaci´ on de georeferenciaci´ on de im´ age- (b) Gr´ afico con la aproximaci´ on a los puntos nes. dependiendo de su grado.

Figura 5.3: M´etodo de georeferenciaci´on de im´agenes [6].

probablemente no tengan la misma distorsi´on en cada uno de sus ejes. Los sistemas de polinomios pueden tener diferente grado seg´ un sea la gravedad de su distorsi´on aunque se aconseja que no sea mayor de tercero porque puede causar error en el resultado. En la Figura 5.3 a) se muestra el sistema polin´omico utilizado y en la Figura 5.3 b) la aproximaci´on a los puntos dependiendo del grado del polinomio que se elija para llevar a cabo el proceso. Dado que los t´erminos ai y bi no se conocen, es necesaria su estimaci´on mediante los puntos de control que se establezcan entre ambas im´agenes. Los puntos de control entre ambas im´agenes no puede ser cualquier objeto que se encuentre en una posici´ on relativa y se le parezca si no cualquier construcci´on realizada por el hombre debido a que estas construcciones no cambian al paso del tiempo como es caso del medio ambiente. En [25] se dice que identifiquemos al centro de ambos p´ıxeles pero debido a que nuestras im´agenes son de alta resoluci´on (1,5m la imagen registrada e incluyo mayor resoluci´on aquella que est´a distorsionada), se identificar´an puntos muy espec´ıficos como son antenas u objetos muy peque˜ nos para conseguir el menor error posible. Existe un m´ınimo de puntos dependiendo el orden del sistema de polinomios que se elija. Este m´ınimo comienza en tres para el primer orden. Sin embargo, el n´ umero m´ınimo aconsejable es diez. Los puntos deben de estar repartidos por toda la imagen debido a que dado un punto en la imagen, el error en la distorsi´on aumenta progresivamente cuanto mayor distancia exista entre ese punto y el punto de control m´as cercano. Adem´as, en los contornos de la imagen debe haber puntos de control para que los bordes de esta

Cap´ıtulo 5: Metodolog´ıa

36

Figura 5.4: Imagen del vuelo P41 con los puntos de control elegidos.

Figura 5.5: Imagen resultante del registro por puntos de control en el primer intento.

tambi´en se corrijan.

Primer intento Tras revisar diferentes fuentes sobre el registro de im´agenes, en lo que todos estan de acuerdo fue en dispersar puntos homog´eneamente por toda la imagen e intentar que estos estuviesen tambi´en en los contornos de la est´a para hacer un registro lo m´as homog´eneo posible. Por lo tanto, para la imagen a registrar se tomaron un n´ umero de 32 puntos debido a la gran dimensi´on de la imagen en cuesti´on siendo m´as de 10 que era el n´ umero que se establec´ıa como m´ınimo [6]. Su distribuci´on, como se puede observar en la Figura 5.4, se realiz´o por toda la imagen de manera homog´enea intentando estar presentes tanto en los contornos como en el centro de la imagen. Sin embargo, el resultado no fue el esperado, obteniendo un RMS Error de 43.61 p´ıxeles con un orden de tercer grado en el sistema polin´onmico para calcular las coordenadas. Este error supone un incertidumbre de 39metros aproximadamente en Y y 72metros aproximadamente en X sobre cualquier punto. Este error es demasiado alto como se puede observar en la Figura 5.5. Por lo tanto, no fue posible considerar la imagen resultante para trabajar con ella.

37

5.2 Georeferenciaci´on de imagen hiperespectral

Figura 5.6: Forma geom´etrica utilizada al posicionar los puntos de control.

Figura 5.7: Segunda imagen georeferenciada por puntos de control.

Segundo intento En este segundo experimento se intent´o corregir la imagen de nuevo obteniendo mejores resultados que en el caso anterior. En este caso, se distribuy´o un gran n´ umero de puntos por toda la imagen y por sus contornos siguiendo la geometr´ıa que aparec´ıa en la Figura 5.6. En el caso anterior, hubo menor cuidado en su distribuci´on, por este motivo en esta ocasi´ on se decidi´o atender m´as a esta tarea. A trav´es de la imagen del vuelo P41 se tomaron un total de 24 puntos que estaban repartidos tanto por el borde de la imagen como el centro de esta. El orden de las funciones para establecer sus coordenadas fue tambi´en de tercer grado pero en este caso el error fue mucho menor siendo el RMS Error de 15.92 p´ıxeles. Sin embargo, a primera vista como se muestra en la Figura 5.7 parece tener buenos resultados. Tras comprobar la Taba 5.8 de la georeferenciaci´on, son notables los errores que contiene. En este experimento el resultado es mucho m´as fiable y aunque tiene mejor resultado que la Figura 5.5 no es aceptable para una imagen de alta resoluci´on debido a que supone una variaci´ on de m´ as de varios p´ıxeles el error [6].

Cap´ıtulo 5: Metodolog´ıa

38

Figura 5.8: Resultado de la segunda imagen georeferenciada.

5.2.2.

Segunda soluci´ on: Registro por fichero IGM

Tras no tener ´exito con los dos intentos realizados anteriormente mediante el m´etodo por puntos de control, se ha utilizado una nueva t´ecnica basada en la georeferenciaci´on mediante un fichero generado por el sensor cuyo nombre es IGM. La t´ecnica utilizada anteriormente para solventar su error geom´etrico y a˜ nadirle coordenadas geogr´aficas fue realizada manualmente mientras que esta se realiza sin la necesidad de ninguna intervenci´on a trav´es de la fusi´on con este fichero IGM. Un fichero IGM es un fichero espec´ıfico a una imagen que tiene el mismo tama˜ no y se compone de dos bandas. En una de ellas almacena la coordenada X (Easting) y en la otra la coordenada Y (Norting) referidas a un sistema geogr´afico especifico. Su informaci´on se refiere a datos tomados por el sensor al mismo tiempo que tomaba los datos de la imagen, por lo que es la forma m´as eficiente y precisa de georeferenciar y corregir geom´etricamente una imagen. El aspecto de los datos IGM se muestra mediante un fragmento de estos en la Figura 5.9. En la Figura 5.10 se muestra la imagen resultante. En esta imagen se puede apreciar

39

5.2 Georeferenciaci´on de imagen hiperespectral

(a) Fragmento del fichero IGM per-(b) Fragmento del fichero IGM perteneciente a las filas. teneciente a las columnas.

Figura 5.9: Ficheros IGM.

Figura 5.10: Imagen resultante del registro mediante ficheros IGM. su semejanza con la imagen del producto L1c que se muestra en la Figura 5.2. Cuando se realiza esta operaci´on se genera un fichero cuyo nombre es Geografic Look-up Table (GLT) y c´omo su nombre indica est´a compuesto por una tabla donde se indica si cada p´ıxel registrado es real o ha tomado el valor del vecino m´as pr´oximo. Existe una tabla para las filas y otra para las columnas en la que se accede a un p´ıxel deseado mediante las mismas coordenadas que posee la imagen generada. Si el valor de un p´ıxel ha tomado su valor proveniente del fichero IGM el valor de ese pixel en la tabla ser´a positivo y de color gris´aceo cuando se visualizen los datos mientras que si ha tomado el valor de su vecino m´as pr´oximo el valor ser´a negativo y se mostrar´a en la imagen en negro. Esta informaci´on se muestra en la Figura 5.11. Tras realizar esta georeferenciaci´on han cambiado algunas propiedades de la imagen como es la resoluci´on del p´ıxel trat´andose ahora de p´ıxeles cuadrados de 1,5m. Al variar

Cap´ıtulo 5: Metodolog´ıa

40

(a) Fichero GPL perteneciente a las filas.

(b) Fichero GPL perteneciente a las columnas.

Figura 5.11: Ficheros GLT generados.

el tama˜ no de los p´ıxeles, se ha reducido la resoluci´on espacial horizontal almacenando la misma cantidad de informaci´on en 1045 p´ıxeles mientras que por el contrario, ha aumentado la resoluci´on vertical a 7100 p´ıxeles.

5.2.3.

Discusi´ on de resultados comparativos

En la Taba 5.3 se almacenan las coordenadas de cada una de las im´agenes georeferenciadas junto con su resoluci´on espacial y el tama˜ no de la imagen para comparar la mejor´ıa con cada uno de los experimentos. Como se puede comprobar la georeferenciaci´on a trav´es del fichero IGM es el que obtiene mejores resultados y aunque no coincide exactamente con las coordenadas de la imagen que ya se tiene como referencia, posee un error m´ınimo que permite realizar el estudio con esta imagen resultante. Otra forma de comprobar la exactitud de estos puntos ser´ıa identificar un punto en el mapa y medir ese punto personalmente con un GPS topogr´afico pero no se realiz´o porque los resultados fueron lo suficientemente buenos.

41

5.3 Selecci´on de la regi´on de inter´es de datos hiperespectrales

Puntos de control: Primer intento

Puntos control: Segundo intento

UL Mapa

248.686,50 4.452.058,50

250.057,500 4.441.456,50

249.073,153 4.452.077,584

248.680,367 4.452.064,733

UL Geo

40o 10’52.67”N 5o 57’6.38”O

40o 5’10.72”N 5o 55’53.70”O

40o 10’53.70”N 5o 56’50.07”O

40o 10’52.86”N 5o 57’6.64”O

Dimensiones1038x7096x4

850x7070x1

2151x15655x144 1045x7100x144

Tama˜ no pixel

1.5m

0.680679m

1.5m

de

IGM

Imagen georeferenciada

1.5m

Tabla 5.3: Tabla comparativa de resultados en la georeferenciaci´on de la imagen.

5.3.

Selecci´ on de la regi´ on de inter´ es de datos hiperespectrales

Una vez que la imagen esta corregida geom´etricamente y cada p´ıxel contiene su coordenada geogr´afica es posible seleccionar la zona de trabajo. Como se coment´o anteriormente la regi´on se seleccionar´a en el centro de la estrella que forman los vuelos de la Zona 4. Se ha tenido en cuenta que no aparezca ning´ un p´ıxel sin dato dentro de esta regi´on. La regi´on seleccionada aparece en la Figura 5.12 y como puede apreciarse tiene todas las clases de inter´es que se pretenden analizar. Adem´as, en la Taba 5.5 aparecen algunos de los par´ametros de esta imagen. La tarea de seleccionar una parte de la imagen se realiz´o mediante la herramienta ENVI 4.5.

5.4.

An´ alisis de los datos LiDAR

Los datos facilitados por el IGN se componen de siete ficheros de formato LAS. Estos ficheros no ven´ıan acompa˜ nados de ning´ un documento que facilitase informaci´ on de ellos. Por este motivo, lo primero que se realiz´o fue la extracci´on de informaci´on del PNOA que pudiese ser relevante para este trabajo y examinar estos datos a trav´es de diferentes programas.

Cap´ıtulo 5: Metodolog´ıa

42

Figura 5.12: Regi´on de la imagen elegida para realizar la clasificaci´on.

CoordinadasOeste 4.445.050,733 Muestras

497

Filas

300

Canales

144

Tama˜ no pixel

1,5m

Norte

Este

Sur

249.989,867

4.444.600,733

249.244,367

Tabla 5.4: Resumen de par´ametros de la Figura 5.12

43

5.4 An´alisis de los datos LiDAR

Altitud de operaci´on

200-6.302m

FOV/IFOV

0-75 grados incrementos en 1

Discriminaci´on de distancia

3.5m

Velocidades de escaneo

100-0Hz configurable aunque decrementa con mayor IFOV.

Patr´on de escaneo

Patr´on sinusoidal de escaneo

Iluminaci´on haz de luz

0.22mr nominal

Velocidad emisi´on haces

200.000-20.000 baja a mayor altura

N´ umero retornos

4

Resoluci´on radiom´etrica

8

Precisi´on horizontal/vertical

7-64cm/8-24cm

Producto final

Integra un software espec´ıfico que junto con los datos capturados durante el vuelo (datos raw ) y de los datos de posicionamiento (bases GPS y producidos durante el vuelo) produce conjunto de datos con el sistema de coordenadas WGS84. Formato LAS. Tabla 5.5: Caracter´ısticas del sensor ASL60 Leica.

5.4.1.

B´ usqueda de informaci´ on de los datos

La primera informaci´on que se obtuvo fue que los datos fueron tomados mediante el sensor ASL60 LEICA. Por lo tanto, la primera informaci´on que se extrajo fueron las caracter´ısticas de este. ASL60 LEICA A continuaci´on, se detallar´an las caracter´ısticas de este sensor que como ya se explic´o anteriormente son de inter´es para entender mejor estos datos de los que no sabemos tenemos ninguna informaci´on previa. Este sensor devuelve la informaci´on de los retornos individualizados, es decir, no representa a cada uno de sus haces en una onda como se indica en la Figura 2.8. La descripci´on de las propiedades de este sensor se muestra en la Taba 5.5.

Cap´ıtulo 5: Metodolog´ıa

(a) Emisi´ on de haces y escaneo de los retornos mediante LEICA.

44

(b) Generaci´ on de retornos mediante LEICA.

Figura 5.13: Funcionamiento del sensor ASL60 LEICA [7]. Algo a tener en cuenta, es que permite diferentes pulsos en el aire al mismo tiempo por lo que el escaneo de retornos no est´a ordenado por el orden de su haz si no que va almacenando informaci´on de los retornos en el mismo orden que los va escaneando. El funcionamiento de este sensor se muestra en la Figura 5.13. Tras obtener las caracter´ısticas principales del sensor que influyen sobre su producto, se investig´o sobre las caracter´ısticas espec´ıficas del vuelo para as´ı disponer de la mayor informaci´on posible al igual que en los datos hiperespectrales. Esta informaci´on ser´a necesaria para su fusi´on debido a que necesitan tener en com´ un ciertas caracter´ısticas como es esencial el sistema de coordenadas.

45

5.4 An´alisis de los datos LiDAR

Espec´ıficaciones del vuelo Fecha del vuelo: 2010. M´ aximo FOV : 50o efectivos. Frecuencia de escaneo: 70Hz. Frecuencia de emisi´ on de haces: 45KHz. Densidad promedio: 0,5 puntos del primer retorno/m2 . Calibraci´ on: menor de 12 meses. Presi´ on general altim´ etrica: RMSE z

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.