Story Transcript
FACULTAD DE INGENIERÍA UNIVERSIDAD NACIONAL DEL NORDESTE CÁTEDRA DE FOTOINTERPRETACIÓN
Mgter. Ing. Indiana Basterra 2011
UNIDAD I: Introducción a la Percepción Remota Definición. Aspectos vinculados a la Ingeniería. Tipos de sensores: activos y pasivos. Procedimientos y características de la toma. El espectro electromagnético. Interpretación visual y digital. Fotografías aéreas. Imágenes satelitales. Interpretación Visual. Elementos para el reconocimiento: Tono, textura y modelos. Escala, límites, forma, organización, reconocimiento y representación de la realidad Tipos de sensores: activos y pasivos. Procedimientos y características de la toma. El espectro electromagnético. Obtención de fotografías aéreas. Tipos de fotografías aéreas
INTRODUCCIÓN A LA PERCEPCIÓN REMOTA 1-Definición La obtención de información a través de fotografías aéreas, conforma parte de un campo disciplinar mayor, denominado “teledetección” o “percepción remota”. La teledetección, permite el reconocimiento a distancia. Es decir, percibir, medir, interpretar, datos de objetos sin estar en contacto con ellos. En el caso de la materia, estos objetos, son referidos a la superficie terrestre. Los primeros antecedentes de la percepción remota, se vinculan con las fotografías aéreas. La primera fotografía aérea fue tomada desde un globo en 1858 sobre la ciudad de París por Gaspar Felix Tournachon “Nadar” a 1,200 pies de altitud. Grande ha sido el impacto que produjo el advenimiento de las fotografías aéreas, ya que cambió por primera vez, la perspectiva de la visión de la superficie terrestre. El hombre cambié la perspectiva de su visión y ello trajo aparejado diferentes usos.
Fig. 1: Dibujo de la primera fotografía aérea sobre París
Fig. 2: Fotografías de Boston en 1860 y San Francisco en 1906
James Wallace fotografía Boston en 1860. Es la fotografía aérea más antigua que existe. En 1903, Julius Neubronne patenta palomas con cámaras montadas sobre el pecho a fines de tomar fotografías aéreas. George Lawrence utiliza una cadena de cometas para levantar una cámara fotográfica panorámica hecha a mano en alto que demuestra el terremoto 1906 de San Francisco Posteriormente, durante la Primera Guerra Mundial, militares franceses comienzan a utilizar las fotografías aéreas, lo que continúa e intensifica su uso durante la Segunda Guerra Mundial. En 1957 Russia lanza el Sputnik, el primer satélite al espacio, que marca el comienzo de la era espacial y el uso de las imágenes desde el espacio. En la década del 70, con el primer satélite Landsat lanzado en 1972, comienza la era de uso comercial y civil de las imágenes satelitales lo que permite a la comunidad científica y técnica, desde diferentes disciplinas importantes avances en la era del conocimiento y que continúa hasta nuestros días. Fue así que surgió la “Fotointerpretación”, la que se define como el empleo de fotografías e imágenes tomadas desde aviones o satélites destinados al relevamiento de los recursos terrestres, para la interpretación de la superficie terrestre. Los usuarios de las fotografías e imágenes, provienen de diversas disciplinas con diferentes objetivos. Pueden distinguirse dos grandes categorías, según la naturaleza de sus necesidades: 1- los que realizan observaciones cualitativas de re-conocimiento de objetos o elementos. Es decir, que los “identifican e interpretan” para distinguirlos, sin mayor precisión geométrica. Para ello se necesitan claves de interpretación, porque el ángulo de observación es distinto al habitual y además se requiere la base teórica de soporte. Este es el campo de la Fotointerpretación, directamente vinculada con la Ingeniería, en tanto y cuanto las obras están en la superficie terrestre. 2- Los que se interesan por el campo de las mediciones que permiten realizar las fotografías e imágenes, especialmente en 3 dimensiones. Esto se traduce en y descripciones geométricas y mapas de precisión. Este es el campo de la Fotogrametría, directamente vinculada directamente con la Agrimensura, e indirectamente con la Ingeniería, de manera que en esta Materia solamente se darán los conceptos básicos.
Fig. 3: Estereoscopio de espejo, entretenimiento de fines de siglo 19
2- Aspectos vinculados a la Ingeniería. Las obras de Ingeniería y el reconocimiento del sitio y del entorno Las obras de la Ingeniería Civil están emplazadas en la superficie terrestre. Dicho emplazamiento, se denomina “sitio” según se observa en la Figura 4. La tipología de las obras civiles según la superficie que ocupan, permiten clasificarlas en 3 tipos:
Fig. 4: Relación entre la obra y los medios, interno y externo.
Obras puntuales: la construcción ocupa una superficie pequeña, por ejemplo un edificio Obras lineales: tiene predominancia en sentido longitudinal. Es el caso de las vías de comunicación
Obras areales: ocupan una gran superficie, como las represas y sus lagos de embalse. Cualquiera de las obras antes mencionadas, está sometida a agentes externos (exógenos) e internos (endógenos), los primeros se relacionan con la atmósfera la biota los suelos y la hidrología superficial y los segundos a las acciones vinculadas con la geodinámica cortical y a las rocas y las estructuras geológicas sobre los cuales se asienta la construcción. Pero una obra, no está aislada, sino que se encuentra inserta en una zona que se puede denominar “entorno” o “situación”. Este entorno, entendido generalmente como el espacio geográfico, no solamente considera las características geográficas, sino además, las condiciones bióticas, sociales, etc. Este conjunto de elementos, son analizados al momento de emprender una obra originando las externalidades: es decir elementos y factores que no constituyen la obra en sí misma pero influyen en la relación beneficio/costo. En esta materia, veremos, la utilidad de las fotografías aéreas e imágenes satelitales para el reconocimiento tanto del sitio como de la situación. Son numerosas las razones de su uso, entre otras: 1. Disponibilidad de la información de diferente índole relacionada con la obra, 2. Fuerte disminución en los costos de relevamiento de los lugares donde deberán realizarse toma de muestras, perforaciones, estudios de suelos, estabilidad de taludes, etc. 3. Rápida determinación de los recorridos de reconocimiento y equipamiento de campaña 4. Monitoreo permanente de las condiciones de emplazamiento. A manera de conclusión, se puede afirmar que el objetivo de la Fotointerpretación aplicada a la Ingeniería es reconocer elementos del paisaje con sus componentes y procesos que interesen en las diferentes etapas de la obra y en relación a la obra y el efecto que origina: transmisión de tensiones al suelo y sus componentes, que responderá según sus características: composición y ubicación espacial. 3- Tipos de sensores: activos y pasivos. Los sensores son los elementos que captan los datos provenientes de la superficie terrestre. Según el procedimiento utilizado, se los denomina pasivos o activos. Los pasivos, son los que se limitan a recoger la energía reflejada o emitida por la superficie, y los activos, recogen energía generada por el mismo sensor (radares). Cuando la energía incidente llega al sensor puede ocurrir que imprima directamente una película o que digitalice la información. El primer caso, es el de las fotografías aéreas, que mediante un proceso de revelación da como resultado una representación, la cual depende de la excitación, pero también del sensor y del proceso de revelado. Durante el proceso de revelado se pueden modificar los
tonos y los contrastes y cuando finalmente se imprime el positivo es posible también variar la escala El segundo caso, es cuando el sensor digitaliza la información recibida (fotografías digitales e imágenes satelitales). Esa información que llega se convierte en una matriz de datos. Dicha matriz es un archivo que permite un posterior tratamiento digital o visualizarse en la pantalla de una computadora e imprimirse en papel, donde recién se genera una imagen. Una vez en papel, la impresión es como una fotografía. Asimismo, las fotografías comunes se pueden escanear y en la computadora, mediante programas de procesamiento de imágenes, se pueden modificar aumentando el contraste, el brillo, etc. y por supuesto esto es muy fácil en las fotografías digitales. A los fines de la cátedra, se define: Fotografías aéreas: Son aquellas tomadas desde un avión o desde plataformas espaciales, mediante cámaras especiales denominadas cámaras aerofotogramétricas de toma de vistas, las cuales tienen características especiales diferentes a las cámaras comunes. Estas cámaras emplean películas y filtros diferentes de manera tal que pueden obtenerse diferentes fotografías a través del registro de los objetos sobre una superficie sensible a la luz, Imágenes satelitales: Son imágenes digitales, las cuales, dada su condición, poseen una diferente manera de adquisición de información que la fotografía común. Son adquiridas a través de sensores óptico- electrónicos. El sensor capta, a intervalos regulares, la radiación que proviene de la superficie terrestre. Ese intervalo regular, traducido a la superficie terrestre, es un área determinada, donde el sensor detecta un valor medio de la radiancia de todos los objetos que la conforman. Esa unidad mínima de captación de energía, es lo que se denomina “píxel” o picture element. El píxel es la mínima unidad visual que aparece en una imagen digital. 4- El espectro electromagnético Se trata de una serie continua de radiaciones electromagnéticas, ordenadas según la longitud de onda (λ) y la frecuencia (f). Las mismas guardan una relación inversa expresada por la siguiente expresión: f/λ = C, donde C es la velocidad de la luz
Espectro electromagnético. Fuente: CONAE: Conocimientos básicos sobre teleobservación satélites NOAA.
Longitudes de onda de los distintos colores (en μm) ROJO NARANJA AMARILLO VERDE AZUL INDIGO VIOLETA
723-647μm 647-585μm 585-575μm 575-492μm 492-455μm 455-424μm 424-397μm
5- Interpretación Visual y Digital En función del formato de las imágenes, existen dos maneras de interpretarlas: visual y digitalmente La interpretación visual o manual, comprende un conjunto de técnicas destinadas a diferenciar, reconocer e identificar objetos o fenómenos en una imagen e interpretar su significado. Se realiza sobre cualquier documento analógico que contenga información sobre el ambiente. En la interpretación visual de imágenes satelitales se aplican las mismas pautas y técnicas de interpretación de fotografías aéreas. Utiliza a sus fines, elemento con: tono, textura, forma, límites, etc. La Interpretación digital es el procesamiento digital de imágenes que engloba una serie de técnicas de manipulación numérica de datos contenidos en imágenes digitales. Este análisis requiere para su realización de un software y hardware adecuados en función del fin de aplicación. Para procesamiento de fotografías digitales: Corel Photo Paint, Photo Express, etc., son softwares usuales existentes en el mercado. Para fines específicos, que impliquen determinar información en grandes volúmenes mediante operaciones muy complejas, de la superficie terrestre, se utilizan softwares de procesamiento de imágenes satelitarias. El siguiente cuadro interpretaciones:
presenta
Interpretación visual
algunas
características
comparativas
de
ambas
Interpretación digital
Inversión inicial escasa
Inversión elevada
Costes lineales
Se reducen los costos por superficies
Requiere conversión
Trabaja con información digital- analógica original
No precisa alta especialización
Precisa alta especialización
Buena precisión en determinación de clases Baja precisión en clases heterogéneas heterogéneas Restitución compleja
Corrección geométrica sencilla y rápida
Inventario complejo
Inventario inmediato
Requiere digitalización para vincularse a un Vinculación directa a un SIG SIG Interpretación visual: La finalidad de la interpretación visual, es interpretar la realidad del paisaje de la superficie terrestre. Aquí es importante definir tres conceptos: Interpretar, Identificar y Paisaje. Paisaje: Existen diferentes acepciones del término paisaje, según la disciplina que lo defina (geografía, ecología, arquitectura, etc.), pero todas las definiciones tiene en común, lo siguiente: “Es una unidad constituida en un espacio con características morfológicas y funcionales similares en función de una escala y una situación o localización”. Identificar: Según la RAE: Reconocer si una persona o cosa es la misma que se supone o se busca. Interpretar: Explicar acciones, dichos o sucesos que pueden ser entendidos de diferentes modos. Es importante, entonces, tener en cuenta la diferencia entre identificar e interpretar. De aquí, que generalmente, se identifica o reconoce algo que es previamente conocido. En cambio, se interpreta algo identificado, explicándolo con la posibilidad de más de un modo. Desde la percepción, un objeto es entendido como una unidad y puede ser identificado si se reconoce que pertenece a cierto conjunto. La variabilidad de los objetos dentro de un conjunto, implica la necesidad de realizar una abstracción que dará un “modelo” determinado. Tomando como ejemplo a una laguna representada por cierta superficie de la fotografía. Si se enseña dicha fotografía a un grupo de personas, habrá quienes de inmediato identifiquen una laguna. Otros verán una laguna con sus bordes cubiertos de plantas y otros verán simplemente una mancha en la fotografía. Esto da una idea del complejo proceso que es la identificación e interpretación de una imagen, donde influyen: - El nivel de conocimiento del observador: de los objetos y de las características de las imágenes. - Los mecanismos sicológicos intervinientes en el proceso. - Lectura: facilidad de identificación a través del uso de claves. -Análisis: utiliza diversos criterios de identificación llegando a conclusiones cuali o cuantitativas a partir de las características de las imágenes y el uso de instrumental
- Interpretación: A partir de la identificación, el análisis y de informaciones de otro orden (documentos, observaciones en el terreno), se enuncia una hipótesis basada en correlaciones entre los aspectos fotográficos y las propiedades que caracterizan los objetos Propiedades de los objetos: Escala: Dependiendo de la escala, será la percepción del objeto Límite: Es lo que separa al objeto del universo o entorno. Forma: Es la silueta o contorno del objeto. Estructura: es la manera de organizarse las partes del objeto para constituir el conjunto. Textura: Es la sensación producida por la estructura física característica de un objeto dado por el tamaño, forma u organización de las partes que lo componen Color: El objeto para ser visible, debe estar iluminado por una fuente de energía que genera variaciones de coloridos respecto al entorno. Entorno: Crea el fono del objeto y explica las razones de la presencia del objeto en ese lugar. Los anteriores elementos conforman el modelo que representa un esquema conceptual de generalización y que permite ciertas deformaciones de la forma hasta un cierto límite que depende de la experiencia y de la cultura. El modelo, por lo tanto, representa una estructuración de las partes u objetos constituyentes y ello es muy empleado en la Fotointerpretación para crear claves de interpretación, por ejemplo: modelos de redes. Claves de Interpretación: Una clave para la interpretación de las imágenes, es definida como “material de referencia destinado a facilitar una identificación y determinación rápidas y seguras del significado de objetos por el fotointérprete” (Manual dof Photographic Interpretation, American Society of Photogrammetry, 1960). Las claves poseen diferentes características: alcance, nivel técnico, presentación, entre otras. Por ejemplo: una clave puede ser: -regional o puntual, dependiendo del área donde puede ser utilizada, -temática: colección de claves destinadas a la identificación de una categoría de objetos determinada, -técnica: preparada para uso específico de fotointérpretes especializados, etc. Contenidos de la clave: Idealmente, constan de tres elementos básicos:
Un dibujo de línea con dimensiones, Anotaciones, fotografías o estereogramas ilustrando el objeto Una descripción técnica. Ejemplos de Claves de Fotointerpretación
Photo Interpretation Key
Mapping Unit General County Name Location Elevation 1101 = California Bay Madrone - Most common Coast Live Oak west of the - (Black Oak - Napa Valley, Big Leaf Maple) Local on mesic NFD-Super slopes east of Up Alliance Napa valley 2000' Mappable stands not observed on field recon 1122 = Canyon Possibly in R.L. Oak Alliance Stevenson SP >2000'
1123 Eucalyptus Alliance
Pertinent Slope/Landform Features
1124 = Tanoak Local Alliance Angwin
< 500'
near 15002000'
Applicable DOQQ Geology/Soils Signature
Generally More mesic than Northwest to type 1221, more Northeast low to xeric than mixed upper slopes hardwoodto neutral to concave - Douglas-fir mesic settings stands
Generally a dark smooth signature
Areas of Annual Steep, often Similar to Steep Mid & Upper Snowfall; rocky poorly 1101 but Slopes trending adjacent to pine; developed more neutral higher elevations soils texture
= Napa Valley
Applicable Comparisons
Floodplain Disturbance
Tends to form units that appear - non-natural in shape
Adjacent to Redwood stands
The Photo Interpretation Key Fuente: Napa Vegetation Mapping Project. Appendix 2: en http://cain.ice.ucdavis.edu/regional/napavegmap/
Highly textured often yielding shadows Small crowns; light signature
Photointerpretation Key for the Everglades Vegetation Classification System. Fuente: Madden, Jones, and Vilchek en http://www.asprs.org/publications/pers/99journal/february/1999_feb_171-177.pdf
Lecturas complementarias Chronological History of Aerial Photography and Remote Sensing Prof. John E. Estes. History of Aerial Photographic Interpretation Remote Sensing Research Unit. Department of Geography. University of California. Santa Barbara, California 93106. USA, en http://userpages.umbc.edu/~tbenja1/umbc7/santabar/vol1/lec1/1lecture.html Dr. John E. Estes, and the project, The Remote Sensing Core Curriculum. Important dates in the chronological history of photography, aerial photographic interpretation, and remote sensing: Circa 300 BCE - Greece, Aristotle philosophizing at some length about the nature of light, envisions light as a quality and not as an actual substance; as it was thought of by many at the time. He observed that some objects have the potential for transpa rency but this state is only rendered actual by the presence of light. He then defined light as the act of, or energy of, a transparent body as such. 10th Century - Al Hazan of Basra credited with the explanation of the principle of the camera obscura. 1666 - Sir Isaac Newton, while experimenting with a prism, found that he could disperse light into a spectrum of red, orange, yellow, green, blue, indigo, and violet. Utilizing a second prism, he found that he could recombine the colors into white light. 1802 - Thomas Young puts forth the basic concepts of the Young-Von Helmholtz theory of color vision: Three separate sets of cones in the retina of the eye, one attuned to red, one to blue, and one to green. 1827 - Joseph Nicephore Niepce takes the first picture of nature. (Exposure time was 8 hours, emulsion was bitumen of Jedea.) 1829 - Joseph Nicephore Niepce and Louis M. Daguere signed their partnership agreement (Nicephore Niepce had been working on Heliography, or sun drawing; Daguerre on dioramas, which he constructed with the aid of a camera obscura.) 1839 - Daguerre announces the invention of Daguerrotype (Niepce had died). Daguerre had discovered that mercury vapors could bring out an image on a silver plate and that sodicum thiosulfate ("hypo") could fix the image and make it permanent. 1839 - William Henry Fox Talbot describes a system of imaging on silver chloride paper using a fixative solution of sodium chloride. Talbot later found that the latent image could be developed in a solution of gallic acid, and he was teh first person to employ a negative/positive process "Calotype" laying the groundwork for modern photography. 1830s - Invention of the stereoscope by the Germans. The device was used during the Victorian era for amusement. 1855 - Scottish physicist James Clark Maxwell, postulates the color additive theory for the production of color photographs. 1858 - First known aerial photograph is taken from a captive balloon from an altitude of 1,200 feet over Paris by Gaspar Felix Tournachon Nadar.
1861 - With the help of photographer Thomas Sutton, Maxwell demonstrates his techniques using a bow of multicolored ribbon. (Red filter - sulfo-cyanice of iron, blue filter - ammoniacal sulfate of copper, green filter - copper chloride, a fourth filter of lemon-colored glass was also used.) 1860s - Use of aerial observations from captive balloons in American War. Balloons used to map forest in 1862 not aerial photo though. 1870s - Pictures taken from greater heights, 33,000-34,000 feet, from free balloons. 1873 - Herman Vogel found that by soaking silver halide emulsions (which are naturally sensitive to only blue light) in various dyes, he could extend their sensitivity to longer and longer wavelengths, paving the way for photography in the near infrared. 1879 - S.P. Langley begins work to find a superior radiation detector. 1887 - Germans began experiments with photography for forestry. 1899 - George Eastman produced a nitrocellulose-based film which retained the clarity of the glass plates which had been used to that time. 1903 - Julius Neubronne patents breast mounted camera for pigeons. 1906 - Albert Maul takes first aerial photograph using a rocket propelled by compressed air which rose to a height of 2,600 feet and took pictures and then parachuted the camera back to earth. 1906 - G.R. Lawrence who had been experimenting with cameras for some time (some of which weighed more than 1,000 lbs.) which were hoisted into the air with the aid of balloon-kites and associated controls, takes pictures of San Francisco earthquake and f ire damage from an altitude of some 600 meters. Many people have thought that these photos were taken from airplanes. Lawrence's camera alone weighed more than the Wright Brothers plane and its pilot combined. 1909 - Wilbur Wright takes first aerial photograph from an airplane of Centrocelli, Italy. WWI produced a boost in the use of aerial photography, but after the war, enthusiasm wanted. 1914 - Lt. Lawes, British Flying Service, first takes airplane over enemy territory. 1915 - Cameras especially built for aerial use are being produced. Lt. Col. J.T.C. More Brabazon designed and produced the first practical aerial camera in collaboration with Thornton Pickard Ltd. 1918 - By this time in WWI, French aerial units were developing and printing as many as 10,000 photographs each night, during periods of intense activity. During the Meuse-Argonne offensive, 56,000 prints of aerial photograpy were made and delivered to A merican Expeditionary Forces in four days. 1914-1919 - WWI produces boost in the use of aerial photography, but after war interest wanes. 1919 - Canadian Forestry Mapping Program begins. 1919 - Hoffman first to sense from an aircraft in thermal IR. First books: Lee 1922; Joerg 1923 (urban); Platt & Johnson 1927 (archaeology). 1924 - Mannes and Godousky patent the first of their work on multi-layer film which led to the marketing of Kodachrome in 1935. 1931 - Stevens development of an IR sensitive film (B&W). 1934 - American Society of Photogrammetry founded. Photogrammetric Engineering is first published. This journal of the American Society of Photogrammetry was later renamed Photogrammetric Engineering and Remote Sensing. The Society is now named the Ame rican Society of Photogrammetry and Remote Sensing. 1936 - Captain Albert W. Stevens takes the first photograph of the actual curvature of the earth taken from a free balloon at an altitude of 72,000 feet. 1920s-1930s - Interest in the peaceful uses of aerial photography increases (ISDA, USAF, TVA). WWII brought about more sophisticated techniques in API.
1941-1945 - WWII brings about the development of more sophisticated techniques in aerial photographic interpretation (API). American, British and Germans all produce promising TIR devices. 1942 - Kodak patents first false color IR sensitive film. 1946 - First space photographs from V-2 rockets. 1950s - Advances in sensor technology move into multi-spectral range. 1954 - Westinghouse develops first side-looking airborne radar system. 1954 - U-2 takes first flight. 1956 - Lu Meuser makes first TIR motion picture employing an AN/AAS-4, a devise for air to ground strip mapping ("...features and vehicles move like an old keystone cops movie.") 1960 - U-2 is "shot down" over Sverdlovsk, USSR. 1960 - TIROS 1 launched as first meteorological satellite. 1960s - U.S. begins collection of intelligence photography from Earth orbiting satellites, CORONA and KH programs. 1962 - Zaitor and Tsuprun construct prototype nine lens multispectral camera permitting nine different film-filter combinations. ITEK employs camera to explore the potential value of multispectral photography. 1964 - SR-71 shown to the press in the Presidential campaign between Goldwater and LBJ. Late 1960s - Gemini and Apollo Space photography. 1968 - Hemphill describes first use of laser for airborne sensing. 1972 - Launch of the first Earth Resources Technology Satellite (ERTS-1). This system is later renamed Landsat-1. ERTS carries a return beam vidicon (RBV) and a multispectral scanner (MSS). 1972 - Photography from Sky Lab precursor of manned space station whos first element launch is currently scheduled for 1998. 1975 - Launch of Landsat 2. 1978 - Launch of Landsat 3 (March 5). 1978 - Launch and failure of Seasat. First civil SAR satellite. 1978 - Launch of Nimbus 7 (Coastal Zone Color Scanner). 1978 - Launch of NOAA 6 (aka TIROS-N), first satellite to carry the advanced very high resolution radiometer (AVHRR) on board. 1981 - Launch of SIR-A (Space Imaging Radar - A). 1982 - Launch of Landsat 4 (Thematic Mapper and MSS). 1984 - Launch of SIR-B. 1984 - Launch of Landsat 5. 1985 - Landsat Commercial contract awarded to EOSAT. Vendor takes over operation of the satellites and rights to Landsat data. 1986 - Launch of SPOT-1, French Earth Resources Satellite (Systeme Probatoire de la Observation de la Terre. 1988 - Indian Remote Sensing Satellite (IRS) launched. 1990 - Launch of SPOT-2.
1991 - Launch of ERS-1, European Radar Satellite, primarily designed for oceanographic applications. 1991 - Second Indian Remote Sensing Satellite launched. 1992 - JERS, Japanese Earth Resources Satellite launched with L-band radar and visible and infrared radiance/reflectance recording devices on-board. 1992 - Land Remote Sensing Act of 1992 brings Landsat back under U.S. Government control. EOSAT retains data rights to some Landsat data for up to ten years from acquisition. 1993 - Launch of SIR-C. 1993 - Launch of SPOT-3. 1994 - Landsat 6 fails to achieve orbit. 1995 - Third Indian Remote Sensing Satellite launched. 1995 - Canada launches RADARSAT. 1995 - Early CORONA and KH satellite data are declassified by an Executive Order signed by President Clinton on 23 February. This order authorizes the declassification of intelligence satellite photography acquired in the 1960s. 1995 - Launch of ERS-2. 1995 - First indication that a new class of intelligence satellite is being developed appears in the press. The new satellite code name 8x is said to be a major upgrade of the KH-12 spy satellite. The satellite which may weigh as much as twenty tons wil l be able to acquire "intricately detailed images of an area as large as 1,000 square miles of the Earth's surface...with roughly the same precision as existing satellites," according to an article in the September 28 Los Angeles Times. The Time article goes on to say that the current generation of photographic satellites photograph areas about 10 miles by 10 miles (100 square miles) typically showing details as small as six inches. 1997 - Proposed launch date of SeaWiFs, replacement for the coastal zone color scanner. 1997 - Proposed launch of SPOT-4. 1998 - Proposed first launch of the Earth Observing System's (EOS) AM-1 series on a Polar Orbiting Platform (POP). 1998 - Proposed launch date for Landsat-7. 2000 - Proposed launch date of EOS PM-1 series on POP.