



Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Las características básicas del hardware necesario para el procesamiento digital de imágenes y describe el tratamiento de la información obtenida. Se discuten los grupos de tratamiento de la información, incluyendo correcciones, mejoramiento y extracción de información. Se explica el concepto de histograma de una imagen y se detallan los procedimientos de mejoramiento de contraste y filtrado de suavizado y realce. Además, se aborda la clasificación de imágenes multiespectrales.
Qué aprenderás
Tipo: Apuntes
1 / 7
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
Hardware Las características básicas del hardware necesario para un procesamiento digital de imágenes, puede observarse en el siguiente esquema: Software Son programas que permiten la manipulación del equipo para solucionar, mediante algoritmos, problemas inherentes al procesamiento de datos. Las características que deben poseer, son las siguientes:
En el ejemplo anterior, puede observarse, la información que tiene la imagen. La estrechez del histograma, se manifestará en poco contraste en los valores de gris de la imagen. Coeficiente de correlación El coeficiente de correlación es una medida de la relación existente entre los valores de pixeles existentes entre dos bandas. El intervalo de valores que adopta es: -1 < r < 1 MEJORAMIENTO DE IMÁGENES Mejorar una imagen, consiste en ejecutar un procesamiento numérico para realzar, enfatizar o suprimir, ciertas características de la misma. Por ejemplo, puede desearse un mayor contraste entre los objetos que integran la imagen, necesitar poner énfasis en los límites de distintas coberturas vegetales, etc. Mejoramiento del contraste Este procedimiento, consiste en realzar el contraste visual de la imagen. Esto significa que, si tenemos una imagen con histograma estrecho, se busca ensancharlo. Esto se logra, mediante la aplicación de funciones de transformación, que pueden ser:
después restar esta imagen de la imagen original. Haciendo esto se elimina el valor medio y se deja en cada píxel el valor que refleja la variación local de los Niveles Digitales. El núcleo que caracteriza esta transformación puede obtenerse realizando el mismo cálculo sobre los núcleos de las operaciones independientes. Es decir, restando al núcleo identidad el de media, obteniendo el siguiente: Realces Son procedimientos que tienden a mejorar la interpretabilidad visual de una imagen, aunque no aumentan la cantidad de información contenida en ella. El rango de opciones de que dispone el analista para realces de imagen es virtualmente ilimitado, aunque la mayoría de estas técnicas pueden ubicarse en dos grupos: operaciones de punto, que modifican independientemente el brillo de cada pixel, y operaciones locales que modifican el valor de cada pixel basadas en el valor de los pixeles vecinos. Dentro de las primeras citaremos algunas como estiramiento de contraste y manipulaciones espectrales, y entre las segundas el filtrado espacial. Estiramiento de contraste Este procedimiento involucra un cambio de forma del histograma reasignando los valores de los pixeles. En las Figs. vemos un ejemplo de cómo, a través de una función de trasferencia lineal se puede efectuar dicha transformación. El caso de nuestro ejemplo es el de un estiramiento de contraste lineal, donde vemos cómo el rango de valores iniciales de los pixeles (0 a 127) es expandido hasta obtener el rango máximo de 0 a 255. Al expandir la escala de grises se logra realzar detalles sutiles de la imagen, difíciles de discriminar con la compresión inicial. EXTRACCIÓN DE INFORMACIÓN CLASIFICACION DE IMÁGENES MULTIESPECTRALES Una de las grandes ventajas que posee el análisis de datos a través del procesamiento digital, es la de extraer información temática útil. Para ello, se recurre a la clasificación de imágenes. La clasificación es un concepto del procesamiento digital de imágenes, que contempla los procedimientos mediante los cuales una computadora puede agrupar los pixeles de una imagen, en categorías o clases, dentro de un espacio multiespectral. La clasificación digital, sigue un procedimiento similar a la fotointerpretación visual: se identifican primeramente las coberturas según tono, textura, forma, modelos, etc. Y luego se expande al resto de la fotografía el modelo o patrón determinado. Es decir, se asigna determinada categoría a determinada superficie en función del patrón establecido. Si se traduce esto a un análisis digital, se obtiene el esquema de la clasificación digital, que comprende las siguientes fases: 1- Definición digital de las categorías : fase de entrenamiento. Bir - Br Bir + Br 0 < Iv < 1 2- Asignación de los pixeles de toda la imagen a una de esas categorías : fase de
asignación 3- Comprobación y verificación de resultados 4- Corrección de errores La fase de entrenamiento, es la que define digitalmente las categorías temáticas a efectos de que posteriormente, el software las reconozca automáticamente. Según se realice esta fase de entrenamiento, es que se dividen las clasificaciones en dos métodos: el supervisado y el no supervisado. En el primero, se parte de un conocimiento previo del terreno en cambio en el segundo, es el software quien delimita las clases, en función de su homogeneidad. CLASIFICACIÓN SUPERVISADA En este método, se conoce " a priori " la identidad y localización de algunos tipos de elementos a ser clasificados. Por ejemplo, cobertura de bosques, aspectos urbanos, etc. Esto significa, trabajo de campo, o análisis a través de cartas, fotografías aéreas, experiencias personales, etc. Los sitios específicos elegidos y conocidos, que representan ejemplos homogéneos, son conocidos como "áreas de entrenamiento" puesto que las características espectrales del mismo, servirán para "entrenar" el algoritmo de clasificación. Para cada área de entrenamiento, se calculan los parámetros estadísticos (media, desviación standart, covarianza, etc), para luego evaluar cada pixel de la imagen, separarlo y asignarlo a una respectiva clase. Aspectos principales a tener en cuenta: 1- Adoptar un esquema de clasificación ordenado. 2- Seleccionar áreas de entrenamiento. 3- Extraer estadísticas de los datos espectrales del área de entrenamiento. 4- Analizar las estadísticas para seleccionar los datos que ofrezcan mayor ventaja (bandas) en el proceso de clasificación. 5- Seleccionar el algoritmo de clasificación adecuado: o Paralelepípedos: Se basa en una serie de umbrales bajos y altos de reflectividad para cada categoría en cada banda, determinadas por la firma espectral. Para asignar un píxel a una clase determinada, éste debe poseer valores de reflectividad dentro del rango de la categoría en cuestión en cada banda considerada. El proceso de paralelepípedos es el más rápido de los clasificadores supervisados. También, potencialmente, el menos preciso o Mínima Distancia: se basa en la reflectividad media en cada banda para una firma espectral. Los píxeles se asignan a la clase con la media más próxima a su valor. Es más lento que el clasificador de paralelepípedos, y más rápido que el clasificador de máxima probabilidad. Se utiliza, generalmente, cuando el número de píxeles que define las firmas espectrales son muy pequeñas o cuando los campos de entrenamiento no están bien definidos. o Máxima verosimilitud: Se basa en la función de densidad de probabilidad asociada a la firma de un determinado campo de entrenamiento. Los píxeles se asignan a la clase más probable, tras comparar la probabilidad de que cada píxel pertenezca a cada una de las signaturas consideradas. 6- Clasificar la imagen en n clases. 7- Evaluar estadísticamente la clasificación. 8- Comprobación "in situ" de los resultados de la clasificación o corroboración. 9- Corrección de errores CLASIFICACIÓN NO SUPERVISADA Este método, se utiliza cuando no se conocen las características del terreno, o cobertura
Independientemente del número de bandas de la imagen, las correcciones se realizan de forma individual para cada una de las bandas, ya que algunos de los errores pueden aparecer solo en parte de dichas bandas, y no necesariamente sobre todas ellas de forma simultanea para un mismo píxel. Existen numerosos factores que introducen errores en la imagen. Se pueden agrupar en dos grupos, según su condición: Geométricas. Distorsiones de forma provocadas por los movimientos y oscilaciones del sensor, o por el relieve del terreno, entre otros factores. Con una base conceptual relacionada con las técnicas de corrección de estas deficiencias, existe un paso básico que debemos llevar a cabo en muchos casos: la georreferenciación de la imagen. Para incorporar dicha imagen dentro del ámbito de un SIG, es necesario que le asignemos una referencia geográfica ya que, como bien sabemos, todos los datos espaciales han de tener definida su posición en el espacio. Cuando esta referencia no existe, es necesario llevar a cabo un proceso que la defina. Sucede debido a diversos factores: o La rotación de la Tierra durante la toma de la imagen. o La frecuencia de escaneo del sensor. o La curvatura de la Tierra. o Los efectos panorámicos. o Las variaciones en la velocidad y altura de la plataforma de registro. Radiométricas. Valores incorrectamente recogidos por el sensor. Pueden ser debidas a errores del sensor o introducidos en el proceso de almacenamiento o transmisión, o bien a distorsiones debidas al efecto que la atmósfera ejerce sobre la radiación (y por tanto sobre los valores recogidos). En función de la causa que los ha originado, distinguimos los siguientes tipos de errores: o Errores debidos a los sensores. Los sensores pueden introducir errores en las imágenes tanto en forma de distorsión como en forma de ruido, ya sea este regular o aleatorio. o Errores debidos a la topografía. Además de producir distorsiones geométricas como ya hemos visto, las formas del relieve condicionan la forma en que la radiación es reflejada, ya que dicha reflexión está condicionada por el ángulo de incidencia. o Errores debidos al efecto de la atmósfera en la radiación. Para comprender la necesidad de esta corrección debe tenerse en cuenta que en algunos casos lo que interesa de la imagen no son los Niveles Digitales, sino una variable con sentido físico como la radiancia correspondiente a cada longitud de onda. Será esta radiancia la que luego se analice para la obtención de otros parámetros físicos derivados, y su obtención se realiza a partir de los Niveles Digitales aplicando ecuaciones lineales con parámetros dependientes del sensor. El problema estriba en que la radiancia que se obtiene al aplicar este proceso es la que ha alcanzado el sensor, que no ha de corresponderse necesariamente con la que se tiene sobre el terreno o la que recibiría el sensor si estuviera a una distancia mínima del objeto. La atmósfera afecta a la radiación en su camino desde el suelo hasta el sensor, y distorsiona la información recogida. Los efectos atmosféricos son principalmente de dos clases: difusión y absorción.