Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Hardware y tratamiento de información para procesamiento de imágenes, Apuntes de Geología

Las características básicas del hardware necesario para el procesamiento digital de imágenes y describe el tratamiento de la información obtenida. Se discuten los grupos de tratamiento de la información, incluyendo correcciones, mejoramiento y extracción de información. Se explica el concepto de histograma de una imagen y se detallan los procedimientos de mejoramiento de contraste y filtrado de suavizado y realce. Además, se aborda la clasificación de imágenes multiespectrales.

Qué aprenderás

  • ¿Cómo se aplican filtros de suavizado y realce en las imágenes digitales?
  • ¿Cómo se realiza el tratamiento de correcciones, mejoramiento y extracción de información en las imágenes obtenidas?
  • ¿Qué características deben poseer los programas de software para el procesamiento digital de imágenes?

Tipo: Apuntes

2019/2020

Subido el 01/06/2020

gabriela-centeno-bensadon
gabriela-centeno-bensadon 🇦🇷

3 documentos

1 / 7

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
SISTEMAS DIGITALES
Hardware
Las características básicas del hardware necesario para un procesamiento digital de
imágenes, puede observarse en el siguiente esquema:
Software
Son programas que permiten la
manipulación del equipo para
solucionar, mediante
algoritmos, problemas inherentes
al procesamiento de datos. Las
características que
deben poseer, son las siguientes:
- velocidad
- confiabilidad (debe
advertir datos erróneos)
- interactividad
- versatilidad
- portátil
TRATAMIENTO DE LA INFORMACIÓN
Se pueden considerar tres grupos de tratamiento de la información proveniente de los
satélites:
- Correcciones
- Mejoramiento
- Extracción de información
Correcciones: A los fines de la utilización de una imagen es necesario corregirlos los
errores de los datos obtenidos por el sensor. Los defectos pueden provenir por la
distorsión de la geometría particular que guarda la plataforma y el sensor con la escena
y la fuente de iluminación, por condiciones atmosféricas, etc.
Mejoramiento: Incluye tratamientos de realce de la imagen, mediante la transformación
de los datos con el fin de poner en evidencia ciertos patrones en la imagen.
Extracción de información: Incluye la clasificación de los datos relativos a la escena a
efectos de obtener información.
Los anteriores procesos, se basan para su realización en la condición matricial de la
imagen satelital. Es una matriz almacenada en archivo, conteniendo información y por
lo tanto es factible aplicar sobre ella, los métodos de análisis estadísticos aplicables a
cualquier matriz.
Es así, que, para el tratamiento digital de las imágenes, se recurre a la estadística, que se
convierte así, en una herramienta principal para el procesamiento de la información.
Histograma de una imagen
Es la función que representa la frecuencia de ocurrencia de cada uno de los niveles de
gris (proporcionales a la radiometría) en una imagen digital. La forma de representación, puede ser en
forma numérica o gráfica.
1
pf3
pf4
pf5

Vista previa parcial del texto

¡Descarga Hardware y tratamiento de información para procesamiento de imágenes y más Apuntes en PDF de Geología solo en Docsity!

SISTEMAS DIGITALES

Hardware Las características básicas del hardware necesario para un procesamiento digital de imágenes, puede observarse en el siguiente esquema: Software Son programas que permiten la manipulación del equipo para solucionar, mediante algoritmos, problemas inherentes al procesamiento de datos. Las características que deben poseer, son las siguientes:

  • velocidad
  • confiabilidad (debe advertir datos erróneos)
  • interactividad
  • versatilidad
  • portátil TRATAMIENTO DE LA INFORMACIÓN Se pueden considerar tres grupos de tratamiento de la información proveniente de los satélites:
  • Correcciones
  • Mejoramiento
  • Extracción de información Correcciones: A los fines de la utilización de una imagen es necesario corregirlos los errores de los datos obtenidos por el sensor. Los defectos pueden provenir por la distorsión de la geometría particular que guarda la plataforma y el sensor con la escena y la fuente de iluminación, por condiciones atmosféricas, etc. Mejoramiento: Incluye tratamientos de realce de la imagen, mediante la transformación de los datos con el fin de poner en evidencia ciertos patrones en la imagen. Extracción de información: Incluye la clasificación de los datos relativos a la escena a efectos de obtener información. Los anteriores procesos, se basan para su realización en la condición matricial de la imagen satelital. Es una matriz almacenada en archivo, conteniendo información y por lo tanto es factible aplicar sobre ella, los métodos de análisis estadísticos aplicables a cualquier matriz. Es así, que, para el tratamiento digital de las imágenes, se recurre a la estadística, que se convierte así, en una herramienta principal para el procesamiento de la información. Histograma de una imagen Es la función que representa la frecuencia de ocurrencia de cada uno de los niveles de gris (proporcionales a la radiometría) en una imagen digital. La forma de representación, puede ser en forma numérica o gráfica.

En el ejemplo anterior, puede observarse, la información que tiene la imagen. La estrechez del histograma, se manifestará en poco contraste en los valores de gris de la imagen. Coeficiente de correlación El coeficiente de correlación es una medida de la relación existente entre los valores de pixeles existentes entre dos bandas. El intervalo de valores que adopta es: -1 < r < 1 MEJORAMIENTO DE IMÁGENES Mejorar una imagen, consiste en ejecutar un procesamiento numérico para realzar, enfatizar o suprimir, ciertas características de la misma. Por ejemplo, puede desearse un mayor contraste entre los objetos que integran la imagen, necesitar poner énfasis en los límites de distintas coberturas vegetales, etc. Mejoramiento del contraste Este procedimiento, consiste en realzar el contraste visual de la imagen. Esto significa que, si tenemos una imagen con histograma estrecho, se busca ensancharlo. Esto se logra, mediante la aplicación de funciones de transformación, que pueden ser:

  • expansión lineal del histograma
  • ecualización, donde se busca una distribución más uniforme de los valores de pixeles de la imagen. Filtraje o convolución Un filtro espacial, tiene como función, transformar el valor del pixel, para un fin determinado, teniendo en cuenta los valores de los pixeles vecinos al mismo. Para ello, se coloca sobre el pixel y su entorno, una matriz de coeficientes y se calcula su nuevo valor. Los tipos de filtros, son:
    • Suavización: Suavizan o reducen los valores de grises. Sirve para resaltar zonas homogéneas. Son denominados pasa bajo.
    • Mejoramiento: Realzan detalles geométricos y altas frecuencias. Definen contornos. Son denominados pasa alto
    • Detección de bordes: Resaltan cambios fuertes en los valores de pixeles. Enfatizan bordes.
    • Detección de líneas: Resaltan cambios geométricos en una dirección Determinada
  • Podemos dividir los filtros en dos tipos en función del tipo de modificación que realizan.

después restar esta imagen de la imagen original. Haciendo esto se elimina el valor medio y se deja en cada píxel el valor que refleja la variación local de los Niveles Digitales. El núcleo que caracteriza esta transformación puede obtenerse realizando el mismo cálculo sobre los núcleos de las operaciones independientes. Es decir, restando al núcleo identidad el de media, obteniendo el siguiente: Realces Son procedimientos que tienden a mejorar la interpretabilidad visual de una imagen, aunque no aumentan la cantidad de información contenida en ella. El rango de opciones de que dispone el analista para realces de imagen es virtualmente ilimitado, aunque la mayoría de estas técnicas pueden ubicarse en dos grupos: operaciones de punto, que modifican independientemente el brillo de cada pixel, y operaciones locales que modifican el valor de cada pixel basadas en el valor de los pixeles vecinos. Dentro de las primeras citaremos algunas como estiramiento de contraste y manipulaciones espectrales, y entre las segundas el filtrado espacial. Estiramiento de contraste Este procedimiento involucra un cambio de forma del histograma reasignando los valores de los pixeles. En las Figs. vemos un ejemplo de cómo, a través de una función de trasferencia lineal se puede efectuar dicha transformación. El caso de nuestro ejemplo es el de un estiramiento de contraste lineal, donde vemos cómo el rango de valores iniciales de los pixeles (0 a 127) es expandido hasta obtener el rango máximo de 0 a 255. Al expandir la escala de grises se logra realzar detalles sutiles de la imagen, difíciles de discriminar con la compresión inicial. EXTRACCIÓN DE INFORMACIÓN CLASIFICACION DE IMÁGENES MULTIESPECTRALES Una de las grandes ventajas que posee el análisis de datos a través del procesamiento digital, es la de extraer información temática útil. Para ello, se recurre a la clasificación de imágenes. La clasificación es un concepto del procesamiento digital de imágenes, que contempla los procedimientos mediante los cuales una computadora puede agrupar los pixeles de una imagen, en categorías o clases, dentro de un espacio multiespectral. La clasificación digital, sigue un procedimiento similar a la fotointerpretación visual: se identifican primeramente las coberturas según tono, textura, forma, modelos, etc. Y luego se expande al resto de la fotografía el modelo o patrón determinado. Es decir, se asigna determinada categoría a determinada superficie en función del patrón establecido. Si se traduce esto a un análisis digital, se obtiene el esquema de la clasificación digital, que comprende las siguientes fases: 1- Definición digital de las categorías : fase de entrenamiento. Bir - Br Bir + Br 0 < Iv < 1 2- Asignación de los pixeles de toda la imagen a una de esas categorías : fase de

asignación 3- Comprobación y verificación de resultados 4- Corrección de errores La fase de entrenamiento, es la que define digitalmente las categorías temáticas a efectos de que posteriormente, el software las reconozca automáticamente. Según se realice esta fase de entrenamiento, es que se dividen las clasificaciones en dos métodos: el supervisado y el no supervisado. En el primero, se parte de un conocimiento previo del terreno en cambio en el segundo, es el software quien delimita las clases, en función de su homogeneidad. CLASIFICACIÓN SUPERVISADA En este método, se conoce " a priori " la identidad y localización de algunos tipos de elementos a ser clasificados. Por ejemplo, cobertura de bosques, aspectos urbanos, etc. Esto significa, trabajo de campo, o análisis a través de cartas, fotografías aéreas, experiencias personales, etc. Los sitios específicos elegidos y conocidos, que representan ejemplos homogéneos, son conocidos como "áreas de entrenamiento" puesto que las características espectrales del mismo, servirán para "entrenar" el algoritmo de clasificación. Para cada área de entrenamiento, se calculan los parámetros estadísticos (media, desviación standart, covarianza, etc), para luego evaluar cada pixel de la imagen, separarlo y asignarlo a una respectiva clase. Aspectos principales a tener en cuenta: 1- Adoptar un esquema de clasificación ordenado. 2- Seleccionar áreas de entrenamiento. 3- Extraer estadísticas de los datos espectrales del área de entrenamiento. 4- Analizar las estadísticas para seleccionar los datos que ofrezcan mayor ventaja (bandas) en el proceso de clasificación. 5- Seleccionar el algoritmo de clasificación adecuado: o Paralelepípedos: Se basa en una serie de umbrales bajos y altos de reflectividad para cada categoría en cada banda, determinadas por la firma espectral. Para asignar un píxel a una clase determinada, éste debe poseer valores de reflectividad dentro del rango de la categoría en cuestión en cada banda considerada. El proceso de paralelepípedos es el más rápido de los clasificadores supervisados. También, potencialmente, el menos preciso o Mínima Distancia: se basa en la reflectividad media en cada banda para una firma espectral. Los píxeles se asignan a la clase con la media más próxima a su valor. Es más lento que el clasificador de paralelepípedos, y más rápido que el clasificador de máxima probabilidad. Se utiliza, generalmente, cuando el número de píxeles que define las firmas espectrales son muy pequeñas o cuando los campos de entrenamiento no están bien definidos. o Máxima verosimilitud: Se basa en la función de densidad de probabilidad asociada a la firma de un determinado campo de entrenamiento. Los píxeles se asignan a la clase más probable, tras comparar la probabilidad de que cada píxel pertenezca a cada una de las signaturas consideradas. 6- Clasificar la imagen en n clases. 7- Evaluar estadísticamente la clasificación. 8- Comprobación "in situ" de los resultados de la clasificación o corroboración. 9- Corrección de errores CLASIFICACIÓN NO SUPERVISADA Este método, se utiliza cuando no se conocen las características del terreno, o cobertura

Independientemente del número de bandas de la imagen, las correcciones se realizan de forma individual para cada una de las bandas, ya que algunos de los errores pueden aparecer solo en parte de dichas bandas, y no necesariamente sobre todas ellas de forma simultanea para un mismo píxel. Existen numerosos factores que introducen errores en la imagen. Se pueden agrupar en dos grupos, según su condición: Geométricas. Distorsiones de forma provocadas por los movimientos y oscilaciones del sensor, o por el relieve del terreno, entre otros factores. Con una base conceptual relacionada con las técnicas de corrección de estas deficiencias, existe un paso básico que debemos llevar a cabo en muchos casos: la georreferenciación de la imagen. Para incorporar dicha imagen dentro del ámbito de un SIG, es necesario que le asignemos una referencia geográfica ya que, como bien sabemos, todos los datos espaciales han de tener definida su posición en el espacio. Cuando esta referencia no existe, es necesario llevar a cabo un proceso que la defina. Sucede debido a diversos factores: o La rotación de la Tierra durante la toma de la imagen. o La frecuencia de escaneo del sensor. o La curvatura de la Tierra. o Los efectos panorámicos. o Las variaciones en la velocidad y altura de la plataforma de registro. Radiométricas. Valores incorrectamente recogidos por el sensor. Pueden ser debidas a errores del sensor o introducidos en el proceso de almacenamiento o transmisión, o bien a distorsiones debidas al efecto que la atmósfera ejerce sobre la radiación (y por tanto sobre los valores recogidos). En función de la causa que los ha originado, distinguimos los siguientes tipos de errores: o Errores debidos a los sensores. Los sensores pueden introducir errores en las imágenes tanto en forma de distorsión como en forma de ruido, ya sea este regular o aleatorio. o Errores debidos a la topografía. Además de producir distorsiones geométricas como ya hemos visto, las formas del relieve condicionan la forma en que la radiación es reflejada, ya que dicha reflexión está condicionada por el ángulo de incidencia. o Errores debidos al efecto de la atmósfera en la radiación. Para comprender la necesidad de esta corrección debe tenerse en cuenta que en algunos casos lo que interesa de la imagen no son los Niveles Digitales, sino una variable con sentido físico como la radiancia correspondiente a cada longitud de onda. Será esta radiancia la que luego se analice para la obtención de otros parámetros físicos derivados, y su obtención se realiza a partir de los Niveles Digitales aplicando ecuaciones lineales con parámetros dependientes del sensor. El problema estriba en que la radiancia que se obtiene al aplicar este proceso es la que ha alcanzado el sensor, que no ha de corresponderse necesariamente con la que se tiene sobre el terreno o la que recibiría el sensor si estuviera a una distancia mínima del objeto. La atmósfera afecta a la radiación en su camino desde el suelo hasta el sensor, y distorsiona la información recogida. Los efectos atmosféricos son principalmente de dos clases: difusión y absorción.