Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Doctor Geodesia
Doctor Geodesia
MADRID
ESCUELA TÉCNICA SUPERIOR DE
INGENIEROS EN TOPOGRAFÍA, GEODESIA Y
CARTOGRAFÍA
TESIS DOCTORAL
Directora:
Autor:
Madrid 2015
DEPARTAMENTO DE INGENIERÍA TOPOGRÁFICA Y
CARTOGRAFÍA
TESIS DOCTORAL
Directora:
Autor:
Presidente:
D.
Vocales:
D.
D.
D.
Secretario:
D.
Suplentes:
D.
D.
Calificación …………………………………………………………………
ÍNDICE GENERAL
ÍNDICE GENERAL 1
1. RESUMEN 7
2. INTRODUCCIÓN 11
3. ANTECEDENTES 13
3.1. Evolución en la medida de ángulos. Triangulación 13
3.1.1. Medida del arco de meridiano 16
3.1.2. Expedición a Laponia 17
3.1.3. Expedición al virreinato del Perú 20
3.1.4. Ampliación de la medición del arco de meridiano de París 23
3.2. Evolución del Método de ajuste mediante mínimos
cuadrados 27
3.3. Mapa Topográfico Nacional 30
3.4. Evolución en la medida de distancias. Distanciometría 40
3.5. Ordenadores personales y su influencia en el diseño de
redes topográficas 45
3.6. Representación del relieve 50
4. SITUACIÓN ACTUAL 55
4.1. Sistemas y marcos de referencia 57
4.1.1. Tipos de redes topográficas 62
4.2. Ajuste de observaciones 72
4.2.1. Desviaciones típicas a priori de las observaciones 72
4.2.1.1. Direcciones. Acimutal y cenital 73
5. METODOLOGÍA 209
5.1. Desarrollo teórico del problema de diseño 213
5.1.1. Análisis de la inclusión del parámetro desorientación en el
diseño de redes topográficas 223
5.1.2. Relevancia del MDT en la técnica de diseño de redes
topográficas 228
5.2. Implementación del diseño de redes topográficas en una
aplicación informática. “Brújula” 234
5.2.1. Diseño de clases. Propiedades y métodos de las clases 234
5.2.1.1. Clases CPunto2D, CObsDis y otras relacionadas 235
5.2.1.1. Clases CMatriz, CRelObs y CLibretaRelobs 237
5.2.1.1. Clases CET y CTablaET 239
5.2.1.2. Clases gráficas 240
5.2.1.3. Clase auxiliar CMaxMin 245
5.2.2. Manual de Referencia 246
5.2.2.1. Definición de un proyecto 246
5.2.2.2. Cálculo de los números de redundancia y desviaciones
típicas a posteriori 247
5.2.2.3. Diseño óptimo de la red 249
5.2.2.4. Algoritmo de visibilidad 249
5.2.3. Manual de usuario 252
7. CONCLUSIONES 317
9. BIBLIOGRAFÍA 341
1. RESUMEN
El presente trabajo tiene como objetivo general el análisis de las técnicas de diseño y
optimización de redes topográficas, observadas mediante topografía convencional (no
satelital) el desarrollo e implementación de un sistema informático capaz de ayudar a la
definición de la geometría más fiable y precisa, en función de la orografía del terreno donde
se tenga que ubicar.
Ha de señalarse que la optimización de la red, con arreglo a los criterios expuestos, está
sujeta a los condicionantes que impone la necesidad de que los vértices sean accesibles, y
además sean visibles entre sí, aquellos relacionados por observaciones, situaciones que
dependen esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que
puedan existir. Esto implica la necesidad de incluir en el análisis y en el diseño, cuando
menos de un modelo digital del terreno (MDT), aunque lo más útil sería la inclusión en el
estudio del modelo digital de superficie (MDS), pero esta opción no siempre será posible.
2. Desarrollar un sistema que permita optimizar una red topográfica en sus resultados,
aplicando técnicas de diseño y simulación sobre el modelo anterior.
4. Elaborar una visión conjunta de la influencia del diseño de una red, en los seis
siguientes factores (precisiones a posteriori, fiabilidad de las observaciones, naturaleza
y viabilidad de las mismas, instrumental y metodología de estacionamiento) como
criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se
aborda.
5. Elaborar y programar los algoritmos necesarios para poder desarrollar una aplicación
que sea capaz de contemplar las variables planteadas en el apartado anterior en el
problema del diseño y simulación de redes topográficas, contemplando el modelo
digital de superficie.
Desarrollar los algoritmos necesarios para interrelacionar el modelo digital del terreno con
los propios del diseño.
1
Un sistema de dos dimensiones en el que a cada punto se le asocia una altitud.
2
Debido a qué un modelo digital de superficies (ya se expondrá en el capítulo de MDT) es un producto derivado
de los modelos digitales del terreno no se pueden encontrar con la misma facilidad que los MDT.
ABSTRACT
The overall purpose of this work is the analysis of the techniques of design and optimization
for geodetic networks, measured with conventional survey methods (not satellite), the
development and implementation of a computational system capable to help on the definition
of the most liable and accurate geometry, depending on the land orography where the
network has to be located.
First of all, a study of the methodology by least squares adjustment and propagation of
variances will be held; then, subsequently, analyze its dependency of the geometry that the
network will take.
It will be essential to determine the independency of redundancy matrix (R) from the
observations and its absolute dependency from the network geometry, as well as the
influence of the diagonal terms of the R matrix (rii), redundancy numbers, in order to ensure
maximum re liability of the network.
It will also be analyzed first the behavior of redundancy numbers (rii) in surveying network
design, then the variation of these values depending on the geometry with the analysis of its
independency from the observations, and finally the different design levels depending on
parameters and known data.
It should be stated that network optimization, according to exposed criteria, is subject to the
accessibility of the network points. In addition, common visibility among network points,
which of them are connected with observations, has to be considered. All these situations
depends essentially on the terrain relief and the natural or artificial obstacles that should
exist. Therefore, it is necessary to include, at least, a digital terrain model (DTM), and better
a digital surface model (DSM), not always available.
This system would provide, at first, an optimal design of a constrained network, considering
both the internal reliability and the accuracy of its points (including the relief). This approach
would amount to solving a “two and a half dimensional”3 design, if a digital surface model is
3
A two-dimensional system in which each point is associated with an altitude.
available. As the availability of free DSM4 of the areas of interest of the project today is
expensive, the possibility of combining a digital terrain model will arise.
The activities to be developed on this PhD thesis are described in this document and are part
of the research for which the following overall objectives are posed:
4. To develop an overview of the influence on the network design of six major factors
(posterior accuracy, observations reliability, viability of observations, instruments and
station methodology) as optimization criteria, in order to define the subject
approached on this document.
To develop the necessary algorithms to interrelate the digital terrain model with the design
ones.
To implement in the software application the possibility of variation of the coverage criteria
parameters (normal distribution or Student t test) and therefore its degree of reliability.
4
Because a digital surface model (as will be discussed in chapter DTM) is a product derived from the digital
terrain models you can not be found with the same ease as the DTM.
2. INTRODUCCIÓN
Una red topográfica está constituida por una serie de puntos (vértices) relacionados entre sí a
través observaciones de angulares (direcciones) y lineales (distancias y desniveles) siendo
conocidas o fijadas de antemano la posiciones de algunos de esos puntos y desconociéndose
las del resto, que se estiman a partir del ajuste de las observaciones realizadas.
Por lo tanto, el diseño de redes topográficas para ser observadas mediante técnicas
convencionales de la topografía no está en desuso. Es más, algunos casos en los que las
observaciones GNSS no son las más indicadas:
Redes de enlace entre las bocas de túneles, para su perforación, se observarán entre ellas con
dicha técnica pero deberán volverse a observar mediante ángulos y distancias, dado que con
esta metodología es con que se ha de realizar el calado y así poder determinar tanto el factor
de escala de la red interna, como la fiabilidad de la transmisión de orientación de los “cales”.
5
Desplazamientos laterales que se realizan, con una bateadora, sobre los raíles hasta situarlos en su posición de proyecto.
Marcos de referencia para la realización de cartografía urbana a grandes escalas, bien en las
redes básicas e inexorablemente en las redes secundarias de densificación.
Con estos ejemplos queda patente la necesidad, hoy en día, de seguir utilizando redes
topográficas observadas mediante técnicas convencionales; y es bajo este tipo de redes las
que se abordan en el presente estudio, el cual queda enmarcado en la ciencia de la Geodesia
y más concretamente de la Topografía, debido a que el diseño de grandes redes no se plantea
para ser observadas mediante técnicas convencionales de medida, ángulos y distancias.
3. ANTECEDENTES
El objeto de la Geodesia es el estudio y determinación de la forma y dimensiones de la
Tierra, de su campo de gravedad, y sus variaciones temporales; constituye un apartado
especialmente importante la determinación de posiciones de puntos de su superficie. Esta
definición incluye la orientación de la Tierra en el espacio.
La Geodesia es una ciencia básica, con unos fundamentos fisicomatemáticos y con unas
aplicaciones prácticas en amplías ramas del saber, como en topografía, cartografía,
fotogrametría, navegación e ingenierías de todo tipo, sin olvidar su interés para fines
militares. Está íntimamente relacionada con la Astronomía y la Geofísica, apoyándose
alternativamente unas Ciencias en otras en su desarrollo, en sus métodos y en la consecución
de sus fines (Sevilla, 1999).
Jean Picard, astrónomo y sacerdote francés. En 1679 publicó el primer Anuario Astronómico
en lengua francesa. Miembro fundador de la Academia de Ciencias francesa, trabajó en el
Observatorio de París, junto con J.D. Cassini (República de Génova, 1625 – París,1712).
Introdujo importantes perfeccionamientos en numerosos instrumentos de medida, como un
micrómetro para medir el diámetro de cuerpos celestes como el Sol, la Luna y los planetas.
Una cosa quedó clara después de los trabajos de Snellius y Picard y es que con medidas de
ángulos y distancias podían obtenerse posiciones de puntos sobre la superficie de la Tierra.
Como consecuencia pronto proliferaron la ejecución de este tipo de medidas, debido
principalmente a necesidades cartográficas con fines militares, civiles y de navegación.
(Sevilla, 1999).
A partir del planteamiento de Newton, en el siglo XVII, se estableció una controversia sobre
la forma y las medidas de la Tierra pero descartando la forma totalmente esférica. Esto fue
debido a la publicación del libro “Observations astronomiques et physiques faites en l'ile de
Cayenne” (Paris, 1679), descubrió a la comunidad científica mundial que, después de una
minuciosa campaña gravimétrica de
cientos de observaciones, resultaba que
el péndulo matemático que bate segundos
cerca del Ecuador es 2,8 mm más corto
que en París, a 48°50' N; el punto del
Ecuador elegido fue, Cayena, capital de
la Guayana Francesa, a 4°55' al Norte del
Ecuador. Hechas las oportunas
correcciones de altitud y otras variables,
la diferencia resultante solo podía
explicarse por una menor aceleración de
la gravedad en el Ecuador que en Paris,
incompatible con una Tierra esférica
perfecta. El libro fue escrito por Jean
Richer (1630 - 1696), físico y astrónomo
francés, académico desde 1666.
6
Propone unificar los sistemas de medida con la definición de una unidad patrón cuyo uso se debería generalizar
entre los científicos. La braza geométrica es así definida como “…la dismillionnieme partie du demidiamatre de
la Terre (Lafuente, 1983)”
prolongar el arco de meridiano de Picard, Paris - Amiens, hasta Dunquerque por el norte y
hasta Coulliere por el sur.
Al año siguiente cuando se había alcanzado Bourges, muere Colbert, y su sucesor, François
Michel Le Tellier de Louvois, Marqués de Louvois (París, 1641 – 1691, Versalles), llama a
Dominico Cassini a Paris, dejando a uno de sus ayudantes a cargo de las operaciones.
En 1700 el trabajo fue recomenzado por Giovanni Dominico Cassini , su hijo Jacques
Cassini (1677 – 1756), Filipo Maraldi (1665 – 1729), Couplet y Chazelles, quienes llegaron
con una cadena de 24 triángulos desde el observatorio de París hasta el Rosellón y midieron
una base entre Leucate y Saint-Nazary, determinando la latitud en los dos puntos extremos
del arco de París y Colliure.
Tras estas mediciones, en 1701, y realizados los cálculos a lo largo de más de ocho grados de
meridiano, vinieron a apoyar la idea de disminución de la longitud en toesas7de los diferentes
grados de latitud hacia el sur y por tanto a suponer, de acuerdo con Newton, una Tierra
achatada por los polos (Ten, 1996).
Después de muchas interrupciones el director del observatorio de Paris y sin haber concluido
la observación hasta Dunkerque, Jacques Cassini, en 1713, realiza cálculos para determinar
la forma de la Tierra, llegando a la conclusión de que era un elipsoide de revolución cuya
excentricidad sería 1/11, y la diferencia entre los ejes polar y ecuatorial 1/262; esto entraba
en contradicción con las tesis de Newton.
El objetivo de estas dos expediciones era medir un arco de meridiano de un grado en las
proximidades del ecuador y del polo norte.
7
Una toesa = 1,949 m
¿Qué determinó esta exportación en las preocupaciones científicas francesas al resto del
continente? Dentro del contexto europeo en el que Francia es una potencia económica y
cultural, la razón se ha de buscar en la decidida política de intervención y ordenación del
espacio geográfico iniciada por Colbert. En efecto, la protección a las manufacturas, la lucha
por la supresión de aduanas interiores, el establecimiento de una red de comunicaciones
fluvial o por carretera, la exploración e inventariado de recursos naturales, impulsaban el
desarrollo de las investigaciones geográficas. Una adecuada respuesta a todos estos objetivos
económicos exigía el reconocimiento cartográfico del suelo francés. El levantamiento de la
carta de Francia será por unas décadas el objetivo prioritario de la política científica del
vecino país (Lafuente, 1983).
¿Cuál era el gran interés del monarca francés, para realizar tales inversiones monetarias para
conocer la forma de la Tierra? La respuesta la da J. Cassini en 1733: «Se conocen bastante
bien de las ventajas que se pueden obtener del conocimiento exacto de la extensión del reino,
de sus límites y de la justa posición de los diversos lugares que contiene. Sin este
conocimiento sería difícil poseer medidas buenas para tantos proyectos útiles al Estado y al
comercio, tales como la construcción de nuevos caminos, puentes, canales nuevos y
navegaciones fluviales que pueden facilitar el transporte de alimentos y mercancías de una
provincia a otra, y procurar la abundancia en el reino… la situación de muchos lugares
notables y de la mayor parte de las ciudades de Artois y de Francia es de una grandísima
utilidad para dibujar y rectificar los mapas particulares de este país, que es ordinariamente.
El "theatre de la guerre" y que tanto importa conocer con exactitud» (Lafuente, 1983).
Por lo tanto, se constituyeron las dos expediciones, la de Laponia estaba dirigida por Pierre
Louis Moreau de Maupertius (1698 – 1759) y la de Perú por Louis Godin (1704 – 1760).
Las primeras observaciones a la estrella α-Draconis daban una amplitud de 57’27’’ para el
arco; verificada con tres nuevas series de medidas utilizando δ-Draconis se encontró ser de
57’30’’,30. Finalmente se adoptó un arco de 57’28’’,45 de amplitud, 55.023,5 toesas de
longitud y, por tanto, un grado de 57.437 toesas.
La conclusión era clara: “Por la medida entre la amplitud concluida por δ y la amplitud por
α, se encuentra que la amplitud de arco de meridiano que se había medido entre Tornea y
Kitts es de 57’28’’,3/4, la cual, comparada con la longitud de 55.023 toesas de este arco, da
el grado que corta el círculo polar de 57.437 toesas. Mayor en 377 toesas que el
determinado por M. Picard entre parís y Amiens, que era de 57.060 toesas.
Pero es necesario destacar que como la aberración de las estrellas no era conocida en
tiempos de M. Picard, no hizo ninguna corrección, y que añadidas las correcciones para la
precisión de los equinoccios y la refracción que M. Picard había despreciado, la amplitud
de su arco es de 1º23’6.30”, que comparada a la longitud de 78.850 toesas, da el grado de
56.925 toesas, más corto que el nuestro en 512 toesas. Si no se admitiese la aberración, la
amplitud de nuestro arco sería de 57`25’’, que comparada a su longitud, daría el grado de
57.497 toesas, mayor en 437 toesas que el grado de M. Picard había determinado de 57.060
toesas sin aberración. En fin nuestro grado con aberración difiere en 950 toesas de lo que
debería ser, siguiendo las medidas que Cassini ha establecido en su libro “De a Grandeur et
la figure de la Terre”; y difiere de él en 1000 toesas no admitiendo la aberración. De donde
se ve que la Tierra es achatada por los Polos” (Lafuente & Mazuecos, 1987)
En 1737, Maupertuis leyó su discurso donde dejaba patente y cifrado el esferoide terrestre
como un elipsoide oblato (57437 toesas). Pero “los Cassini” y gran parte de la opinión
pública mantenían la teoría contraria.
Ambos españoles habían sido elegidos por José Patiño y Rosales (Milán, 1666 -1736,
Segovia), ministro de Marina español a requerimiento del Conde de Maurepas, ministro de
Marina y Vicepresidente de la Academia Francesa, cumplimentando una Real Orden de
Felipe V que mandaba “... elegir dos de sus más hábiles oficiales, que acompañasen y
ayudasen a los académicos franceses en todas las operaciones de la Medida”.
Se optó, no por dos oficiales, sino por dos cadetes, guardias marinas de 21 años, Jorge Juan,
y 19 años, Antonio de Ulloa, que destacaban en la Academia de Cádiz por su excepcional
brillantez. Se consideró oportuno ascenderlos de golpe a tenientes de navío para que tuvieran
adecuada graduación militar y así se hizo, sin pasar por alférez de fragata y alférez de navío.
Puede asegurarse, y el tiempo luego lo confirmó, que la elección fue adecuada y los elegidos
no eran cualquier cosa.
El conde de Maurepas, procuró a la expedición los medios necesarios y ese mismo año, tras
haber recabado la autorización del rey de España, Felipe V, se pusieron en marcha hacia las
tierras de la Audiencia de Quito, en el Virreinato del Perú.
Godin, Bouger y La Condomine eligieron el valle donde se encuentra Quito para sus
operaciones, ya que está rodeado por la doble cadena de montañas en que se divide allí la
cordillera de los Andes, la cual recorre, casi en dirección sur hasta Cuenca, unos tres grados.
Estas montañas, que por su excesiva altura acarreaban grandes fatigas y trabajos, ofrecían en
cambio enormes ventajas para seleccionar las estaciones geodésicas, pues podían tomarse
alternativamente a uno y otro lado del valle, de modo que hubiera cierta uniformidad en las
longitudes de los lados de los triángulos y presentaran éstos adecuada proporción
(Fernández, 2012).
Toda la instrumentación había sido construida por el francés Langlois, que junto con
Lemaire y el inglés George Graham (1673 - 1751), al igual que en la expedición de Laponia,
fueron los que diseñaron y fabricaron los cuartos de círculo, un sector astronómico de 12
pies de radio, los péndulos horarios y los anteojos.
Una vez recorridos los 400 km que aproximadamente median los más de 3º de latitud
triangulada, se verificaba la bondad de las observaciones efectuadas determinando una nueva
base de comprobación de dos modos diferentes: en primer lugar, por inducción conectándola
a la referida triangulación, y en segundo término, por el mismo procedimiento que se halló la
base fundamental. Obviamente, había que reducir las distancias al nivel del mar y encontrar
la inclinación de los lados respecto del meridiano, operaciones que requerían el
conocimiento de la altura absoluta y relativa de cada señal, además de la latitud (Lafuente &
Mazuecos, 1987).
La altitud de las dos bases rebasaban los 2.300 m de altitud y un desnivel de 300 m, ante
estas adversidades se plantearon una gran cantidad de hipótesis y controversias, llegando a
enfrentamientos personales.
Tras estas dificultades y, un sinfín más de toda índole se llegó a las siguientes conclusiones:
Tabla 1
Las cifras parecen lapidarias, el error medio era pequeño, y notable el acuerdo entre los
expedicionarios. Concluía sólo una parte del problema, dado que de los resultados de las
expediciones se debería obtener el valor del achatamiento polar, cosa que no iba a ser
posible.
Pero entonces debía revisarse la medición hecha por los Cassini, que los últimos resultados
debían necesariamente hacer considerar como sospechosa de graves errores. Ya
contemporáneamente con los primeros trabajos de las expediciones a Perú y Laponia, el hijo
de Jacques Cassini, Cassini de Thury, el abate La Caille y una comisión de la Academia de
Ciencias, emprendieron la tarea de revisar las operaciones hechas en suelo francés,
comenzada ya con los trabajos de medición del paralelo de París. Su resultado vino a ser la
más exacta determinación de la longitud de un arco de meridiano jamás realizada, el arco
Dunkerque-Perpignan (Ten, 1996).
Tras analizar la caótica situación en que se encontraban los pesos y medidas en las distintas
villas de Francia, el diputado Bureaux de Pussy8 a propuesta de Talleyrand, obispo de Autun,
Charles-Maurice de Talleyrand-Périgord, (París, 1754 - 1838, París) apoyado en los buenos
consejeros, Adrien-Marie Legendre (Paris, 1752 - 1833, Auteuil, Francia), Pierre-Simon
Laplace (Beaumont-en-Auge, Francia, 1749 - 1827, París), Gaspard Monge (1746 - 1818),
Marie-Jean-Antoine Nicolas de Caritat, marqués de Condorcet (Ribemont, Francia, 1743 -
1794, Bourg-la-Reine, Francia), Vicq d'Azir y La Harpe. Propone a la Asamblea Nacional
francesa la longitud del péndulo que bate segundos a la latitud de 45 grados, como base del
nuevo sistema de pesos y medidas, y explícitamente la prefieren a la medida del grado de
meridiano cortado en su mitad por el paralelo 45, bien determinada por De la Caille en 1758
tras un nuevo cálculo fundado sobre las medidas tomadas por Cassini de Thury (Ten, 1996).
8
Bureaux de Pussy, introdujo por primera vez en la historia oficial el nuevo sistema de pesos y medidas, la escala
decimal para todas las medidas.
Vandermonde, comparará la toesa y la libra de París con todas las medidas de longitud,
superficie y capacidad y con todos los pesos usados en Francia.
En 1803 se decide ampliar la triangulación desde Barcelona por la costa hasta Valencia en el
Montgó y enlazar con Ibiza (López & Navarro, 1995).
En plena guerra de la Independencia, 1808, entre todas las peripecias imaginables y a pesar
de ellas, Jean Baptiste Biot (París, 1774 - 1862, Paris) y Dominique François Aragó (Estagel,
1786 – 1853, París) consiguen llegar triangulando hasta el Montgó (Martín, 2002).
Finalmente (1811) dos geodestas españoles, el valenciano José Chaix Isniel y el gallego José
Rodríguez González terminan la parte más peliaguda del trabajo enlazando a través del mar
Ibiza y Formentera desde el Montgó y el Desierto de las Palmas, con triángulos de ángulos
agudos en conformación forzada y largas visuales de hasta 200 Km (Jiménez, 2011).
El día de Año Nuevo de 1801, el astrónomo italiano Giuseppe Piazzi descubrió el planeta
enano Ceres. Fue capaz de seguir su órbita durante 40 días. Durante el curso de ese año,
muchos científicos intentaron estimar su trayectoria con base en las observaciones de Piazzi.
La mayoría de las evaluaciones fueron inútiles; el único cálculo suficientemente preciso para
permitir a Franz Xaver von Zach (Pest, 1754 - 1832), astrónomo alemán, reencontrar a Ceres
al final del año fue el de Carl Friedrich Gauss, por entonces un joven de 24 años (los
fundamentos de su enfoque ya los había planteado en 1795, cuando aún tenía 18 años). Sin
embargo, su método de mínimos cuadrados no se publicó sino hasta 1809, y apareció en el
segundo volumen de su trabajo sobre mecánica celeste “Theoria Motus Corporum
Coelestium in sectionibus conicis solem ambientium”. El francés Adrien-Marie Legendre
desarrolló el mismo método de forma independiente en 1805.
El ajuste mediante mínimos cuadrados es una técnica de análisis numérico enmarcada dentro
de la optimización matemática, en la que, dados un conjunto de pares ordenados: variable
independiente, variable dependiente, y una familia de funciones, se intenta encontrar la
función continua, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor
ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las
ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los
correspondientes valores en los datos. Específicamente, se llama mínimos cuadrados
promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso
por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el
residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un
gran número de iteraciones para converger.
9
Matemático, astrónomo, geodesta, y físico alemán que contribuyó significativamente en muchos campos,
incluida la teoría de números, el análisis matemático, la geometría diferencial, la estadística, el álgebra, la
geodesia, el magnetismo y la óptica. Considerado «el príncipe de los matemáticos» y «el matemático más grande
desde la antigüedad», Gauss ha tenido una influencia notable en muchos campos de la matemática y de la ciencia,
y es considerado uno de los matemáticos que más influencia ha tenido en la Historia. Fue de los primeros en
extender el concepto de divisibilidad a otros conjuntos.
Desde un punto de vista estadístico, un requisito implícito para que funcione el método de
mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria y
siguiendo una Distribución Normal.
Johann Karl Friedrich Gauss Retrato de Adrien-Marie Legendre, por Caricatura de Adrien-Marie
F.S.Delpech (en realidad de Louis Legendre, único “retrato”
Legendre, hasta 2005, cuando se verdadero del matemático.
descubrió el error)
En 1829, Gauss fue capaz de establecer la razón del éxito maravilloso de este procedimiento:
simplemente, el método de mínimos cuadrados es óptimo en muchos aspectos. El argumento
concreto se conoce como teorema de Gauss-Márkov.
Myrick Hascall Doolittle (1829 - 1913), calculista manual que llegó a resolver sistemas de
41 ecuaciones con 41 incógnitas, a mano, con el método de eliminación entre 1873 y 1911,
en el que invirtió una semana. Alan Mathison Turing, (Londres, 1912 – 1954, Cheshire), en
1946 necesitó dos semanas para resolver un sistema de 18 ecuaciones y 18 incógnitas.
10
Andréi Andréyevich Márkov, (Rusia,1856 -1922) Se destacó por su trabajo teórico en el campo de los procesos
en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento
matemático que actualmente se conoce como cadena de Márkov: secuencias de valores de una variable aleatoria
en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es
independiente de la historia de dicha variable.
Puesto que esta técnica de ajuste se vio limitada por imposibilidad técnica de ser utilizada de
una manera productiva y no se pudo recurrir a ella hasta mediados del siglo XX, se analizará
su evolución y aplicación en la topografía en capítulos posteriores, debido a que es la “gran
herramienta” en la que se basa el diseño y optimización de redes topográficas.
Por continuar una visión cronológica de los elementos fundamentales que se utilizan en el
desarrollo de esta tesis, medida de ángulos y distancias, utilización del ajuste mediante
mínimos cuadrados y los modelos digitales del terreno, convendría seguir con la evolución
de grandes proyectos de redes geodésicas desde el prisma de la medida, de ángulos, y el
ajuste.
Inglaterra organizó los trabajos mediante la creación del Ordnance Survey (1791) con el
objetivo de disponer de una cartografía de precisión formada por un núcleo de ingenieros
profesionales capacitados para desarrollar, aplicar y utilizar los más modernos métodos,
tecnologías e instrumentación existentes. La escala adoptada fue de 1 pulgada/milla
motivada por la reluctancia inglesa a adoptar el Sistema Métrico Decimal, equivalente a
1:63360 (Chueca, et al., 2008).
En 1838 Friedrich Wilhelm Bessel (1784 – 1846), astrónomo y primer director del
observatorio de Königsberg, publica su obra “Grandmessung in Ostpreussen and ihre
Verbindung”, dedicada a las operaciones geodésicas de medición de un grado de meridiano
en Prusia, junto a una cadena oblicua de triángulos entre Trunz y Memel, aplicada a enlazar
las redes occidentales de Francia, Hannover, Prusia, Baviera y Dinamarca con la oriental de
Rusia.
Ayudado por el general prusiano Jacob Baeyer (1794 – 1885), fundador y primer presidente
en 1861 de la Asociación Geodésica Internacional, personalmente se ocupó del proyecto,
observación y cálculo de la cadena. Redujo los ángulos y compensó la triangulación por el
método de mínimos cuadrados, según la doctrina de Gauss y Lagrange.
11
Francisco Coello de Portugal y Quesada nació en Jaén el 26 de abril de 1822, falleció en Madrid, 30 de
septiembre de 1898. Su nombre completo era Francisco Cleto Juan de la Cruz de los Dolores Coello de Portugal y
Quesada. Cartógrafo y coronel del ejército español, miembro de la Junta General de Estadística (participó en la
planificación de un catastro general para España) y de la Real Sociedad Geográfica.
12
Pascual Madoz Ibáñez, nació en Pamplona el 17 de mayo de 1806, falleció en Génova el 13 de diciembre de
1870. Fue político español de siglo XIX. Licenciado en Derecho en 1834, ese año concibe ya un plan para crear
un Diccionario geográfico-estadístico-histórico de España y sus posesiones de Ultramar (conocido popularmente
por Diccionario de Madoz), que lograría ver culminado en 1850. En 1835 publica su "Reseña sobre el Clero
español y examen de la naturaleza de los bienes eclesiásticos". El 21 de enero de 1855 se le confió el Ministerio
de Hacienda. En esta ocasión presentó el famoso proyecto de ley de Desamortización, que consiguió ver
aprobada.
época aún no se había planteado el empleo de un meridiano de uso mundial y cada país
elegía el propio. En julio de 1844 hay seis mapas enteramente concluidos.
13
Leopoldo O'Donnell y Jorís (Santa Cruz de Tenerife, 1809 – 1867, Biarritz). Presidió el Consejo de Ministros,
después del bienio progresista de Baldomero Espartero en 1856, y también en 1858–1863, y en 1865–1866,
durante el Reinado de Isabel II.
Los extremos de la base entre los vértices Bolos y Carbonera con una regla geodésica
construida en París por la firma Brünner y Hermanos, pero el diseño correspondía a las
indicaciones de Ibáñez y Saavedra.
Entre mayo y octubre de 1958 se mide la base fundamental de la red geodésica de primer
orden en la llanura de Madridejos, dirigida, por aquél entonces, por el capitán de Ingenieros,
Carlos de Ibáñez e Ibáñez de Ibero.
Normalmente la base debía medirse en dos sentidos, pero debido a su gran longitud y a que
fue medida en cinco tramos, sólo se repitió el tramo central (≈ 3 km).
Antes de realizar la comprobación de la base, completa, se realizó el promedio del valor del
tramo central.
Tabla 2
Para comprobar la escala del Mapa de España, se midieron otras cinco bases, Cádiz, Lugo,
Barcelona, Murcia y Navarra (Jiménez, 2011).
14
En las observaciones realizadas para la comprobación de la ampliación de la base se determinó el valor medio
del coeficiente de refracción media, resultando 0,11876 (Jiménez, 2011).
Figura 15: Instalaciones de las casetas para la medida de la base fundamental de Madridejos
En el Datum coincidían la longitud y latitud astronómica con la geodésica y por tanto, las
desviaciones de la vertical eran nulas.
Elipsoide de Struve.
15
José Echegaray Eizaguirre (Madrid, 19 de abril de 1832, 14 de septiembre de 1916, Madrid) ingeniero,
dramaturgo, político y matemático español. Premio Nobel de Literatura en 1904. Ministro de Fomento y de
Hacienda.
16
Francisco Serrano y Domínguez (Isla de León, San Fernando, Cádiz, 17 de diciembre de 1810 - Madrid, 25 de
noviembre de 1885)
Nivel: Depende de ḡ.
Figura 16: Red Geodésica de Primer Orden de España de 1877 del Instituto Geográfico Nacional IGN
Sólo a título informativo se adjunta la producción del Mapa Topográfico Nacional, dejando
constancia de la gran labor acometida, sobre todo en los primeros años, dado los medios de
que se disponía en el siglo XIX.
Escala 1:50.000, dimensiones de la hoja, 10’ de latitud por 20’ de longitud, equidistancia de
las curvas nivel, 20 m.
En 1875 se publica la primera edición de la 1ª hoja, Madrid (número de hoja 559). Desde
1875 hasta 1908, se publican 73 hojas. En 1968, se publica la primera edición de la última
hoja, 1125ª, San Nicolás de Tolentino (Gran Canaria). En total 93 años para concluir el
MTN50.
La red geodésica se estructuró en tres niveles, primer orden, con triángulos cuyos lados
oscilaban entre 25 y 60 km, y las de segundo y tercer orden. Los triángulos de tercer orden se
resolvían como planos, y las longitudes de sus lados oscilaban entre 2 y 5 km (Arístegui,
2014).
Los teodolitos utilizados en la red de primer orden apreciaban hasta 1” sexagesimal, mientras
que los que emplearon en las de segundo y tercer orden llegaban a los 10”. Como se ve, las
incertidumbres en las observaciones angulares habían evolucionado hasta precisiones
equiparables a las actuales, pero el gran inconveniente estribaba en la imposibilidad de medir
distancias elevadas con gran precisión y, sobre todo, no poder utilizar la herramienta de
ajuste conocida pero sin las herramientas necesarias para su empleo, los mínimos cuadrados.
Por lo tanto es, interesante analizar la aparición de los distanciómetros, así como su
evolución y la irrupción de los ordenadores personales y su aplicación en los ajustes de redes
geodésicas y topográficas.
Como se ha dicho anteriormente, ochenta años después, fruto, una vez más, de la
cooperación internacional en este campo y gracias a la aparición del ordenador, se procedió
al ajuste conjunto de las observaciones geodésicas de primer orden aportadas por los países
europeos. El primer ajuste fue realizado por el “Army Map Service” (se recoge en el
documento “Principal Triangulatión – Spain – European Datum - Internacional Ellipsoid –
1950 del AMS”) y, posteriormente, la subcomisión europea RETRIG de la Asociación
Internacional de Geodesia (AIG) tomó el relevo y continuó sus trabajos hasta el año 1987.
“En mil ochocientos setenta el Instituto Geográfico, creado por Decreto de catorce de
septiembre de dicho año, propuso la reglas para la formación del Mapa Topográfico
Nacional, en escala uno: cincuenta mil, que han subsistido hasta nuestros días.
…Así lo dispongo por el presente Decreto dado en Madrid a dieciséis de julio de mil
novecientos setenta.
FRANCISCO FRANCO
El Vicepresidente del Gobierno
LUIS CARRERO BLANCO.
(Boletín Oficial del Estado, 1970)
Nueva Red de Primer Orden (NRPO), con unos 680 vértices y una longitud de lados de 30 -
40 km. Se observó mediante triangulación o trilateración, y su cálculo y compensación se
realizó sobre el Sistema ED50. Estas señales se intentaron construir en la misma posición de
las de la antigua red. Se recuperaron un 40% de las mismas.
Red de Orden Inferior (ROI) con unos 12.000 vértices y una longitud media de lados de 7
km (densidad de un vértice por cada 45 km2). En su mayor parte se observó mediante
triangulación por el método de vueltas de horizonte y se calculó constriñendo a la NRPO y la
red de nivelación.
Las operaciones de monumentalizar los vértices de la ROI se realizó con un prisma de altura
variable, en función de la visibilidad de la vuelta de horizonte, y de 0,95 m de lado, también
en función de su altura sobre el suelo se le dotaba de peldaños de acceso. Sobre dicho prisma
se construyó un hito cilíndrico de hormigón de 0,95 m de altura y 0,30 m de diámetro.
En una primera fase de cálculo, el IGN diseñó dos programas de cálculo para ajustar la
NRPO, uno para la ordenación de vértices de una red extensa para la obtención del mínimo
ancho de banda de la matriz, denominado GRAFO y otro, CORE, para la compensación
rigurosa de una red extensa sobre el elipsoide por el método de variación de coordenadas.
Tras varias campañas de observación y, sobre todo ajuste con diferentes aplicaciones, se
publicaron los resultados obtenidos en 1982.
En 1973 el estado de la ROI era de la desaparición del 90% de la misma y el resto eran
señales no reglamentarias, dada su forma y tipo de construcción menos duradera de la nueva.
Con la aparición, en 1978, del Decreto 2857/78 por el que se aprueba el Reglamento General
para el Régimen de la Minería, en el que se estableció en su artículo 99 que todos los
trabajos de demarcaciones mineras deberían definirse a partir de la vigente red geodésica
nacional, trajo como consecuencia una masiva solicitud de datos de dicha red por parte de
todos los organismos oficiales y privados relacionados con la minería. Además, el estatuto de
las autonomías demandó, por parte de esas entidades, una red utilitaria en la que apoyar sus
necesidades de cartografía para su ordenación territorial. Todas estas solicitudes obligaron a
finalizar en corto plazo la finalización de la NRPO y la ROI (Caturla, 1983). Esta última
quedó constituida por un total de 10944 vértices (654 de ellos pertenecientes a la NRPO),
que cubrían todo el territorio español, con una densidad media de un vértice cada 8 o 10 km
(Aguilera, 2001).
La ROI fue observada por método de triangulación, en “maraña”, es decir, observando desde
cada vértice a todos los visibles, quedando provisionalmente apoyada en la NRPO, y
ajustada mediante unidades provinciales, en algunos casos regionales y en los vértices de
solape con las redes provinciales contiguas, si ya existían (Caturla, 1983).
Después de muchos ensayos y pruebas sobre bases existentes, se llegó a la conclusión que
tanto los telurómetros como los geodímetros proporcionaban precisiones muchos más que
aceptables, amén del tiempo que se ahorraba con su utilización, frente a los métodos
tradicionales de ampliaciones de bases.
En 1960 aparece el distanciómetro Distomat DI-10, de la casa suiza Wild, midiendo hasta
1200 m con tres prismas. Su precisión según catálogo es ± (5 mm + 5 ppm). A partir de este
momento los modelos se suceden resultando equipos menos voluminosos, más precisos y
con mayor alcance, con montajes sobre el anteojo, típico de casa Wild, o sobre el eje de
muñones, con mayor alcance que los anteriores y con la ventaja de permitir realizar la regla
Bessel. En la década de los 80, el mercado ofrecía una gran diversidad de modelos, llegando
antes de integrarlos en el teodolito, a modelos submilimétricos Mekometer ME-5000, Kern ±
(0.2 mm + 0.2 ppm) y hasta 11 km de alcance.
Figura 19: Geodimeter NASM-1.4. Espejo esférico. Figura 20: Geodimeter NASM-1. (1954). 100 kg -
30 km
Figura 23: AGA. Figura 24: AGA Geodimeter Figura 25: Wild Infrarrojos modelo
Geodimetro modelo 8 modelo 6 (1968). Distomat DI-10 (1965)
(1968) 60 km.
Como producto de los estudios sobre codificadores circulares dio paso a los teodolitos
digitales estos, a su vez, a las estaciones totales. La integración en un solo dispositivo de
teodolito digital y distanciómetro con software y memoria de almacenamiento es el
instrumento que se ha conocido con el nombre genérico de “Estación Total”.
σl (Incertidumbre angular acimutal) ATR: 0,5" (0.15 mgon) (σl, ISO 17123-3)17.
17
En el capítulo 4.2.1, se estudiarán las desviaciones típicas a priori, incertidumbres en las observaciones
acimutales, cenitales y de distancia.
De la marca TRIMBLE: S8
FineLock: Consiste en un sensor de rastreo inteligente con un campo visual angosto que
permite que la Trimble S8 detecte un objetivo sin interferencia de prismas cercanos.
Sure Point: El sistema se enclava en la lectura angular y luego corrige cualquier desviación
de esos valores.
Multi Track: Esto hace posible que operen varios equipos robóticos en un área común, sin
que uno se enclave sobre el prisma de otro, o sobre cualquier superficie reflectora.
Rango de medida sin prisma: 100 m. Utilizando prismas de lámina reflectante, la estación
MS05A ofrece precisión sub-milimétrica con un alcance de hasta 200 m. Con su prisma de
largo alcance (3.5 km) y la velocidad de medición rápida, la estación MS05A satisface todas
las necesidades de la EDM.
Sub-milimétrico de 0,5 mm + 1 ppm de precisión usando las hojas reflectoras dentro del
rango de 200 m.
Es evidente que, al principio, la memoria de las máquinas no era como las actuales y exigían
un gran ahorro de memoria a la hora de programar los algoritmos. Por lo tanto, las
dimensiones de las redes a resolver no podían superar ciertas dimensiones, por lo que se
desarrollaron algoritmos aprovechando las singularidades de las matrices utilizadas en el
método de ajuste mediante mínimos cuadrados, tales como ser simétricas y definidas
positivas. Un algoritmo muy utilizado, aún en la actualidad, fue el ingeniado por André-
Louis Cholesky, para la inversión de matrices de tales características.
Como consecuencia, se pudieron ajustar las redes geodésicas de países completos, caso de la
red geodésica española; anteriormente, la compensación era sobre la provincia. Una vez
adoptado el sistema ETRS89 como oficial y la REGENTE como su marco de referencia, se
seleccionaron todas las observaciones angulares, acimutales y cenitales, las observaciones
GNSS y se ajustaron los vértices de la ROI. Los datos del ajuste fueron los siguientes:
observaciones. Una prueba muy estricta (con un valor crítico pequeño), nos llevará a un
valor 1-α0 más grande y, en consecuencia, se incrementará la probabilidad de rechazar
observaciones que sean válidas. Un valor de 1-α0 = 0.001 significa que existe una
observación falsa por cada 1000 observaciones. La práctica ha demostrado que este es el
mejor valor a escoger. Estableció y definió los conceptos de fiabilidad interna y externa, y su
influencia en el diseño y optimización de redes.
Erik W. Grafarend en 1974 establece una clasificación sobre los órdenes de diseño de redes
(Optimización de redes geodésicas “Bollettino di Scienze e Geodesia Affini”), basándose en
el esquema planteado por F.R. Helmert en 1868, en el que se establecen cuatro niveles de
diseño (Tabla 4):
Diseño de tercer orden (TOD). Diseño de observaciones adicionales para mejorar una red
existente.
Problema Parámetro Fijo Parámetro Libre
ZOD A, P Qxx, X
FOD P, Qxx A
SOD A, Qxx P
TOD Qxx A, P
18
Profesor de Facultad de Ingeniería de la Universidad de Zulia. (Maracaibo, Venezuela).
El relieve se representa en los mapas a través de distintas técnicas que facilitan la percepción
de la orografía del terreno. Estos elementos pueden ser puntuales, lineales y superficiales.
1. Elementos puntuales
Planos acotados
2. Elementos lineales
Líneas estructurales
Normales
Curvas de nivel
3. Elementos superficiales
Sombreado
Tintas hipsométricas
Dependiendo del tipo de cartografía, atendiendo al tipo de tipo de soporte, el uso al que esté
destinada, la escala,…la representación del relieve optará por unas u otras técnicas.
1. Elementos puntuales
2. Elementos lineales
De los tres tipos de elementos lineales para representar el relieve, el más habitual es la
representación mediante curvas de nivel. Las curvas de nivel, también llamadas isohipsas,
son líneas imaginarias que unen puntos con la misma cota en unos intervalos definidos, o
dicho de otra forma, son el resultado de cortar la superficie terrestre con unos planos
horizontales a intervalos regulares; estas curvas se proyectan sobre el plano y representan la
orografía del terreno.
A través de la interpretación de las curvas de nivel se puede obtener más información que
con otros métodos de representación. Éstas muestran información sobre las pendientes o
incluso se puede calcular de forma aproximada la cota de algún lugar.
También mediante las curvas de nivel se puede representar el relieve de los fondos cubiertos
por agua (mares, lagos, ríos). En este caso, las curvas de nivel se denominan curvas de nivel
batimétricas.
Las técnicas de obtener las curvas de nivel son diversas: tradicionalmente se han derivado
como producto de la fotogrametría o de la topografía clásica. En el caso de la primera
técnica, se va registrando una secuencia de puntos con la misma altitud; en el segundo, se
interpola entre los puntos representados de una forma manual o automática; en este caso, se
genera un producto cartográfico previo denominado modelo digital del terreno.
La distancia vertical que separa dos curvas de nivel se denomina equidistancia y suele ser
constante en el mismo mapa.
Escala del mapa. No existe una norma, pero si una serie de recomendaciones sobre los
valores más usuales.
Tipo de relieve.
Tanto el método de representar el relieve mediante líneas estructurales como por normales
suelen, a veces, utilizarse como complemento de otros métodos. Estos tipos de
representación por si solos no son capaces de representar fielmente el relieve.
El caso de las líneas estructurales, tanto si la captura de puntos ha sido realizada mediante
topografía convencional (estación total y/o GNSS) o bien con técnicas LIDAR
aerotransportado o mediante una estación terrestre, para realizar un DEM con calidad se
necesitarán determinar las líneas estructurales del terreno. Hoy en día, uno de los retos más
importantes en la confección de cartografía es la obtención de algoritmos automáticos o
semiautomáticos para la determinación de las líneas estructurales en una información de
ficheros LIDAR.
3. Elementos superficiales
Las tintas hipsométricas son otro método para dar idea de volumen del terreno al usuario
mediante la utilización de diferentes tonalidades de color en función de la altitud. Es
evidente que se deberá realizar una gama de colores bien graduada para conseguir la
sensación de relieve.
El método consiste en utilizar varios valore de gris que permitan crear los efectos claroscuros
dando sensación de imágenes tridimensionales sobre un soporte de dos dimensiones.
La combinación de los tres sistemas permite obtener un mapa más realista y útil (Arranz,
2008).
Figura 39: Técnica de sombreado Figura 40: Tintas hipsométricas con sombreado
Figura 41: Curvas de nivel y sombreado Figura 42: Tintas hipsométricas con sombreado y
curvas de nivel
Ahora bien, estos aspectos expuestos respecto a la representación del relieve han sido desde
un punto de vista tradicional, generalmente desde la perspectiva de la producción
cartográfica.
4. SITUACIÓN ACTUAL
En este capítulo se pondrá de manifiesto los diferentes sistemas de referencia en la
actualidad, así como los marcos de referencia de los anteriores y sus densificaciones en
función del tipo de proyecto al que den soporte geométrico. Los sistemas de referencia,
como se vio anteriormente, desde la aparición de los GNSS han sufrido una gran evolución
pasando a ser globales, aunque los marcos de referencia sean continentales. Se abordará la
necesidad de plantear, en ciertas ocasiones; sistemas locales de coordenadas debido a la
extensión como al tratamiento de las distancias; pero como ya se ha dicho, en cualquier caso,
estos sistemas deberán ser conformes.
El objetivo del presente estudio está basado en el ajuste de redes topográficas mediante
mínimos cuadrados. Por lo tanto, será necesario abordar su fundamento puesto que es el
punto de partida del diseño y optimización de las mismas. Uno de los parámetros básicos en
el diseño está definido por las incertidumbres en las medidas topográficas a realizar, por lo
que es determinante definir cómo se determinan a priori dichas magnitudes y cómo
intervienen en las técnicas, objeto de la tesis. Además de la introducción de las
incertidumbres en el diseño, será necesario analizar la homogenización de las ecuaciones del
ajuste, así como el concepto de incertidumbre puede ser válido para tal objetivo, dando lugar
a la aparición de dos tipos de residuos, peso unidad y ponderados; esto permitirá introducir
las consecuencias de la teoría, planteada por W. Baarda, de “Data Snooping” en la detección
de errores groseros y como consecuencia de ésta, la matriz de los números de redundancia,
básica en el diseño de redes topográficas.
Una de las finalidades de esta tesis es el desarrollo de una aplicación informática que
permita, en tiempo real, definir las incertidumbres a posteriori de los puntos que constituyen
la red, lo cual obligará a analizar detalladamente la transmisión de varianzas.
En cualquier ajuste se debe estudiar otro parámetro fundamental en él; el factor de escala,
obtenido entre las incertidumbres de las medidas de distancia y el deducido de la red a través
de las medidas angulares o de dirección.
Se analizarán las nuevas metodologías de ajuste, así como los diferentes tipos de diseño y
optimización de las redes topográficas, que han aumentado con la incorporación de los
ordenadores personales con gran capacidad de memoria y rapidez en los procesos de cálculo.
Debido a estos avances en la capacidad de cálculo y gestión de la información con gran
velocidad, se han podido abordar las ideas propuestas por Willem Baarda y, posteriormente
comprobadas y ampliadas por Erik W. Grafarend, Fernando Sansó, B.R. Harvey, Shanlong
Kuang, Charles D. Ghilani y Paul R. Wolf entre los más importantes.
Para abordar el diseño óptimo de una red, se podrá realizar partiendo de ciertos elementos
del ajuste como parámetros y otros como constantes, (visto en el apartado 3.5 del presente
documento) dando lugar a diferentes órdenes de diseño (ZOD, FOD, SOD y THOD). Para
abordar el diseño mediante una aplicación informática que trabaje en tiempo real, será
necesario el planteamiento y comportamiento de matriz de redundancias y sus variaciones
para poder establecer la óptima.
Puesto que una de las partes “innovadoras” del presente trabajo es la introducción de la
orografía donde se pretende diseñar la red “óptima”, según una serie de criterios, se
estudiarán los modelos digitales del terreno así como los de superficie y la metodología de la
lectura de los diferentes archivos que los definen. También es de sumo interés indagar los
formatos de los archivos de libre difusión de los MDT, básicamente, del IGN. Y, por último,
dado que para poder regenerar gráficamente, sin tener que recurrir a librerías complejas con
“lenguajes” específicos, se realizará mediante imágenes ráster en formato “BitMap”.
Como exponente de sistema unidimensional, más común en topografía, son las altitudes de
los puntos respecto de una superficie de referencia. En España el sistema oficial de
referencia altimétrico queda definido según el Real Decreto 1071/2007, de 27 de julio regula
el sistema geodésico de referencia oficial de España, según su artículo 4º “Sistema de
referencia altimétrico”:
1. Se tomará como referencia de altitudes los registros del nivel medio del mar en Alicante
para la Península y las referencias mareográficas locales para cada una de las islas. Los
orígenes de las referencias altimétricas serán definidos y publicados por la Dirección General
del Instituto Geográfico Nacional.
2. El sistema está materializado por las líneas de la Red de Nivelación de Alta Precisión
(REDNAP) con altitudes ortométricas Helmert (H).
3. El datum hidrográfico al que están referidas las sondas, cero hidrográfico, será definido y
publicado por el Instituto Hidrográfico de la Marina y representará la referencia altimétrica
para la cartografía náutica básica.
como A Coruña o Girona tienen un vector de error vertical al 95% de confianza de 8 cm.
Respecto a las coordenadas planimétricas ETRS89, la precisión figura en la reseña de cada
señal según el método de observación GNSS empleado en su medición.
La superficie de referencia queda definida como la superficie del mar. Nivel medio del mar:
Nivel medio de la superficie del mar sobre todos los periodos de marea y variaciones
estacionales, (ISO 19111) obtenido a partir de un mareógrafo de referencia (datum
altimétrico) sobre un intervalo de tiempo (18,6 años, periodo de nutación) (Velasco, 2010).
Desde 1987, el GPS utiliza el World Geodetic System WGS-84, que es un sistema de
referencia terrestre único para referenciar las posiciones y vectores. Se estableció este
sistema utilizando observaciones Doppler al sistema de satélites de navegación NNSS o
Transit, de tal forma que se adaptara lo mejor posible a toda la Tierra.
El IGN, a partir del anterior RD de 2007, define con mayor detalle los sistemas que serán
soporte geométrico de las cartografías oficiales.
Se define como un sistema cartesiano geocéntrico del siguiente modo (Instituto Geográfico
Nacional, 2009):
Eje Z paralelo a la dirección del polo CIO o polo medio definido por el BIH, época 1984.0
con una precisión de 0,005".
El eje X la intersección del meridiano origen, Greenwich, y el plano que pasa por el origen y
es perpendicular al eje Z, el meridiano de referencia coincide con el meridiano cero del BIH
en la época 1984.0 con una precisión de 0,005". Realmente el meridiano origen se define
como el IERS Reference Meridian (IRM).
ETRS89 está definido en origen por la campaña IBERIA95 y BALEAR98 las cuales se
calcularon a partir del ITRF96 época 1995,4 y época 1998,3 respectivamente.
En el caso de las Islas Canarias, se adopta el sistema REGCAN95, ya que ETRS89 sólo
afecta a la parte estable de la placa eurasiática. La definición de REGCAN95 se hizo a partir
de la estación ITRF de Maspalomas, con las coordenadas publicadas en el ITRF93 y
trasladas a la época de observación de REGENTE en Canarias, 1994,8.
Ambos sistemas tienen asociado el elipsoide GRS80 y están materializados por el marco que
define la Red Geodésica Nacional por Técnicas Espaciales, REGENTE y sus
densificaciones.
Estos son el sistema y marco de referencia oficiales en España en la actualidad. Pero bien es
cierto que, en muchos trabajos de topografía y sobre todo en topografía industrial, los
sistemas de referencia convienen que sean locales y, como es lógico, sus marcos de
referencia.
En el diseño de las redes del control de deformaciones “locales” como pueden ser las de los
paramentos de una presa, las oscilaciones de un edificio, los movimientos, producidos por
deslizamientos de laderas (solifluxión o gelifluxión),…o en montajes industriales de
precisión, los puntos fijos “a priori”, son los elementos a auscultar y los vértices del marco
de referencia serán los que se deba determinar su posición óptima.
Estas redes pueden ser de una, dos, dos y media y tres dimensiones, dependiendo del sistema
de referencia utilizado y de los parámetros a determinar de los vértices desconocidos.
Las redes topográficas que se abordarán en los siguientes análisis serán de dos dimensiones y
media. Un sistema de dos dimensiones y media, será aquel donde las posiciones
planimétricas de los elementos, queden definidas sobre una superficie bidimensional, a la
que se le asocia una altitud sobre otra superficie diferente. Esto es así, debido a la
incorporación, en el diseño óptimo de una red topográfica del modelo digital de superficies
y, en su defecto, del modelo digital del terreno.
Este tipo de redes han recibido diferentes denominaciones, unas haciendo referencia al
instrumental con el que se observaron; “red de triangulación” dado que las únicas
observaciones que se realizaban eran angulares y, por lo tanto, el procedimiento de cálculo
consistía en la resoluciones de triángulos. Posteriormente cuando surgieron los instrumentos
medidores electrónicos de distancias (MED) y se empleaba, exclusivamente, este tipo de
medida para la determinación de las posiciones de los vértices, también se las denominaron
“redes de trilateración”: Éste tipo de redes son utilizadas en las auscultaciones y control de
deformaciones por la precisiones que facilitaban; por el contrario generan una gran
servidumbre19.
19
Las redes observadas mediante “trilateración” generan una gran servidumbre debido a que será necesario
conocer los desniveles entre sus puntos para poder reducir las distancias, o bien observar los ángulos cenitales de
cada una de ellas. También generan el problema de las orientaciones de los prismas, debido a que estos no se
pueden orientar, aun siendo de 360º.
En esos casos, para poder ubicar la construcción dentro del sistema oficial de referencia, se
determina, generalmente, la posición de dicha estructura con coordenadas oficiales, con un
punto origen y una orientación y, a partir de ese origen, se define el sistema local de
construcción; el cual será un sistema de coordenadas locales, tanto para la planimetría como
la altimetría. Esto es debido a que si el diseño del proyecto se realizase en un sistema
conforme representaría más inconvenientes que ventajas.
Como se ha dicho, en edificación es muy usual que el proyecto esté referido a la propia
estructura a construir. En el caso de la Figura 45 y Figura 46, el sistema de referencia lo
define la planta de la base, ortogonal, donde el origen se encuentra en la esquina inferior
izquierda. Debido a las dimensiones de 50 m por 50 m, dicho sistema será local y plano,
tanto a efectos de planimetría como para la altimetría.
Es evidente que el marco de referencia, una vez alcanzada cierta altitud, no será visible desde
a propia estructura. Esto será posible gracias al empleo de plomadas nadirales de alta
precisión, que garantizan una incertidumbre de +/- 1 mm a 120 m. La transmisión de las
alturas de forjado se realizará mediante distanciómetros de mano, tipo “distomat” (Leica),
que garantizan una desviación típica a priori de +/- 1 mm hasta 300 m.
Figura 45: Planta del edificio “Torre Espacio” de 248 m de altura (Madrid)
Otro ejemplo de sistema local dentro de la ingeniería civil puede ser el replanteo o, incluso
más determinante, la auscultación de las deformaciones que puede sufrir el dique de un
embalse.
Tanto para la construcción como para la auscultación de las deformaciones que sufre el
paramento de una presa, el sistema de coordenadas será, generalmente, local. El poder
asumir un sistema local para planimetría es debido a que las dimensiones no son demasiado
elevadas, proyectando toda la estructura en un plano medio.
Los elementos a auscultar, normalmente, en una presa tienen una posición obligada, mientras
que la red de control, deberá ceñirse a la mejor geometría, considerando fijos los elementos
que determinaran las posibles deformaciones y la orografía del terreno donde se ubicará su
enclave. Este planteamiento será útil siempre y cuando la observación a los testigos situados
en la presa se realice mediante direcciones y distancias. Es evidente que, en el caso de
observaciones mediante observaciones GNSS, la orografía no tendrá una incidencia
determinante, habida cuenta que la intervisibilidad no es concluyente.
Dependiendo de la ubicación de los testigos a auscultar y del tipo de presa las observaciones
se podrán realizar mediante GNSS, mediante el método estático-rápido, o con estación total.
La auscultación de una presa debe entender como un concepto global que va más allá de la
existencia de una serie de sensores y de su lectura.
Para poder determinar, tanto los desplazamientos en valores absolutos como relativos es
necesario definir un marco de referencia (oficial o local) para determinar dichas variaciones;
y para garantizar las incertidumbres de las mencionadas mediciones se requiere un marco de
referencia diseñado con la geometría más óptima.
Con la aparición en los años 80 de la geodesia satelital cobran gran relevancia las redes
observadas mediante metodología GNSS, por lo que las redes topográficas de grandes
dimensiones y, por supuesto, las redes geodésicas son observadas mediante esta nueva
técnica más precisa para grandes superficies. Hoy en día, no se concibe observar una red
topográfica, que pretenda extender un marco de referencia, a superficies superiores a las 100
Ha con independencia de la precisión, salvo en situaciones muy concretas.
Las redes topográficas planimétricas en muy raras ocasiones coinciden con la altimétricas,
hecho constatable con las redes oficiales nacionales; el marco de referencia planimétrico (red
geodésica nacional) no coincide con el altimétrico (REDNAP), aunque los vértices de la red
geodésica posean altitudes ortométricas, estos hitos no constituyen parte de la red de
nivelación de alta precisión.
En cualquier trabajo topográfico, la trasmisión del sistema de referencia a zonas distantes del
marco de referencia “oficial20”, se realizará, normalmente mediante redes topográficas,
observadas mediante diferentes técnicas. A partir de dichas redes se procederá, mediante
métodos topográficos, a determinar las posiciones de los puntos de interés en función del
tipo de proyecto.
Figura 50: Gráfico de la Red topográfica de Término Municipal de Leganés (1991) ajustada
Otro claro ejemplo de sistemas locales es la auscultación (contexto geotécnico) método por
el cual, mediante diferentes sistemas, se lleva a cabo el control de posibles deformaciones
geológicas o estructurales debidas a dos posibles causas:
20
El marco oficial en algunos trabajos puede ser local o el oficial del territorio.
21
Se verá más adelante que cualquier trabajo topográfico necesitará un sistema conforme.
estructuras, tanto naturales como construidas por el hombre se mueven, por distintos efectos:
térmicos, geológicos, estructurales, climatológicos…
Figura 51: Imagen del deslizamiento de una ladera por flujo o colada22
23
Figura 52: Imagen del deslizamiento de una ladera
22
Flujo o colada masas de tierra que al llenarse demasiado de agua se convierten en un flujo formando coladas de
barro.
23
Deslizamiento: se produce después de las lluvias, ya que el agua da al terreno un comportamiento plástico y
una parte de este se desplaza sobre otra parte inferior.
Es evidente que, para los dos casos, las metodologías e instrumental son diferentes y como
consecuencia los marcos de referencia también, por lo que el diseño de los mismos en las dos
situaciones tendrá características y metodologías diferentes.
24
Figura 53: Imagen del efecto de la solifluxión en una ladera
24
Solifluxión. Es el proceso geomorfológico característico de zonas de clima periglaciar (aunque puede darse
incluso en los trópicos), consistente en el desplazamiento masivo y lento por gravedad de formaciones arcillosas
u otros tipos de suelo sobre el permafrost a causa de la plasticidad y fluidez adquirida por aquéllos cuando
absorben gran cantidad de agua.
El mismo tipo de sensores pueden medir distintas afecciones (no son específicos como los
geotécnicos)
Un solo instrumento puede medir a distintos puntos de control (ej: Estación Total)
La forma de comprobar la calidad de las posiciones de los vértices, no fijos, de una red
topográfica es la obtención de observaciones independientes que permitan obtener las
posiciones por diferentes caminos geométricos. De esta forma se puede tener comprobación
de la bondad de las observaciones realizadas y, así, garantizar una incertidumbre de las
mismas por debajo de los valores establecidos. Pese a esto, aún hoy, se sigue planteando, por
algunos profesionales de esta ingeniería la idea de “pocas observaciones y buenas, en vez de
muchas y malas”26.
En los años 80-90, cuando irrumpen los ordenadores personales, es el momento en el que se
puede abordar el ajuste mediante mínimos cuadrados utilizando todo el “aparato”
matemático desarrollado con casi 180 años de antelación.
25
Según la R.A.E. redundancia: (Del latín redundanatia) 1. F. Sobra demasiada abundancia de cualquier cosa o en cualquier
línea. 2. f. Repetición o uso excesivo de una palabra o concepto. 3. f. Cierta repetición de la información contenida en un
mensaje, que permite, a pesar de la perdida de una parte de este, reconstruir su contenido.
26
Es de suponer que por ser pocas observaciones no deben ser más precisas que cuando se realizan las
básicamente necesarias, puesto llevaría a pensar que las resultados más precisos son aquellos que se obtienen con
redundancia cero
Para determinar la incertidumbre de las medidas angulares y, así poder ponderar su presencia
en el ajuste que intervenga, es necesario determinar una las componentes que los definen.
SC 1 Normas básicas.
SC 5 microscopios y endoscopios.
Las posibles incertidumbres que se pueden tener presentes en las medidas son de diferente
naturaleza, pudiendo considerarse las siguientes:
Instrumentales.
Falta de perpendicularidad del eje de muñones con el plano que describe el eje de colimación
al girar verticalmente.
Falta de paralelismo entre el eje del anteojo y la línea de puntería (Instituto Geográfico
Nacional, s.f.).
Estas incertidumbres no se
Eje Principal tendrán en cuenta a la hora de
Eje determinar la incertidumbre de
Principal una medida angular, puesto que,
como ya se ha comentado, se
Eje Secundario
Eje de pueden eliminar.
(Muñones)
Colimación
Las distintas partes de la Norma
17123 describen los
procedimientos de medida
Figura 54: Ejes de una estación total necesarios para evaluar la
incertidumbre de medida de un
instrumento topográfico-geodésico, y comprobar que está en perfectas condiciones de uso.
Se trata de procedimientos para el chequeo en campo por el usuario (Field procedures for
testing geodetic and surveying instruments). Estos test no deberían confundirse con una
calibración27 de la instrumentación.
Verticalidad. Se produce por la falta de verticalidad del eje principal del instrumento. La no
coincidencia del eje principal al estacionar con la vertical del lugar, influyendo de forma
27
La calibración es la acción de chequear y ajustar, comparando con un estándar o referencia, la exactitud de un
instrumento de medida. La calibración debe de llevarse a cabo en un laboratorio acreditado para ello, y realizarse,
en condiciones normales (Fernández, 2012).
diferente en las lecturas acimutales y las cenitales; en las lecturas acimutales la expresión
que cuantifica esta incertidumbre es:
scc
V acimutal
12
[1]
Siendo “s” la sensibilidad del nivel que garantiza la verticalidad del instrumento.
Lectura. Viene definido por los dos tercios de la mínima división del limbo. Para equipos
electrónicos son función de la resolución de los círculos codificados. Valor facilitado por el
constructor.
Puntería. Se produce por la falta de coincidencia de la parte de la cruz filar a tener en cuenta
dependiendo del tipo de medida (hilo vertical, para punterías acimutales; hilo horizontal para
punterías cenitales) sobre el objeto al que se dirige la visual. La expresión, empírica, que
intenta regular esta incertidumbre, es la siguiente:
30cc 4A
ccp 1
A 100
[3]
Siendo A los Aumentos del anteojo.
En general la puntería sobre el ángulo acimutal es más perfecta que sobre ángulos
cenitales. Teniendo en cuenta que el ojo humano es capaz de percibir un objeto
bajo un ángulo de 90cc y, al realizar una puntería con el hilo del retículo el objeto
quedaría dividido en dos partes iguales, 45cc y, por definición, también empírica la
incertidumbre angular es de dos tercios de la apreciación, resultando 30cc de la
expresión. Para las punterías cenitales la expresión que intenta modelizar la
incertidumbre es:
60cc 4A
ccp 1
A 100
[4]
Cuando la puntería se realiza sobre un objeto que no esté bien definido la expresión
puede llegar a:
150cc 4A
ccp 1
A 100
[5]
En cualquier caso, el intentar modelizar con una expresión de primer orden y
recoger fenómenos tan complejos, como la luminosidad y la reverberación, donde
influyen la temperatura, la presión, la humedad,…está abocada a ser poco exacta.
En la actualidad, las incertidumbres de puntería a cortas distancias queda expresada
por el fabricante debido a los dispositivos de puntería asistida (ATR, Leica,
AutoLock, Trimble); estos sistemas en condiciones de poca visibilidad o visuales
de gran longitud pierden su efectividad.
ccd S
V 2E S2
ccd r cc 28
E d cc DVE
[6]
Figura 56: Pilar con sistema de centrado forzado y basada para estacionar.
28
Factor de conversión entre radianes y segundos rcc=636.620cc.
Para determinar la incertidumbre total (“error total angular”) en la medida de una dirección,
será la componente cuadrática de las incertidumbres enunciadas anteriormente. Es evidente
que, dependiendo del método e instrumentos que se utilicen, unas u otras cobrarán mayor
relevancia en la expresión final.
ccHz 2p 2V 2l 2d 2Hj
[7]
Aunque el estudio de la incertidumbre en las observaciones cenitales para la presente tesis no
representa gran relevancia, sí es interesante dejar las bases para posibles estudios futuros en
la optimización y diseño de redes topográficas en 2,5D y en 3D.
Igual que sucede en las observaciones acimutales, los componentes de las incertidumbres
cenitales tienen la misma naturaleza, sistemáticas y accidentales, por lo que el tratamiento
será análogo al allí expuesto.
Los telurómetros tienen una gran ventaja sobre los anteriores y es la posibilidad de realizar
medidas de distancia de gran longitud (150 km ± (10mm + 3 ppm)), pero tienen la
servidumbre de que los dos receptores deben ser
activos y estar orientados: uno emite la señal y el
otro la recibe y devuelve. Esta metodología
frente a las prestaciones que ofrece el
instrumental GNSS, hizo que para grandes
distancias no fuera rentable. En cuanto a su
utilización en longitudes de menor magnitud, el
tener que utilizar dos receptores activos y el
consiguiente encarecimiento y, además la
imposibilidad de integración en un teodolito
relegó a este tipo de instrumental.
Figura 58: Telurómetro de la marca Geodimeter
En este apartado, se analizan las diversas fuentes de incertidumbre que afectan a la medida
de una distancia geométrica con estación total o distanciómetro y se evalúa su incertidumbre
de medida.
La ISO 1723-4 es la parte de la norma que contempla los procedimientos de campo para
determinar y evaluar la repetibilidad de instrumentos MED y su equipo auxiliar.
Fundamentalmente, los procedimientos propuestos están diseñados para ser utilizados como
Error de cero. También llamado error de constante aditiva, error de índice, constante de
prisma/reflector o constante de equipo. Este tipo de incertidumbre se pude presentar tanto en
el emisor como en el receptor pasivo. Respecto del error del cero del emisor, se debe a que el
centro geométrico del distanciómetro, o el punto principal de la estación total, no coincide
con el centro exacto desde donde se emite la señal. Esta incertidumbre es constante y, por lo
tanto sistemática, la facilita el fabricante y, como ya se ha comentado, es valorable en un
centro metrológico.
El error del cero del receptor o prisma, no confundir con la constante del prisma, se
puede producir por la falta de coincidencia entre el centro geométrico del jalón con
el punto de reflexión del prisma. Esta variación, junto con el error del cero del
emisor, se puede calibrar con el método del punto extremo29.
Errores cíclicos. Son aquellos errores que se repiten y no tienen proporcionalidad con la
distancia medida. Generalmente son más pequeños que los dos anteriores y se deben a la
contaminación electrónica interna entre los circuitos de transmisión y recepción. Su
determinación se puede obtener mediante calibración en laboratorio.
Los fabricantes suelen presentar la incertidumbre de sus equipos mediante una parte
constante más una parte proporcional a la distancia medida,
ISOD ins a mm b ppmD , que es una forma de indicar la desviación típica para
cualquier distancia.
29
Se basa en el uso de una línea base de longitud no conocida son el método de los tres puntos (Valbuena, 2010).
También se puede emplear el método de (Schwendener, 1972) en el que se emplean siete puntos.
Figura 59: Diferentes dispositivos para minimizar la incertidumbre por la verticalidad del jalón
4.2.1.3.Desniveles trigonométricos
La incertidumbre en las observaciones de desniveles trigonométricos no presenta demasiado
interés en el presente estudio, dado que la optimización de redes se contemplará solo para
2D; aunque se tenga presente el MDT, no serán necesarias las observaciones de desniveles.
Pero dado a posibles ampliaciones futuras del presente análisis, se dejará establecida la
metodología para la obtención de la incertidumbre en las mencionadas medidas.
30
Se considera un cenital de 95g para reducir las distancias al plano de la estación. Valor, este, que en distancias
superiores de 5000 m es complicado que se observen.
31
En este caso se consideran los diferentes valores que tomaría la corrección por esfericidad a introducir siempre
el radio terrestre, mínimo, máximo o medio, del elipsoide oficial, dado que la variación sobre el Geoide, en el
peor de los casos es de 100 m (en España ±50 m), y evidentemente no influye en estos cálculos. Rmin =
6356752.314 m, Rmed = 6367445 m y Rmax = 6378137 m.
[16]
32
El valor de los desniveles trigonométricos obtenidos por determinación simple en distancias superiores a 500 m,
no son precisas por la inseguridad del valor de Kr.
En el cálculo y ajuste de una red topográfica, se pretenden determinar las coordenadas de los
puntos que la constituyen mediante una serie de observaciones realizadas en campo. El
primer paso a la hora de resolver estos problemas será identificar las expresiones
matemáticas que relacionen las incógnitas con las observaciones de las que se disponga.
Estas expresiones constituirán lo que se denomina el modelo matemático.
Esto será posible, para no complicar el modelo matemático, siempre que las expresiones de
los valores observados sean lineales, y así el problema consista en la resolución de un
sistema de ecuaciones de dicha naturaleza. Las observaciones en topografía son,
fundamentalmente, de dirección, ángulo, distancia y desnivel.
[17]
(ángulos o direcciones y distancias, en el caso de una red topográfica planimétrica) con las
incógnitas que se buscan (coordenadas, en el mismo caso).
li fi (x1 , x 2 , , xm )
[18]
a i1x1 a i2 x 2 a im x m li
[19]
Denotando por L la matriz vector columna de las observaciones, por X la matriz vector
columna de las incógnitas y por A la matriz de los coeficientes, con n filas (tantas como
observaciones) y m columnas (tantas como incógnitas), el sistema de las ecuaciones de
observación puede plantearse como:
AX L
[20]
ˆl f ( x 0 , x 0 , , x 0 )
i i 1 2 m
[21]
Pudiendo escribirse:
li ˆli li fi ( x 01 , x 02 , , x 0m ) li
[22]
Por otro lado, considerando los incrementos como aproximaciones finitas de los
diferenciales, puede escribirse:
fi f fi
li dli dfi (x 1 , x 2 , , xm ) dx 1 i dx 2 dx m
x 1 x 2 x n
fi f fi
x 1 i x 2 x m
x 1 x 2 x m
[24]
fi f fi
x1 i x2 x m fi0 (x1 , x 2 , , x m ) li
x1 x2 x m
[25]
f 0i f 0i f 0i
x1 x 2 x m fi0 (x1 , x 2 , , x m ) li
x1 x 2 x m
[26]
f 0i
Donde los coeficientes deben leerse “derivada, con respecto de la k-sima incógnita de
x k
la función, de la i-sima ecuación de observación, calculada con los valores aproximados de
las incógnitas”. Representando estos coeficientes por a1, a2, … am y recordando que f0i(x1, x2,
… xm) –li = li
Denotando por L la matriz vector columna de los incrementos de las observaciones, por X
la matriz vector columna de los incrementos de las incógnitas y por A la matriz de los
coeficientes, con “n” filas (tantas como observaciones) y “m” columnas (tantas como
incógnitas), el sistema de las ecuaciones de observación “linealizadas” puede plantearse
como:
AX L
[28]
Por razones que se exponen en párrafos posteriores, habitualmente se trabaja con un número
de ecuaciones, n, superior al número de incógnitas, m, de modo que el sistema de las
ecuaciones de observación, es sobredeterminado e incompatible. Por tanto, dicho sistema no
puede resolverse sino que ha de ajustarse. Esto es, ha de encontrarse una solución de
compromiso para los valores de las incógnitas (caso lineal) o de sus incrementos (caso
“linealizado”). Solución de compromiso que, introducida en las ecuaciones, no verificará
totalmente éstas, quedando en cada una un cierto residuo:
4.2.2.1.Observación de dirección
Las observaciones de dirección tienen la siguiente expresión:
o
ij ij r r ,1 r n
[30]
Normalmente, los valores que interesan tras un ajuste son las posiciones de los puntos
desconocidos, dado que tanto los ángulos, distancias y demás observables se realizan para
obtener sus coordenadas en un sistema de referencia determinado. Expresando la ecuación
anterior en función de los parámetros deseados quedaría de la siguiente manera:
E j Ei
o
arctg ij r
N N
j i
[31]
o
j
i i Hzij i ' i ' Hzij
[32]
33
La desorientación puede tomar valores próximos a 0,0000; por ejemplo 399,9995 y 0,0007. Evidentemente si el
ajuste determina el valor más probable se obtendría 200,0006, cuando, como ya es sabido, el valor ajustado sería
0,0001. Estos casos suelen darse en situaciones en las que el instrumento está “casi” orientado, muy típico en
topografía en obra.
E j Ei
arctg i ' i ' Hzi r
j
N j Ni
[33]
i' i'
j
arct g ... i ' i ' Hzij r
i
N N Var Var 2
j' i' i i
j'
i '
[34]
Si los valores son lo suficientemente próximos a los resultados del ajuste, bastará con
contemplar, solamente, las primeras derivadas. Esto implicará un proceso iterativo, en los
casos donde las coordenadas aproximadas difieran más del valor de la primera derivada.
La derivada de la función “arcotangente” respecto de las coordenadas de los dos puntos, será
la siguiente expresión:
E Ei '
j'
j'
j' N N
i' i'
j' i'
1
Vari E j' , E j' , Ni ' , N i ' E j' , E j' , N i ' , N i ' E Ei '
2
1 j'
N N
j' i'
[35]
E Ei '
j'
N N N j' Ni ' E j' N j' Ni ' Ei ' E j' Ei ' Ni ' E j' Ei ' N j'
j' i'
E j' , Ei ' , N j' , Ni ' N j' Ni '
2
[36]
j'
N Ni ' E j' N j' Ni ' Ei ' E j' Ei ' Ni ' E j' Ei ' N j' 1
i' j'
1 j'
N N
j' i'
[37]
N Ni '
2
N E j' N Ei ' E Ni ' E N j'
j' j' j' j'
i' i' i' i' j'
Nij'' E j' Nij'' Ei ' E ij'' Ni ' E ij'' N j'
D j' 2
i'
[38]
Nij'' E j' Nij'' Ei ' Eij'' Ni ' Eij'' N j'
j'
i ' i ' Hzij r
D j' 2
i'
i'
[39]
Esta ecuación no es homogénea, dado que el primera parte del primer miembro de la misma
está expresado en unidades adimensionales (radianes) y, por el contrario, la segunda, la
relativa a la observación, lo está en medidas angulares, por lo que el término del segundo
miembro, no tendrá unidades homogéneas. Y, dado que las observaciones de dirección son
resultado de una medida angular, es lógico, que los residuos de estas estén expresadas en
dichas unidades y, por lo que, se deberá expresar la parte adimensional en unidades de
medidas angulares. Para lo cual basta expresar la primera parte en unidades angulares.
r cc
N E Nij'' Ei ' Eij'' Ni ' Eij'' N j' ij'' i ' i ' Hzij rcc
cc
j'
D
j' 2
i' j'
i'
[40]
Esta expresión obedece a la ecuación de observación de dirección entre dos puntos que no
son fijos, expresada en segundos y, sin ponderar.
4.2.2.2.Observación de ángulo
Este tipo de observación es menos habitual que la anterior, debido a que genera una
incertidumbre en cuanto a la evaluación del origen de un supuesto residuo elevado. En el
caso de darse dicha situación, no se puede saber la dirección que afecta al ángulo, esto
llevará a eliminar la observación completa, las dos direcciones. Es cierto que permite
eliminar las incógnitas de desorientación y, por lo tanto permite incluir en el ajuste varias
vueltas de horizonte en la misma estación en diferentes momentos y con diferentes
desorientaciones.
Para obtener la ecuación de observación de ángulo, basta con restar dos ecuaciones de
observación de dirección. Esto permite que al restar dos observaciones realizadas desde el
mismo punto, la incógnita desorientación se elimine.
r cc
N E Nij'' Ei ' Eij'' Ni ' Eij'' N j' ij'' i ' i ' Hzij rcc
cc
j'
D j' 2
i' j'
i'
[41]
r cc
N E k ' Nik' 'Ei ' Eik' 'Ni ' Eik' 'Nk ' ik' ' i ' i ' Hzik rcc1
cc
k'
D
k' 2
i'
i'
[42]
r cc
N E Nil'' Ei ' Eil'' Ni ' Eil'' Nl' il'' i ' i ' Hzil rcc2
cc
l'
D l' 2
i' l'
i'
[43]
Nik' ' Nij'' Nij'' Nik' ' Eik' ' Eij'' Eik' ' Eij''
rcc
E E Ei ' Ni ' N k ' N j'
i ' i' i' i' i' i' i' i '
Dk ' 2 k ' D j' 2 j' D j' 2 D k' 2 Dk ' 2 D j' 2
D k' 2
D j' 2
j' j'
Nil'' Nij'' Ni ' Ni ' E Ei ' Ei ' N Ei ' N Ei ' N
l' l' l' j'
r cc E E
i ' i'
Dl' 2 l' D j' 2 j' Dl' 2 D j' 2
i'
Dl' 2 D j' 2
i'
D l' 2
k'
D j' 2
j'
i ' i ' i ' i ' i ' i '
il'' ij'' Hzil Hzij cc
cc
r 2 r
cc
[45]
Como se aprecia, la operación que se ha realizado ha sido restar a todas las visuales la
primera. De esta forma, se elimina la desorientación de la vuelta de horizonte e introduce
seis incógnitas por ecuación.
Cuando una ecuación de este tipo genere un residuo elevado deberá ser eliminada, esto
conlleva la eliminación de las dos visuales de dirección. Pero, si la observación que
interviene de sustraendo respecto del resto, es la afectada por el error grosero implicará que
todas las visuales a las que ha minorado se verán afectadas de la misma equivocación y, por
lo tanto los residuos serán elevados y todas las observaciones rechazables.
4.2.2.3.Observación de distancia
La ecuación de una distancia observada en función de los parámetros a determinar, presenta
el mismo problema que la ecuación de observación de dirección, la ecuación no es lineal, por
Se parte de la ecuación:
o
Dij Dij r r ,1 r n
[46]
La expresión que permite determinar la distancia entre dos puntos de los cuales se pretende
determinar su posición ajustada, por la formula quedaría34:
E E
N N 2 Dj
2 2 o
j i j i
i r
[47]
Como se puede apreciar no es una ecuación lineal, por lo que el sistema resultante sería un
sistema de ecuaciones transcendentes con una resolución más compleja y no siempre con
solución, dado que no existe un método universal de resolución de sistemas de ecuaciones no
lineales.
... D
Di '
j' j'
D E E N N
1 2
i'
j 2 2 j o
2
Vari
i
Vari
j' i' j' i' 2 i r
j'
Di '
[48]
Si los valores aproximados son los suficientemente próximos a los resultantes del ajuste,
bastará con contemplar, solamente, las primeras derivadas. Esto implicará un proceso
iterativo, en los casos donde las coordenadas aproximadas difieran más de del valor de la
primera derivada:
' '
Di Di
j j
Vari Ei ' , E j ' , Ni ' , N j '
1
2 E j' Ei ' E j' 2 E j' Ei ' Ei ' 2 N j' Ni ' N j' 2 N j' Ni ' Ni ' E j' Ei ' N j' Ni '
1 2 2 2
2
[49]
34
Esta expresión obedece a la ecuación de distancia sin proponer el parámetro del “factor de escala (µ)”. Más
adelante se abordará la necesidad de esta incógnita en ciertos ajustes.
D 1
Eij'' E j' Eij'' Ei ' Nij'' N j' Nij'' Ni ' Dij ν mr
j' o
j'
i'
Di '
[50]
4.2.2.4.Observación de desnivel
Las observaciones de desnivel, como su denominación indica, se utilizan para ajustes
altimétricos, que en el presente trabajo no se van a abordar. No obstante es interesante, el
planteamiento de las mismas.
o
Hij Hij r r ,1 r n
[51]
o
H j Hi Hij r
[52]
Dado que esta expresión ya es lineal, no es necesario realizar ningún tipo de operación sobre
ella, como en los casos anteriores. Se dispondrá de tantas ecuaciones de este tipo como
desniveles observados, para realizar el ajuste de las altitudes a determinar.
El primer paso a la hora de resolver estos problemas será identificar las expresiones
matemáticas que relacionen las incógnitas con las observaciones de las que se disponga, ya
documentado y justificado en el capítulo anterior de “Expresiones lineales de las
observaciones”.
Una vez realizado el modelo, lo más usual es tener un modelo matemático con más
ecuaciones que incógnitas, o lo que es lo mismo, tener un sistema sobredeterminado. Este
caso se nos presenta cuando se tienen más observaciones que las necesarias para determinar
el valor de un conjunto de incógnitas, es decir, se tienen observaciones redundantes. Esto es
lo que ocurre en el caso de las redes geodésicas o topográficas, ya que una vez realizadas las
observaciones que constituyen una red, normalmente se tendrá un conjunto de observaciones
redundantes. Los sistemas sobredeterminados no tienen solución matemática (o infinitas
soluciones), por lo que para poder obtener una solución para el problema planteado habrá
que reformular el modelo. Esto se hará introduciendo algún mecanismo de ajuste, tal como la
obtención de la solución mediante un proceso de ajuste mínimos cuadrados.
Los problemas de ajuste o compensación en geodesia y topografía surgen del hecho de que
en general se dispone, después de la fase de observación, de más observaciones de las
estrictamente necesarias para la resolución del problema planteado. Además, estas
observaciones siempre adolecen de las inevitables incertidumbres, que son desconocidas.
Evidentemente, de entre las infinitas soluciones posibles se desea obtener la "mejor", la más
probable, y para obtenerla se necesita algún criterio adicional. Este criterio adicional es el
principio de mínimos cuadrados justificado plenamente por el análisis matemático y la
estadística. Este principio establece, en su forma elemental, que la suma de los cuadrados de
los residuales debe ser mínima; con la métrica euclídea ordinaria esto es:
n
i 1
2
i mínimo
[53]
T P mínimo
[54]
Partiendo del enunciado de los mínimos cuadrados, la suma de los residuos elevados al
cuadrado sea mínima, se obtiene una función cuyos parámetros son los desplazamientos de
las incógnitas y cuya expresión matricial es la siguiente:
T AX L AX L XT AT LT AX L XT AT AX XT AT L LT AX LT L
T
[56]
Esta forma paramétrica es un escalar, por tanto, todos sus sumandos deberán ser escalares y
un escalar es igual a su transpuesto, por lo que queda:
XT AT AX 2 XT AT L LT L XT NX 2 XT AT L LT L
[57]
Donde N AT A .
Como este valor tiene que ser mínimo, du derivada, deberá ser cero:
2 N X 2 AT L 0
x
N X AT L
X N 1A T L
X N 1 t
[58]
Una vez determinados los valores más probables de los parámetros del sistema de ecuaciones
de observación y sustituyéndolos en dichas ecuaciones, se obtienen los residuos; en el caso
anterior serán peso unidad, dado que las ecuaciones de observación no se han sido
ponderadas.
T
0
nm
[59]
1
X 02 AT A 02 N1 02 QX
[60]
La matriz N-1 es una matriz simétrica que también es denominada Q o matriz de cofactores y,
en este caso, matriz de cofactores de peso unidad, puesto que la matriz de incertidumbres ha
sido la matriz identidad.
Siendo las expresiones que regulan las matrices de cofactores de las observaciones y de los
residuos las siguientes:
Q Q A N AT
1
[61]
Ql A N A
1 T
[62]
35
Centro Español de Metrología. En su Anexo G de la Guía para la expresión de la incertidumbre de medida.
Grados de libertad y niveles de confianza.
Este anexo trata pues de la forma de determinar el factor de cobertura kp que produce un
intervalo, en torno al resultado de medida y, que se espera comprenda una fracción p
especificada, amplia, de la distribución de valores que pueden ser razonablemente atribuidos
al mensurando “Y”.
En numerosos casos, no tiene sentido tratar de hacer la distinción entre, por ejemplo, un
intervalo con un nivel de confianza del 95% (una posibilidad sobre 20 de que el valor del
mensurando “Y” esté situado fuera del intervalo) y un intervalo del 94 % ó 96 % (una
posibilidad sobre 17 o sobre 25, respectivamente). La obtención de intervalos con niveles de
confianza del 99 % (una posibilidad sobre 100) y superiores, es particularmente difícil,
incluso asumiendo que no se ha pasado por alto ningún efecto sistemático puesto que, en
general, se posee muy poca información acerca de los extremos o “colas” de las
distribuciones de probabilidad de las magnitudes de entrada.
Figura 61: Relación entre niveles de confianza y factores de cobertura, sobre la campana de Gauss.
La obtención del valor del factor de cobertura “kp” que proporciona un intervalo
correspondiente a un nivel de confianza especificado “p”, requiere poseer un conocimiento
detallado de la distribución de probabilidad caracterizada por el resultado de medida y su
incertidumbre típica combinada. Por ejemplo, para una magnitud “z” descrita por una
distribución normal, de esperanza matemática μz y desviación típica σ, es fácil calcular el
valor de kp que proporciona un intervalo μz ± kpσ que comprende la fracción “p” de la
distribución, con una probabilidad o nivel de confianza “p”. La tabla siguiente presenta
algunos ejemplos.
Frecuentemente, los valores del mensurando siguen una distribución normal. Sin embargo, el
mejor estimado del mensurando, la media (obtenida por muestreos de n mediciones
repetidas) dividida entre su desviación estándar, sigue una distribución llamada t de Student,
la cual refleja las limitaciones de la información disponible debidas al número finito de
mediciones. Esta distribución coincide con la distribución normal en el límite cuando n
tiende a infinito, pero difiere considerablemente de ella cuando “n” es pequeño. La
distribución t de Student está caracterizada por un parámetro r = n-m, llamado número de
grados de libertad o redundancia. Por lo anterior, el intervalo correspondiente al nivel de
confianza “p”, dado antes por la ecuación Up = kp uc(Y), se calcula ahora por:
Donde el factor tpc(r) indica los límites del intervalo correspondiente al nivel de confianza p
de la distribución y su valor siempre es mayor o igual que el factor k (tomado de la
distribución normal). Sus valores se encuentran en la Tabla 9.
Cuando se combinan las fuentes de incertidumbre con sus respectivas distribuciones para
obtener la incertidumbre combinada uc del mensurando, el Teorema del Límite Central ([4],
Sec. G2.3 de [1]) permite aproximar la distribución resultante por una distribución normal.
4.2.3.1.Distribución t de Student
La aproximación será mejor mientras más grande sea el número de fuentes de incertidumbre
y sus contribuciones sean similares, independientemente de la forma particular de sus
distribuciones. Nuevamente, la disponibilidad limitada de información hace necesario el uso
de la distribución t de Student36 para determinar la incertidumbre expandida de manera
rigurosa (con la suposición de que los valores del mensurando obedecen una distribución
normal).
Por ejemplo, cuando las lecturas obtenidas con un instrumento de baja exactitud son
idénticas debido a la resolución del instrumento y las otras fuentes de incertidumbre son
insignificantes, es plausible suponer que el mensurando sigue una distribución rectangular
cuyos límites están determinados por el valor de la escala del instrumento. Entonces puede
estimarse directamente el ancho del intervalo que contiene la fracción p de los valores que
pueden atribuirse razonablemente al mensurando (Schmid & Lazos, 2004).
36
William Sealy Gosset (11 de junio de 1876 – 16 de octubre de 1937) fue un estadístico, mejor conocido por su
sobrenombre literario Student. Nacido en Canterbury. Graduado en química y matemática en el New College de
Oxford. Tras graduarse en 1899, se incorporó a las destilerías Guinness en Dublín.
Guinness era un negocio agroquímico progresista y Gosset podría aplicar sus conocimientos estadísticos tanto a
la destilería como a la granja (para seleccionar las mejores variedades de cebada. Gosset adquirió ese
conocimiento mediante estudio, prueba y error así como pasando dos temporadas durante 1906/7 en el laboratorio
bioquímico de Karl Pearson. Gosset y Pearson tenían una buena relación y este último ayudó a Gosset con la
matemática de sus artículos. Pearson contribuyó a los artículos de 1908, pero no apreció lo suficiente su
importancia. Los artículos se referían a la importancia de las pequeñas muestras para la destilería, mientras que el
biólogo disponía normalmente de cientos de observaciones y no veía la urgencia en el desarrollo de métodos
basados en unas pocas muestras.
Otro investigador de Guinness había publicado anteriormente un artículo que contenía secretos industriales de la
destilería. Para evitar futuras exposiciones de información confidencial, Guinness prohibió a sus empleados la
publicación de artículos independientemente de la información que contuviesen. Esto significaba que Gosset no
podía publicar su trabajo usando su propio nombre. De ahí el uso de su pseudónimo Student en sus publicaciones,
para evitar que su empleador lo detectara. Por tanto, su logro más famoso se conoce ahora como la distribución t
de Student, que de otra manera hubiera sido la distribución t de Gosset.
Gosset publicó El error probable de una media y casi todos sus artículos usando el pseudónimo Student en la
publicación Biometrika creada por Pearson. Sin embargo, fue R.A. Fisher quien apreció la importancia de los
trabajos de Gosset sobre muestras pequeñas, tras recibir correspondencia de Gosset en la que le decía le envío una
copia de las Tablas de Student, ¡ya que es la única persona que probablemente las use jamás! Fisher creyó que
Gosset había efectuado una "revolución lógica". Irónicamente la estadística t por la que Gosset es famoso fue
realmente creación de Fisher.
100-0.05=99.5% fiabilidad
La solución viene definida por X N1 t y la incertidumbre a posteriori del ajuste por
T
0 ; los residuos serán “peso unidad”.
nm
T
0
nm
[63]
k n
i 1, 2,...m
N i , j a k ,i a k , j
k 1 j 1, 2,...m
[64]
Donde
N i , j N j,i
[65]
k m k m k i
i 1, 2,...m
Ni , j qiT,k q k , j q k ,i q k , j q k ,i q k , j
k 1 k 1 k 1 i j
[68]
Pues al ser Q triangular superior, se llegaría al término “i” sólo; los demás términos serían
cero, por lo tanto:
k i 1
N i ,i q
k 1
2
k ,i qi2,i i j
[69]
k i 1
Ni , j q
k 1
k ,i q k , j +qi ,i qi , j i j
[70]
Y de aquí
1
k i 1
2
qi ,i n i ,i q k2 ,i i 1, 2,..., m
k 1
[71]
1 k i 1
qi , j ni, j
qi , j
q
k 1
k ,i qk , j
i j
[72]
qi , j 0 i j
[73]
i 1 j=1,2,...,m
i 2 j=2,3,...,m
... ....
i=m j=m
[74]
N1,1 N1,1
N1, j
N1, j j=2,3,...,m
N1,1
K i 1
N i , i N i ,i N
k 1
2
k ,i i=2,3,..., m-1
1 k i 1
Ni , j i , j N k ,i N k , j j>i
N
N i ,i k 1
1
k m 1
2
N m ,m N m ,m N k2 ,m
k 1
[75]
Para invertir la matriz triangular, que se acaba de formar, Q, se trata de determinar Q-1, tal
1
que U Q .Q I , siendo I la matriz identidad. Tomando de momento la siguiente notación:
k m k j
i 1, 2,..., m
u1, j t i ,k q k , j t i ,k q k , j
k 1 k 1 i j
[78]
Es posible dado que la matriz Q comienza a tener términos en la columna i y la inversa Q-1
sólo tiene términos hasta la fila j.
i j
u j, j t j, j q j, j
j 1, 2,..., m
k n k j
i 1, 2,..., m
u1, j t i ,k q k , j t i ,k q k , j
k 1 k 1 i j
[79]
Sabiendo que
u j, j 1 y ui , j 0 para i j
[80]
t j, j 1 j=1,2,...,m
q jj
[81]
1 j1
i j
ti, j t ik q kj
q jj k i j 2, 3,..., m
[82]
Para la programación, los elementos qij son los últimos, sij obtenidos al aplicar la ecuación
[75]; es suficiente, pues, sustituir la notación. Al calcular tjj con la ecuación [81] se pueden
utilizar los mismos Njj, dado que se calculan de forma progresiva y después de calculados no
vuelven a intervenir.
N j, j 1
N jj
[83]
Habiendo realizado el cambio de la ecuación [83], las expresiones de la ecuación [82] queda:
j1
i j
t i , j N jj t ik N kj
k i j 2, 3,..., m
[84]
N1,1 N1,1
N1, j N11 N1j j=2,3,...,m
1
N i ,i 1
i=2,3,..., m-1
i 1
2
2
N ii N ki
k 1
i 1
N i , j Nii N i , j N k ,i N k , j j>i
k 1
1
N n ,n 1
k m 1
2
2
m ,m k ,m
N N
k 1
[85]
Observando la ecuación [84] los elementos Nkj sólo intervienen una vez en el cálculo de cada
tkj, por lo tanto, se puede volver a utilizar los elementos de N para obtener N-1. Pero dado que
la parte inferior, triangular, de N es cero, se pueden almacenar los elementos t ij en dicha
parte de N haciendo Nji = tij
j1
i j
N ji N jj N ki Nkj
k i j 2, 3,..., m
[86]
m
ji
Nij1 t ik t jk
k j i 1, 2, 3,..., m
[87]
Una vez analizada la teoría del ajuste mediante mínimos cuadrados y, las herramientas
matemáticas para la inversión de una matriz simétrica dominante positiva, así como los
estadísticos, se plantea como aplicar estos principios a las observaciones topográficas en los
ajustes de redes básicas observadas mediante metodologías clásicas.
Antes será necesario dejar patente la necesidad de asignar pesos cuando las observaciones
son de la misma naturaleza e indispensable cuando son de distinta.
Para que pueda existir ajuste es necesario que el número de puntos de posiciones conocidas,
desde los que se observa, al punto de coordenadas desconocidas, sea de al menos tres. Se
supone el caso, correspondiente al gráfico de visuales de la Figura 63 y Figura 64. El número
de soluciones que presenta el ejemplo es de tres, de tal manera que la solución más probable
sería la media ponderada de las soluciones simples. De esa forma se obtendría el mismo
valor que mediante un ajuste mediante mínimos cuadrados.
Figura 63: Gráfico intersección directa múltiple Figura 64: Gráfico de la solución de una intersección
directa múltiple
37
Circuncentro es el punto de intersección de las tres mediatrices de un triángulo. Es el centro de la
circunferencia circunscrita
probable del punto observado, dado que distará la misma magnitud de las tres visuales que
conforman el triángulo. Evidentemente, sin tener en consideración las incertidumbres de las
observaciones (pesos).
Por el contrario, las distancias más cortas del punto solución a los lados serán los residuos de
cada observación que, para expresarlas en unidades angulares basta con dividirlas por las
distancias a los correspondientes desde donde se realizaron las observaciones y expresarlas
en dichas unidades.
Es evidente que la solución, planimétrica, más probable de una intersección directa múltiple
será la media de todas las soluciones simples:
m! 4 3 2!
Cnm 6
m n ! n ! 2! 2!
[88]
El problema se suscita cuando no es un solo vértice el que se debe ajustar, si no que son
varios y además existe correlación entre ellos. La no aplicación del ajuste mediante mínimos
cuadrados obligaría a la búsqueda de las soluciones simples, la cual sería ardua y muy
laboriosa.
Retomando la situación del ajuste del punto V desde tres vértices y mediante mínimos
cuadrados, el planteamiento sería el que a continuación se expone.
0 0 1 0 0
0 0 1 0 0
EV ' N V ' A B C
r cc N V ' r E
cc V' 0 0 ad 0 0
A
A
1 0 0
DA D
2 2
0 0 ad 0 0
V ' V'
A
cc m 1 cc m 1 ad 0 0
0 0 0 1 0
A 0 0 0 1 0 A 0 0 0 ad 0
0 0
r N V '
cc
r cc E VB '
0 0 ad
B
0 1 0 cc m 1
cc m 1
0 ad 0
D VB ' D
2 V' 2
B
0 0 0 0 ad
0 0 0 0 1 0 0 0 0 ad
0 0 0 0 1
1 1
cc m cc m 0 0 ad
r cc N CV ' r cc E CV '
0 0 1 unidades
DCV ' D
2 V' 2
C
[89]
Hz
B B cc
A A
A
C C cc
A A Hz A cc
V' cc
A A Hz A
V ' cc
cc
AB B Hz BA
cc
cc
L CB B Hz CB L cc
cc
V' V cc cc
B B Hz B cc
A
C C Hz C
A cc
cc
CB C Hz CB cc
cc
unidades
V ' Hz V cc
C C C
[90]
X N1 t
[91]
cc m
2 2
cc m
2 2
cc m 1
cc m 1
cc m
1
cc m
2 1
m
2 2 2 1 1 1 2 1 m
cc m cc m cc m cc m cc m cc m
2
N cc m 1 cc m 1 ad 0 0 t cc X cc
1 1
cc m cc m 0 ad 0 cc cc
cc m 1 cc m 1
ad cc cc
0 0
unidades unidades unidades
[92]
Por lo tanto, tal y como se esperaba, las unidades de los parámetros son las adecuadas.
A continuación se analizarán las unidades de las incertidumbres, tanto del ajuste como de los
parámetros.
2
i
0 i 1
0 cc
r
[93]
1
EV 0 N1,1 0 cc cc 1m m
1
NV 0 N 2,2 0 cc cc1m m
1
A 0 N3,3 0 cc ad cc
x 6 1
Es evidente que el resultado más probable de este sistema sobredeterminado
x 4 2
sería x 5
1 6
A L
1 4
6
N A T A 2 A T L ; N 1 0.5 t 10
4
X 5
[95]
1 1 T
1, 41
2 1 r
[96]
Si, a continuación, por ejemplo se añade tres veces más, la primera ecuación, resultaría el
4 x 6 1
siguiente sistema:
1 x 4 2
Pero si, nuevamente, se aplica el principio de ajuste de MM.CC. el resultado será otro bien
distinto. El añadir tres veces más la primera ecuación puede obedecer, realizando un
paralelismo con los ajustes en Geodesia o Topografía, a que esa observación sea cuatro veces
más precisa que la segunda, con lo que el resultado aquí obtenido es aplicable a los sistemas
de ecuaciones de observaciones ponderadas.
4 24
A L
1 4
[97]
24
N AT A 17 AT L ; N 1 0,05882353 t 100
4
[98]
X 5,88
[99]
Este simple ejemplo viene a significar que las ecuaciones con coeficientes mayores tienen
mayor representatividad en el ajuste y, en definitiva, tienen más peso en la determinación del
valor más probable.
r cc
N E Nij'' Ei ' Eij'' Ni ' Eij'' N j' ij'' i ' i ' Hzij [cc]
cc
j'
D
j' 2
i' j' n
i'
[100]
Eij'' E j' Eij'' Ei ' Nij'' N j' Nij'' Ni ' Dij'' Dij ν[m]
1 o
j'
Di ' n 1
[101]
Se puede suponer cualquier magnitud, puesto que ésta, será la misma para ambas ecuaciones:
Para que los coeficientes de los parámetros sean iguales, se supone que la observación se
realiza sobre un acimut de 50g y se supone una distancia de 400 m entre el punto de estación
y el punto visado “V”.
r cc
282,842712EV ' 282,42712NV ' ... [cc]
n
4002
[102]
1125,39580EV' 1125,39580NV' ... [cc]
n
[103]
1
282,842712EV ' 282,842712NV ' ... ν[m]
n 1
400
[104]
0,0711EV' 0,70711NV' ... ν[m]
n 1
[105]
ν[cc] 1.125,39580
n
1.591,55
ν n 1
[m]
0,70711
[106]
Esta expresión, contundente, lleva a la conclusión de tener que homogenizar las relaciones
de observación entre ellas y a ponderarlas en función de sus desviaciones típicas a priori
(incertidumbres).
4.2.3.5.Homogenización de observaciones
H. Henneberg realizó un estudio de los conceptos de homogenización, homologación y
ponderación en las relaciones de observación, cuando estas son de igual o distinta naturaleza.
En dicho estudio planteaba conceptos muy interesantes; entre otros, “redundancia de la red y
por incógnita”, “homogenización y homologación de relaciones de observación”.
(Henneberg, 1986).
38
Expresión que regula los grados de libertad del sistema de ecuaciones lineales. r = n-m, donde n es el número
de ecuaciones de observación y m, el número de parámetros del ajuste.
Si, ahora, se supone una intersección inversa realizada a cinco vértices del marco de
referencia, donde se han observado direcciones y distancias, el número de ecuaciones de
observación (cinco) y de distancia (cinco) será de diez, mientras que el número de
parámetros será de tres, obteniéndose una redundancia, igual a la del caso anterior, siete. Es
evidente que la desviación típica a posteriori en cada caso no será la misma y las
incertidumbres de los parámetros, tampoco. A partir de esta indefinción de los grados de
libertad del sistema respecto a la redundancia de cada vértice, H. Henneberg plantea el
nm
concepto de redundancia por incógnita y la define como ri , valor este, con mayor
m
significado en cuanto a redundancia media por vértice desconocido de la red.
mD '' m02
mαD ρ y PD 2
D mαD
[107]
2
m
Siendo Pα 1 , lo que implica que la desviación típica de referencia es la misma que la
0
2
m α
39
Antes de realizar el planteamiento del sistema de ecuaciones de observaciones de dirección y distancia, se
puede realizar el estudio de los valores más probables de las desorientaciones en los puntos, inicial y final, para
así, no introducir en el ajuste dichas variables como incógnitas.
una de ellas. Esto es, todas las observaciones de dirección no tienen la misma desviación
típica a priori, ni tampoco las de distancia. Como se verá en el apartado 4.2.3.7.2, esto genera
una ponderación inadecuada en ciertas observaciones y, por lo tanto resultados sesgados
respecto a las observaciones que intervienen en el ajuste con más presencia en el ajuste que
la que realmente tienen.
D = 1.000 m
Δ = 500 m.
Se calculan los coeficientes de las relaciones de observación:
500 206.265
De dirección a 100
10002
500
De distancia a 0,5
1.000
Se ve claramente que no puede completarse así ya que, en este caso, dada la insignificancia
del coeficiente a, el peso de la ecuación de observación en distancia es prácticamente nulo
dentro del tratamiento global de las ecuaciones de error. Por este motivo, se introduce la
“homologación” de las ecuaciones. El modelo que expongo consiste en transformar las
ecuaciones de distancia en ecuaciones angulares. Para ello se multiplica la ecuación de
observación de distancia por (ρ/D) (Henneberg, 1986):
ρ ρ ρ ρ
νD a xi b yi ... lD
D D D D
[108]
“En este punto veremos que no es suficiente con la homologación de las ecuaciones de
observación; es necesario hacer, además, una homogeneización numérica de dichas
ecuaciones ya que en caso contrario resultan, en la computación, errores de redondeo que
influyen en los resultados. Calculamos de nuevo el ejemplo del apartado anterior pero
tomando como unidades segundos de arco y metros. Tenemos entonces un sistema de
ecuaciones de error de la forma:
500 200.000
ν α 1'' 2
x ... 1'' 100x ... 1''
1.000
[109]
ρ ''
ν ''D 0,001 0'' ,2 100x ... 0'' ,2
1.000
[110]
Para mejor clarificar las razones de la homogeneización escribimos los dos resultados
obtenidos:
[112]
Donde vemos que el coeficiente direccional ha cambiado en su expresión absoluta. Esto es,
precisamente, lo que debemos evitar, ya que 0,1 conjuga mejor con el valor de 1" por el
orden y la significancia de los redondeos. Lo hacemos, simplemente, vigilando las unidades
que entran en la computación; por ejemplo, en el rango de los kilómetros entraremos en
milímetros, en el de los 10 km en centímetros, en el de los 50 km en metros, etc.
De la primera parte de este artículo cabe destacar como conclusiones más relevantes:
4.2.3.6.Matriz de pesos
Para introducir mayor presencia en un ajuste de aquellas observaciones más precisas, se
utiliza la matriz de pesos donde su diagonal principal contendrá la inversa de las varianzas de
las observaciones.
Según se ha visto anteriormente en el ejemplo del apartado 4.2.3.4, las ecuaciones de mayor
precisión en un ajuste mediante mínimos cuadrados serán aquellas cuyos coeficientes sean
mayores. Y, como consecuencia, aquellas que estén divididas por menores valores, en
igualdad de coeficientes, tendrán mayor presencia en el ajuste y, el resultado se acercará más
al resultado “por ellas propuesto”.
Modelo funcional:
T P AX L P AX L XT AT LT PAX PL
T
La matriz de pesos estará formada exclusivamente por las varianzas de las observaciones,
dado que no existe correlación entre ellas, y las covarianzas serán cero. Esto nos lleva a
plantear una matriz de m filas y m columnas, tantas como observaciones se hayan realizado,
donde la diagonal principal de la misma sea la inversa de las varianzas, definiendo como la
varianza de referencia, la unidad:
1
2 0 0 ... 0
1
1
0 0 ... 0
22
1
P 0 0 ... 0
32
1
... ... ... ...
i2
1
0 0 0 ...
2n
[116]
1
A1 A
i
1
L1 L A1 x L1 V1
i
1
V1 V
i
[117]
A1T A1 x A1T L1 0
1 1 1 1
AT A x AT L 0
i i i i
[118]
1 1 1 1
AT A X AT L 0
i i i i
P P
AT P X AT P L 0
[119]
1
NX t X N t
[120]
Esto demuestra que al ponderar las ecuaciones de observación, multiplicando cada una de
ellas por la inversa de su incertidumbre, el resultado es el mismo que si se utilizara la matriz
de pesos.
Seguidamente, se analizan las unidades que se obtienen en las diferentes matrices del ajuste
y, en consecuencia las unidades de los vectores de resultados, así como de las incertidumbres
a posteriori.
La raíz del peso (la inversa de la desviación típica a priori) vendrá expresada por la inversa
de la desviación típica a priori, dimensionada en las mismas unidades que su correspondiente
relación de observación, lo que ocasiona, como ya se ha dicho, que todas las ecuaciones de
observación estén expresadas en las mismas unidades. Tomando a modo de ejemplo, el caso
del apartado 4.2.3.3 intersección inversa del apartado anterior y, planteando las relaciones de
observación (Arranz & Soler, 2015).
1 r cc
Ni ' E j' Ni ' Ei ' Ei ' Ni ' Ei ' N j' i ' i ' i ' Hzi r
cc
cc
j' j' j' j'
j' j
ij Di '
cc j' 2
[121]
1 1
σ mD j Dij''
E j'
i ' E j' E j'
i ' E i ' N j'
i ' N j' N j'
i ' N i '
D j'
i ' D i
j o
ν[m]
r 1
i
[122]
E ' E '
'
cc
P P
P
A
P' Hz pA
cc
r N P'
A
r E P'
cc A
1 P'
cc cc 1cc
cc
A
2 2
AP D P'
A
A D P '
cc A
A P cc
cc
AP
P
P
cc
B
P' Hz pB
r N P'
B
r E BP'
cc
1 P' cc
cc cc Bcc 2
B
2 2
BP D P'
B
cc D BP' P ccB
B P
cc P
cc
P
C
P' Hz Cp 3cc
r N P' r cc E CP'
C
1 P'
cc cc cc
C
cc
C CP
2 2
C D P ' ccC DCP'
C
P
P
cc
P P
cc
r cc N DP' r cc E DP'
D
P' Hz pD 4
1
cc P'
cc
D DP
cc
ccD D D'
2
cc D DP'
2
D
P P D P
P
cc
P
r cc N E' E
P' Hz pE
cc
cc5
r cc E EP'
1 EP
1 P'
1 P
1
L m
A DE 2
E Ecc
2
i EP P' E D PE' i i 6
P P
P
D P' D pA
A
E AP' N PA'
DAP
A D A'
0
DA m
DA D PA'
DP P P
P
7
D P' D pB
B B
E P'B
N PB' DP
0 DB
DBP D P'
B
DB D PB' 8m
P
P
D P' DCp DCP
C
E CP' N CP'
m
0
DC 9
DCP D P' DC DCP'
C
P
P
E DP' N PD' D P' D pD
D
DDP
DD 0 DD m
DD D PD' 10
DD P'
P
DE
P P
D P' D pE
E
P
E EP' N PE'
E D E'
0
DE
DE D EP'
DP P P P
[123]
1 1 1 1
A A N m 2
T
m 2
m 1 cc 1 A L t m 1
T
i i i i
m 1 cc1 1
m cc 1 cc2 cc1
unidades unidades
[125]
T
n 1 1
m 2
i
i i
X m 0 i 1
0 ad
r r
cc
unidades
[126]
Se puede apreciar la homogeneidad de los resultados obtenidos, tanto en las unidades de los
parámetros como en la de la desviación típica a posteriori del ajuste. Si, a continuación, se
analizan las unidades de las incertidumbres de los parámetros, se observará la concordancia
en unidades e incógnitas:
Con esta rápida exposición queda patente que la formulación de la matriz de pesos es
innecesaria y además, esta manera de ponderar las relaciones de observación, arroja mayor
información en el ajuste con la incorporación de los siguientes conceptos, residuo peso
unidad P.U. [cc]
r , r 1 , dependiendo de la naturaleza de la observación, y residuo
[m]
Una vez visto los conceptos de residuo peso unidad y ponderado, se trata, a continuación, el
análisis de que representan dichos valores.
Los residuos peso unidad son los valores absolutos de los residuos de las observaciones y en
las mismas unidades en las que se formularon dichas ecuaciones. Estos valores representan
la diferencia del valor observado y el ajustado, pero con independencia de la longitud de las
visuales realizadas. En el apartado 4.2.1, donde se plantearon las incertidumbres en las
medidas de dirección y de longitud entre otras, se vio que en ambos casos, las desviaciones
típicas a priori dependían de la longitud de los mensurandos.
Los residuos peso unidad no hacen referencia a la relación del valor obtenido y el que a
priori se debería haber obtenido. La información que facilita el residuo ponderado epresenta
el número de veces que se ha sobrepasado la desviación típica a priori, por lo que dicho valor
es adimensional.
Una vez determinados los valores de los parámetros “X” y sustituyendo en el sistema de
ecuaciones de observación AX L , los valores que obtienen serán los residuos peso
unidad, dado que el sistema no está ponderado y las relaciones de observación tienen las
siguientes expresiones:
r cc
N E Nij'' Ei ' Eij'' Ni ' Eij'' N j' ij'' i ' i ' Hzij rcc
cc
j'
D
j' 2
i' j'
i'
[128]
Eij'' E j' Eij'' Ei ' Nij'' N j' Nij'' Ni ' Dij'' D
1 j o
j'
ν[m]
Di ' i r 1
[129]
Por el contrario, si los valores de los parámetros son sustituidos en las ecuaciones
1 1 1
ponderadas, A X L , los valores que se obtendrán serán los residuos
i i i
ponderados, cuyas expresiones son:
ν cc
νr
PON
r
observaciones de dirección
σθccr
ν cc
νr 1
PON
r 1
observaciones de dis tan cia
σ cc
Dr 1
[130]
Una vez analizada la necesidad de ponderar las observaciones cuando coincidan visuales de
distinta naturaleza, se debe plantear la necesidad de ponderarlas aun cuando solo existan
observaciones de una sola naturaleza, en contraposición de lo expuesto por Henneberg.
Para el primer análisis se supone un instrumento tipo T240 (Wild) cuyas características son:
40
A este instrumento se le denominó “teodolito universal”, por su versatilidad, y fue utilizado entre otros muchos
proyectos en la observación de la red de orden inferior (ROI) de la Red Geodésica Nacional durante los años 80
en España
Aumentos: 30
Apreciación: 1cc.
Con estos valores se tendrá, para la menor distancia, 200 m, una desviación típica a priori en
esas direcciones de (visual al punto A):
cc 30cc 4A cc
p 1 2 ,2
A 100
1 cc
V 60 5
cc cc
12
ccHz p2 V2 l2 d2 Hj
2
cc
l
0 cc
, 7 HzA 11 , 8
cc cc
0, 0022 0, 0022 cc cc
d 200
r 9
H j
cc 0, 0016 cc
r 5 ,2cc
200
[131]
11cc , 8
ETA 200 4 mm
r cc
[132]
30cc 4A cc
cc
1 2 ,2
p
A 100
1 cc
V 60 5
cc cc
12
ccHz p2 V2 l2 d2 Hj
2
ccl 0cc , 7 HzA 7 , 6
cc cc
0, 0022 0, 0022 cc
d r 4 , 5
cc
400
cc
0, 0016 cc
r 2 cc
, 6
Hj
400
[133]
7cc , 9
E TB 400 5 mm
r cc
[134]
r cc
A N Ej'
Eij'' N j' ... cc
n 2.250,792E j' 2.250,792N j' ... cc
200
2 i' j' n
[135]
r cc
B N E
j'
Eij'' N j' ... cc
n 1 1.125,3958E j' 1.125,3958N j' ... cc
n 1
400
2 i' j'
[136]
Según el análisis anteriormente realizado, la ecuación con más presencia en el ajuste deberá
ser la correspondiente a la visual “A” dado que sus coeficientes son mayores que los de la
observación de dirección al punto “B” y para que el resultado sea riguroso la relación entre
los coeficientes deberá ser la misma que la relación entre las incertidumbres que se producen
en ambas. La ponderación de la observación de dirección sobre “A” deberá tener unos
coeficientes mayores que la de la visual a “B” en 1,28707, que es la misma relación entre las
0, 005
incertidumbres transversales: 1, 28707
0, 004
r cc
A N E
j'
Eij'' N j' ... cc
n 191,33585E j' 191,33585N j' ... cc
200
2 i' j' n
r cc
B N E
j'
Eij'' N j' ... cc
n 1 148,6603E j' 148,6603N j' ... cc
n 1
400
2 i' j'
Observación a hito, provisto con nivel esférico de 0,0100 gon de sensibilidad, pero a 0,40
m de altura.
Con estos valores se tendrá, para la menor distancia, 200 m, una desviación típica a priori en
esas direcciones de (visual al punto A):
30cc 4A cc
cc
1 2 ,2
p
A 100
1 cc
V 6 0 ,5
cc cc
12
ccHz 2p 2V l2 d2 2Hj ccl 1cc , 5 HzA 3 , 53
cc cc
0, 00052 0, 00052 cc cc
d 200
r 2, 25
ccH j
0, 00006 cc
r 0cc , 2
200
[138]
Esta incertidumbre, en las direcciones de 200 m producen una incertidumbre transversal de:
3cc , 52
ETA 200 1, 1 mm
r cc
[139]
30cc 4A cc
cc
1 2 ,2
p
A 100
1
ccV 6cc 0cc , 5
12
ccHz 2p 2V l2 d2 2Hj ccl 1cc , 5 HzB 2 , 94
cc cc
0, 00052 0, 00052 cc cc
d 400
r 1 ,13
H j
cc 0, 00006 cc
r 0 ,1 cc
400
[140]
2cc , 94
ETB cc 400 1, 9 mm
r
[141]
A tenor de los resultados obtenidos de las desviaciones típicas, la primera es menos precisa
en la relación de:
E TA ( 200 ) 1,1 mm
0, 6
E TB ( 400 ) 1, 9 mm
[142]
realizadas con el mismo instrumento y en las mismas condiciones, dado que las desviaciones
típicas a priori es lo que indican.
La ecuación de dirección, sin ponderar de la observación a 200 m, implica que: Nij'' Eij''
y, por lo tanto, la expresión será:
r cc
N dE
j'
Eij'' dN j' ... cc
r 2.250,792dE j' 2.250,792dN j' ... r
cc
200
2 i' j'
[143]
r cc
N dE
j'
Eij'' dN j' ... cc
r 1.125,396dE j' 1.125,396dN j' ... r 1
cc
400
2 i' j'
[144]
2.250,792
2
1.125,396
[145]
Por el contario, si se divide cada ecuación por su incertidumbre41, es decir, se multiplica por
la raíz del peso, el resultado que se obtiene está en la misma proporción que representan las
desviaciones típicas a priori.
41
El análisis de las unidades de las matrices del ajuste mediante mínimos cuadrados y ecuaciones de observación
ponderadas se realizará cuando se combinen con las relaciones de observación de distancias.
r cc
N dEj'
Eij'' dN j' ... r 637,618dE j' 637,618dN j' ... r
200
cc 2 i' j'
3,53
[146]
r cc
N dE
j'
Eij'' dN j' ... r 1 382,788dE j' 382,788dN j' ... r 1
2 ,94 400
cc 2 i' j'
[147]
Volviendo a dividir los coeficientes de las dos ecuaciones se obtiene, como ya se ha dicho, la
relación inicial.
La conclusión que se extrae, es que las ecuaciones de dirección pueden presentar diferentes
incertidumbres, aun habiendo sido realizadas con el mismo instrumental y metodología. Esto
obliga, por lo tanto, a establecer el criterio que las observaciones de dirección se deben
ponderar, aun partiendo de condiciones iniciales idénticas.
Para poder determinar si las escalas medias, la del marco de referencia y la obtenida
mediante las medidas de longitud realizadas, son coincidentes se debe introducir un nuevo
parámetro en el ajuste que proporcione dicha relación. A esta nueva incógnita se la conoce
como “factor de escala” y se la suele denotar con la letra griega “µ”.
Este nuevo parámetro que puede aparecer en un ajuste es de una relevancia importante.
Consecuentemente, antes de abordar el procedimiento óptimo en el diseño conviene poner de
manifiesto la influencia de dicho parámetro en un ajuste, así como la inclusión o no del
mismo en los ajustes de redes topográficas mediante mínimos cuadrados.
Para incluir el factor de escala en una red se deben dar, como es lógico, dos condicionantes;
primero que el marco de referencia esté perfectamente definido, en el caso de una red
bidimensional (o también marco de referencia de 2,5 dimensiones); segundo, que esté
constituido, al menos, por dos puntos fijos y que exista transmisión de escala42 a través de los
ángulos, y que en la misma, se vayan a realizar medidas de longitudes.
Dij 1 Dij
o o o
n Dij Dij Dij n
[149]
Esta ecuación, literalmente, viene a poner de manifiesto que la distancia ajustada es igual a la
distancia observada más dicha magnitud escalada a la distancia deducida del marco de
referencia. Es evidente que con una sola observación de distancia y un marco de referencia
definido por dos vértices, el factor de escala pondrá en evidencia la congruencia entre la
precisión de los puntos fijos, en distancia, y la incertidumbre de la única distancia medida.
En el caso red una red con más de dos puntos fijos, y con más de una distancia observada,
implicará que existen varias escalas en el marco de referencia, tantas como la combinaciones
que existan de vértices fijos tomados de dos en dos, y tantas como medidas de longitudes
observadas. El factor de escala obtenido en el ajuste dejará patente la congruencia entre la
precisión media de los puntos fijos, en cuanto a distancias y la media de las incertidumbres
de las distancias medidas. En este caso, existe otro valor que nos facilitará el agrupamiento,
o dispersión, de los diferentes valores que se puede obtener del factor de escala, dado que el
obtenido del ajuste será el valor medio de los diferentes que se puedan obtener. Dicho valor
será la desviación típica a posteriori o incertidumbre en dicha determinación. El valor de
dicho parámetro nos pondrá de manifiesto la fiabilidad del primero, el factor de escala y
como consecuencia, la homogeneidad de los diferentes valores hallados.
42
La transmisión de escala se produce, normalmente, en aquellas redes donde el marco está perfectamente
definido y es posible calcular las posiciones, planimétricas, de los vértices de densificación sin necesidad de
medir distancias.
Estos casos se pueden eludir realizando un ajuste libre en escala de la red; pero existen
muchos proyectos de densificación de redes topográficas en los cuales el marco está definido
y ha de mantenerse fijo, así como su escala y orientación, siempre y cuando no condicionen
las incertidumbres finales del resultado del trabajo. En estas situaciones se deberá calcular y
analizar dicho parámetro, así como su incertidumbre y determinar si es asumible o no. En los
casos donde se pueda asumir el factor de escala sin poner en riesgo la incertidumbre final de
los parámetros, se deberá realizar el ajuste sin factor de escala como parámetro, dado que en
él se pueden ocultar equivocaciones en las observaciones de distancias realizadas.
4.2.3.9.Propagación de varianzas
Una vez analizado en los apartados anteriores el comportamiento de las desviaciones típicas
a priori en un ajuste mediante MM.CC., es necesario estudiar cómo se trasmiten las
incertidumbres a los parámetros; esto se llevará a efecto mediante el criterio de propagación
de varianzas.
Este apartado es de gran relevancia para realizar el diseño de una red topográfica en función
de unas incertidumbres deseadas, a posteriori, en función de la geometría de la misma, como
se analizará más adelante.
x 20Qx
[150]
Q
2
0
[151]
L QL
2
0
[152]
2
X QX
0
[153]
2
0Q
[154]
2
L QL 0
[155]
1
QX N1 AT PA
[156]
1
Q Q AN1AT Q A AT PA AT
[157]
1
1
QL AN A A A PA T T
A T
[158]
1
X 20 AT PA 02QX X 0 q xii
[159]
Una vez terminado el ajuste de una red topográfica la desviación típica a posteriori tiene que
resultar un valor próximo a la unidad, tal y como se ha planteado la metodología de
ponderación. En el caso de que esto no sucediera, podrá ser fruto de dos causas:
Existencia de errores groseros, estos deberán ser eliminados con los test43
correspondientes. En el caso de una red con gran cantidad de errores groseros puede ser
causa de la mala ejecución de las observaciones, echo poco habitual, dado que estas, hoy día,
no dependen casi de la pericia del operador.
La trasmisión de las varianzas de los residuos viene formulada por la siguiente expresión:
43
Para la determinación de los errores groseros en una observación se pueden aplicar diferentes test, entre los que
cabe destacar el de Baarda, o también teoría de “data snooping” en un ajuste realizado mediante mínimos
cuadrados a través de un test estadístico denominado w-test, como se vio en el apartado 3.5 de la presente tesis.
Q Q A A T PA
1
A T 20 Q 20 Q A A T PA
1
AT
0 q ii
[160]
Otra expresión de gran interés es a través de la que se obtienen las varianzas de las
observaciones, la que vincula las incertidumbres a priori de las observaciones con la de las
observaciones ajustadas:
QL QL Q Q Q Q Q A A T PA
1
A T A A T PA
1
AT
L 20 A A T PA AT L L
1
ii
[161]
4.2.3.9.1.Elipses de error
Las figuras de incertidumbre a posteriori vienen definidas por conjunto de elipses absolutas y
relativas en vértices y ejes, no tienen en cuenta más que una parte de la banda central de la
matriz simétrica Q X formada por la diagonal principal y las covarianzas situadas sobre la
varianza de las distintas coordenadas norte.
Es evidente que para poder determinar las desviaciones típicas en un punto tienen relevancia
las varianzas en sus dos componentes E (Este) y N (Norte). Pero la componente cuadrática
de ambas nos dará una incertidumbre (desviación típica) poco rigurosa, puesto que no tiene
en cuenta la correlación entre ambos parámetros. Para evitar esta interpretación, se recurre a
las “elipses de error”, donde además de la correlación entre ambos parámetros es necesario
determinar la dirección, acimut, del semieje mayor de dichas cónicas. Para poder determinar
dichos valores habrá que estudiar la distribución normal bidimensional (bivariada). Esta se
puede plantear analizando la función de densidad conjunta, de la siguiente manera:
E E 2
f E
2 1 2
N N E , E e 2E
E 2
N N 2
f N
2 1 2
E N N , N e 2 N
N 2
[162]
1
f E, N e p
1
2E N 1 2 2
[163]
1 E E 2 2 E E N N N N 2
p
2 1 2 E 2
E N N
2
[164]
44
es el coeficiente de correlación entre los dos parámetros. Si dicho coeficiente es cero, las dos incógnitas son
independientes y la función de densidad conjunta será el producto de las dos funciones.
f E, N
N N 2
1
f N
2
2 N
e
E E 2 N 2
1
f E
2
2E
e
E 2
N
N
E E , N
E
La ecuación general de la elipse, obtenida con la intersección del plano k, tiene la siguiente
expresión:
1 E 2 2 E N N 2
E
E N
N
k
1
e
2 1 2
2E
E N 2
N
1
2E N 1 2 2
[165]
E E 2 E E N N N N 1 2 c2
1 2 2
ln 42 k 2 E N 1 2 c2
2 2
2
E N
2
E N
[166]
Esto representa una familia de elipses sobre el plano (E, N), donde sus dimensiones
dependerán del valor de k (cobertura o fiabilidad) en cada uno de los vértices de la red.
Una vez seleccionado el factor de cobertura se tendrá una “elipse de error” donde el centro
serán las coordenadas ajustadas de cada uno de los vértices desconocidos de la red y lo que
se deberá determinar serán: el semieje menor y mayor, así como un acimut de uno de los dos,
generalmente del mayor.
Para determinar los valores de los semiejes, mayor y menor, así como del acimut del último,
basta con realizar un giro respecto de los puntos ajustados, donde se conocen las
desviaciones típicas a posteriori respecto de los dos ejes del marco de referencia y se
pretenden determinar los valores respecto de los ejes definidos por los semiejes mayor y
menor de la elipse de error.
1 2
ˆ ˆ 2N 4 ˆ 2EN semieje mayor
2
a2 ˆ E ˆ 2N 2
E
2
1 2 2
ˆ E ˆ 2N ˆ 2E ˆ 2N 4 ˆ EN
2
b2 semieje menor
2
1 2 ˆ
arctan 2 EN2 acimut del semieje mayor
2 ˆ E ˆ N
[167]
Es evidente que estas expresiones nos facilitarán las “elipses de error” para c=1 los que
representa un factor de cobertura de un 68,27% de fiabilidad. Para otras, se deberán aplicar
diferentes valores de cobertura en función de la fiabilidad deseada, según la curva de
distribución normal:
1-α Fiabilidad % Factor de cobertura
0,6827 68.27 1
0,80 80 1,28155
0,90 90 1,64485
0,95 95 1,95996
0,98 98 2,32635
0,99 99 2,57583
0,995 99.5 2,80703
0,998 99.8 3,09023
0,999 99.9 3,29052
0,9999 99.99 3,8906
0,99999 99.999 4,4172
En casi todas las definiciones de optimización de redes topográficas, por no asumir que lo es
en todas, se plantea como una función en la que la configuración geométrica depende de la
precisión, de la fiabilidad y del coste, en la que la evaluación de esta última variable resulta
realmente complicada. Una de las definiciones dadas en el libro de (Shanlong,
1996),“Geodetic Network Analysis and Optimal Design: Concepts and Applications” (1996)
apoyándose en definiciones anteriormente facilitadas por Grafarend (1974), Cross (1985),
Schmitt (1985) y Schaffrin (1985) plantea el diseño como la técnica que encuentre la
configuración geométrica de una red geodésica así como el conjunto óptimo de
observaciones y su naturaleza, de manera tal que satisfaga la calidad de una precisión y
fiabilidad preestablecidas a un coste mínimo.
Conceptualmente, el objetivo del diseño óptimo de la red es, en general, una configuración
geométrica y un plan de observación óptimo que satisfaga a la calidad de la red pre-
establecida con el mínimo esfuerzo. En otras palabras, después de establecer los
requerimientos de la red, es decir, la calidad del producto final (por ejemplo, la precisión y
fiabilidad), la técnica de optimización permite la definición del tipo de configuración de red
óptima y un conjunto óptimo de observaciones que satisfaga estos requerimientos con el
mínimo coste (Grafarend & Sansó, 1985), (Shanlong, 1996). En la práctica, la técnica de
optimización sirve para ayudar a tomar decisiones sobre qué tipo de instrumentos deberían
ser seleccionados, buscar la ubicación de los vértices más adecuada y la naturaleza de las
observaciones a realizar, con el fin de cumplir los requerimientos establecidos a priori.
El trabajo de diseño de una red asegura la observación de campo más económica, y ayudará
en la identificación y eliminación de errores manifiestos en las observaciones, así como para
reducir al mínimo los efectos de los errores indetectables existentes en las observaciones.
En general, la tarea principal del diseño óptimo de una red geodésica se compone de:
Debido a la complejidad del problema, en el pasado era muy difícil, si no imposible, resolver
todos los aspectos de optimización de la red en un procedimiento matemático simple. En
cambio, el problema de diseño de la red se divide en subproblemas en los que podría haber
algunos avances. La clasificación fue propuesta por F.R. Helmert45 en 1868 (Erik W.
Grafarend, 1974) quien propuso un esquema de catalogación para efectuar un
“levantamiento racional” (Vacaflor, et al., 2007).
F.R. Helmert buscó encontrar reglas para la óptima localización de los puntos de una red,
como una función del tipo de mediciones y el número de observaciones.
45
Friedrich Robert Helmert (31 de julio de 1843-15 de junio de 1917). Eminente geodesta y matemático alemán.
Está considerado el fundador de las teorías matemáticas y físicas de la geodesia moderna. Un método de ajuste de
coordenadas usado frecuentemente en topografía lleva su nombre (transformación de Helmert). La divergencia
angular entre el campo gravitatorio y la dirección normal a la superficie del geoide también lleva su nombre
(error de Helmert), así como el denominado “elipsoide de Helmert”, modelización del geoide que estableció con
una precisión que no pudo ser superada hasta 50 años después.
Fue el primero en desarrollar los fundamentos de los métodos de determinación del geoide, que sólo pudieron
materializarse unas décadas después, cuando se dispuso del instrumental adecuado para realizar mediciones de
campo precisas. Helmert dio la definición ya clásica de la geodesia como la ciencia de la medición y la
representación de la superficie terrestre.
Como director del Instituto Geodésico de Potsdam (1886-1917), Helmert hizo de esta institución el centro
mundial de referencia de la geodesia científica, que definió como la “disciplina dedicada al estudio de la forma de
la Tierra y de su campo gravitatorio”. Entre 1909 y 1971, el valor internacional de referencia para la constante
gravitatoria de la Tierra se establecía en Potsdam.
Sus postulados de máxima precisión en las coordenadas de los puntos de la red a partir de la
compensación y del mínimo costo y tiempo para realizar las observaciones son actualmente
aceptados mundialmente.
El esquema propuesto por F.R. Helmert para el problema de diseño óptimo comprende:
Diseño óptimo de orden cero (ZOD): El problema geodésico del Datum o diseño del sistema
de referencia.
En ninguno de los casos analizados se plantea como variable el modelo digital del terreno.
Esto puede ser así debido a la relativa novedad de este producto cartográfico. Pero por el
contrario, es de gran relevancia a la hora de poder determinar la viabilidad de la realización
de las observaciones de naturaleza angular y distanciométrica. Ya se ha comentado, es uno
de los aspectos que se incluye como novedoso en la presente tesis.
Existen dos métodos que pueden usarse para resolver los problemas de diseño denominados,
método de “prueba y error” y método “analítico”. El primero de ellos se lleva a cabo por la
simulación en ordenador y conduce a un diseño satisfactorio, mientras el método analítico
produce la red de diseño óptimo. El método de “prueba y error” según define (Shanlong,
1996) se desarrolla en los siguientes pasos:
La principal ventaja de este método consiste en que cualquier criterio arbitrario de precisión
y fiabilidad puede usarse para lograr un diseño satisfactorio (Márquez, 2009).
Denotando la configuración o matriz de diseño como “A” y la matiz de peso “P”, como la
inversa de la matriz cofactor Q L de las observaciones, entonces la matriz cofactor “ Q X ” de
los parámetros desconocidos “X”, que son principalmente coordenadas, se puede derivar
como una inversa de generalizada las ecuaciones normales:
Si la red es libre en alguno de sus aspectos, escala, origen u orientación habrá que realizar la
inversión mediante la matriz de Moore-Penrose (pseudoinversa)47.
Por lo tanto la clasificación enunciada por Erik W. Grafarend y continuada por G. Schmitt y
K. R. Koch, como ya se ha dicho, quedó establecida en cuatros niveles.
46
“Datum”: El diccionario de la Real Academia Española (DRAE), si bien, no recoge la palabra “datum”, pero es
notorio que, relativo a un sistema geodésico, forma parte de lo que sería el “núcleo de partida”, es decir, la base.
Se puede definir como la: Parámetro o conjunto de parámetros que sirven como referencia o base para el cálculo
de otros parámetros (ISO19111, Consejo Superior Geográfico). (Velasco, 2010).
47
“Pseudoinversa” de Moore-Penrose, que fue descrita independientemente por E. H. Moore en 1920, Arne
Bjerhammar en 1951 y Roger Penrose en 1955. Anteriormente, Fredholm introdujo el concepto de la
“pseudoinversa” del operador integral en 1903. El término de la “pseudoinversa” de una matriz, generalmente, se
usa para referirse a la “pseudoinversa” de Moore–Penrose.
La elección de un sistema de referencia para las coordenadas es sólo parte del diseño de
orden cero. Además, es necesario considerar el datum para la expresión de las varianzas y
covarianzas de las coordenadas. Este “datum” fue descrito por Baarda (1973) como la base
de referencia de varianza nula. Por ejemplo, en el caso de una red de control plana con
medida exclusivamente de ángulos, la matriz de diseño A tiene deficiencia de rango en las
columnas. Esta deficiencia puede subsanarse fijando dos puntos mediante la adición de las
correspondientes ecuaciones de constreñimiento a la matriz de diseño. En este caso, estos
dos puntos formarían la referencia de varianza nula, o bien, si la red se observa mediante
medidas de dirección y de distancia, con un solo punto fijo, una dirección determinada fija
para determinar la orientación y la escala la proporcionarían las medidas distanciométricas
realizadas. En definitiva, los parámetros fijos son las matrices “A” y “P” y como parámetros
libres, las posiciones de los puntos ajustados “X” y las varianzas de los anteriores, “
2
1 QX ; 0 1 ” (se verá en el capítulo siguiente).
entendiendo por condicionado no solo puramente geométrico, sino cualquier otro, externo o
interno a la red y su evolución temporal, que sea preceptivo aceptar”.
Cabe la posibilidad de que algunos elementos deban ser medidos con mayor precisión que
otros o que algunas estaciones requieran un mayor número de series angulares que otras. Es
necesario tener clara la estrecha relación entre los diseños de primer y segundo orden. La
inclusión de otro elemento a medir (diseño de primer orden) puede tener como consecuencia
la disminución en la precisión de la medida de otros elementos y, por tanto, las
modificaciones en el diseño de primer orden implicarán volver a considerar el diseño de
segundo orden.
1. Proyectos donde una red definida para un alcance determinado con una finalidad
concreta. Se selecciona metodología, instrumental, precisiones,…Posteriormente, se
amplía el ámbito del proyecto y se pretende utilizar la misma red ampliada. Los
condicionantes iniciales ya no son los mismos, la red inicial puede no cumplir con
las exigencias del nuevo proyecto que pretende enlazar con la antigua red. En
definitiva, la extrapolación de un marco de referencia.
Como ejemplo de esta situación cabría destacar multitud de proyectos de una gran
urbanización: se selecciona un material determinado, con un marco de referencia
distribuido acorde a las dimensiones del proyecto, se confecciona una red de bases,
la cartografía, los proyectos de urbanización y redes (saneamiento, alumbrado,
abastecimiento de agua,…). Posteriormente, se produce una ampliación de la
urbanización con una fase II, III, …N, pretendiendo que se mantenga el mismo
marco de referencia original.
2. Otras situaciones semejantes a la anterior pero sin presentar una extrapolación del
marco de referencia. Podría ser el caso de una red definida, observada y ajustada con
los métodos técnicos de un momento determinado. Posteriormente con otro tipo de
instrumental y apoyándose en la antigua red, se pretende que el antiguo marco sirva
para el nuevo proyecto donde los condicionantes son mucho más precisos para los
que fue diseñada la red inicial.
Un ejemplo de esta última situación planteada podría ser lo que ocurre en ciertos
proyectos de ingeniería civil y el antiguo marco de referencia oficial planimétrico.
En la actualidad se siguen ejecutando proyectos redactados sobre cartografía en
ED50, y por lo tanto el marco de referencia para la ejecución sigue siendo el mismo
en el cual se diseñó la actuación. Esta situación plantea un problema semejante al
definido en el caso anterior, en esta situación el marco no se pretende extrapolar,
pero tienen menos precisión que la densificación que se pretende realizar.
Hay que tener en cuenta que la finalidad para que se originó el marco de referencia
fue el soporte métrico para gestar la cartografía del MTN, a escala 1/50.000, al
margen que la metodología de observación fue realizada tan solo con mediciones
angulares y el ajuste fue efectuado mediante mínimos cuadrados, pero no en un
ámbito nacional, sino provincial, como ya se vio en el apartado 3.3.
La discrepancia de escala entre las dos redes puede ser tratada incluyendo un sesgo en la
escala seguido de un test de su valor estimado. La desventaja de esto es que todas las
distancias medidas en la obra de ingeniería en cuestión deberán ser escaladas y, si la escala
es muy grande, las dimensiones del diseño pueden verse excesivamente distorsionadas.
Se plantearán como variables, en el análisis del diseño óptimo de la red, las posiciones de los
vértices, las incertidumbres del instrumental y la presencia del modelo digital del terreno, si
lo hubiera, así como la aparición o eliminación de nuevas visuales y la variación de su
naturaleza. También se tendrá presente, como parámetro variable, el factor de cobertura (%
de fiabilidad) y en función de dos tipos de distribuciones, la normal y la t de Student.
Se van a plantear en cada nueva posición de los vértices a ubicar, como variables
los siguientes elementos:
Al seleccionar un factor de cobertura distinto del que aparece por defecto, o bien, la
ecuación de la distribución (Normal o t de Student) se tendrán que volver a
recalcular y también redibujar los siguientes elementos:
◦ Las desviaciones típicas a posteriori. Dado que los valores de las varianzas
tomaran diferentes valores al cambiar el factor de cobertura o el tipo de
distribución, será necesario volver a recalcularas y redibujar las elipses de
error asociadas.
Para poder determinar los elementos que permitan, siempre y cuando no exista un elevado
número de equivocaciones, obtener las precisiones requeridas en los puntos a determinar sus
posiciones, es necesario analizar los parámetros de los que dependen estos requerimientos.
Según se ha visto en el apartado 4.2.3.9, ecuación [159], la siguiente expresión regula la
transmisión de varianzas de los parámetros del ajuste.
[168]
Se puede apreciar que las desviaciones típicas a posteriori de los parámetros de los ajustes
dependen de la desviación típica del ajuste 0 y de la matriz Q X .
Análisis de 0 :
Desde el punto de vista del diseño, donde aún no se han realizado observaciones,
como se verá a continuación, la desviación típica a posteriori del ajuste tomará
valores muy próximos a la unidad. En el caso de no ser así, será debido a que dicho
estimador es superior o inferior a la unidad.
Análisis de Q X :
los parámetros depende de la matriz de diseño “A” y de la de pesos “P”. Una vez
seleccionado el instrumental y la metodología de trabajo, las desviaciones típicas a
posteriori dependen exclusivamente de la matriz de diseño y por lo tanto de las
posiciones relativas entre los puntos a ajustar entre ellos y respecto a los del marco
de referencia. Dado que los términos de la matriz de diseño está formada por las
ecuaciones de observación de dirección y de distancia:
r cc
N E Nij'' Ei ' Eij'' Ni ' Eij'' N j' ij'' i ' i ' Hzij rcc
cc
j'
D
j' 2
i' j'
i'
[169]
Dij'' D1j' Eij'' E j' Eij'' Ei ' Nij''N j' Nij''Ni ' Dij νr
o
i'
[170]
(Márquez, 2009)
(Kavouras, 1982)
No importa qué tan sensible sea una técnica, ésta no puede detectar graves errores
de magnitud arbitrariamente pequeña. Por lo tanto, incluso “espiando datos (data
snooping)" se tiene una capacidad finita para detectar la manifestación de
pequeños errores, y aún después de la detección y su eliminación, todavía pueden
quedar equivocaciones en las observaciones. Esta sensibilidad y su influencia en
los parámetros estimados es el concepto de la fiabilidad de una estimación.
Como se acaba de mencionar, la fiabilidad interna se evalúa por los valores más
bajos 0li , de los errores groseros li , que solo pueden ser detectados por la
prueba (Data- Snooping), con una probabilidad dada 0 , si la prueba tiene un
nivel de confianza 1 0 . El límite inferior 0li se relaciona con el límite inferior
del 0 parámetro de no centralidad, (ecuación [171]), que depende sólo de la
elegida 0 y 0 . Las expresiones para la evaluación de estos límites inferiores ya
han sido obtenidas y están dadas por las ecuaciones [172] y [173]. Con una matriz
diagonal de peso P, la ecuación [173] se simplifica a:
1 1
T P lPQ Pl
2
0 02
[171]
0
0 l 0 T
c PQ c
[172]
0
0 li 0
PQ P ii
[173]
(Shanlong, 1996)
Del mismo modo habrá que relacionar los posibles errores no eliminados
remanentes en la red con su influencia en las variables o parámetros ajustados.
A fin de aumentar la capacidad de detectar los errores del modelo y los valores
atípicos en una red geodésica, ésta tiene que ser optimizada. Baarda (1968)
distingue "fiabilidad interna" y “fiabilidad externa". Aunque la fiabilidad interna de
una red de control mide el error marginal indetectable en las mediciones, la
fiabilidad externa mide el efecto de un craso error indetectable en las coordenadas
de la red y de las cantidades calculadas a partir de ellos. Hay una fuerte
correlación entre fiabilidad interna y externa: alta fiabilidad interna conduce a una
alta fiabilidad externa.
La ecuación i qii wii li ri li 48 muestra la relación entre errores y sus
efectos sobre residuos i ri li . De esta relación denota que el efecto del error,
li , en el residuo, vi, es directamente proporcional al número de redundancia, ri.
Por lo tanto:
Se supone, por ejemplo, que un valor de 4,0 se utiliza para aislar errores
observacionales. Entonces, si la varianza de referencia del ajuste es de 6, todas las
observaciones que tienen residuos estandarizados superior a 24,0 (4,0x6) son
posibles equivocaciones. Sin embargo, a partir de la ecuación i ri li , puede
verse que para una observación con un número de redundancia de 0,2 (ri=0,2) y un
residuo normalizado de i 24,0 , el mínimo error detectable es 24,0/0,2=120.
Por lo tanto, un error, li , en esta observación tan grande como cinco veces el nivel
deseado puede pasar desapercibida debido a su bajo número redundancia. Esta
situación se puede extender a las observaciones que no tienen comprobación dado
que su número de redundancia es nula (ri es 0). En este caso, la ecuación
i ri li muestra que es imposible para detectar cualquier error, li , en la
observación dado que i / li está indeterminado.
◦ Fiabilidad interna
48
Donde q ii es la diagonal de la matriz Q , wii el iesimo término de la diagonal de la matriz de pesos, y ri qii w ii es el
número de redundancia de dicha observación.
máximo de 1. Además, para diseñar una red con gran fiabilidad interna, los
números de redundancia de cada observación, ri, deben estar cerca de la
redundancia relativa (óptima) r/n, donde r es el número de observaciones
redundantes y n es el número de observaciones en la red. Las zonas débiles
de la red se detectarán donde los números de redundancia sean pequeños en
comparación con la redundancia relativa.
◦ Fiabilidad externa
[174]
Esta ecuación es independiente del datum. De la misma también se deduce
que para minimizar X i , el valor de los números de redundancia debe
maximizarse. Baarda sugirió el uso valores promedio de las coordenadas en
la determinación del efecto de un error no detectado sobre ellas mismas, con
la siguiente ecuación:
X T QXX X
[175]
Donde representa el parámetro de no centralidad.
En definitiva, la fiabilidad de una red es la capacidad para poner de manifiesto los errores
groseros susceptibles de producirse en las observaciones de la misma; luego, en el problema
49
Matriz de peso en español denominada como P.
del diseño es de sumo interés comprobar los parámetros de los que depende este indicador, y
así, a la hora de construir su geometría, que ésta sea la más adecuada para poder detectar las
posibles equivocaciones.
Como se ha visto en las definiciones anteriores, existen dos tipos de fiabilidades, interna y
externa, pero asegurando la primera de ellas se cumplirá la externa. Por lo tanto, el problema
fundamental, en cuanto al estudio de fiabilidad de una red, se puede plantear el buscar la
geometría donde se garantice una fiabilidad interna, los números de redundancia óptimos del
mayor número de observaciones y la homogeneidad de las que no la alcancen; como
consecuencia, se garantizará la externa.
AX L A N1 t L
[176]
A A PA A PL L
T 1 T
N 1 t
[177]
A AT PA A P I L
1 T
[178]
R In A AT PA AT P
1
[179]
Puede escribirse:
RL
[180]
Las matrices son operadores lineales y, por tanto, la expresión de la ecuación [180] puede
aplicarse igualmente a las variaciones de los residuos y de las observaciones:
V V R(L L)
V RL
[181]
n
Li Li rijL j i 1,..., n
j1
[182]
50
Shalong Kuang en su libro titulado “Geodetic Network Analysis and Optimal Design: Concepts and
Applications” establece como L L A AT PA AT P I L RL
1
2 2
51
La expresión está trascrita del libro de Shalong Kuang. La expresión correcta sería 0Q 0 RQ
2 2
0 Q 0 RP
[183]
Expresión importante que relaciona las variaciones de los residuos con las variaciones de las
observaciones. Ahora bien, las variaciones de las observaciones con respecto de sus valores
verdaderos son errores, ya se trate de desviaciones accidentales, de efectos sistemáticos o de
equivocaciones. Definiendo la matirz R como:
Desde el punto de vista de un diseño óptimo de una red, es de sumo interés, que se puedan
detectar fácilmente los errores groeros que se puedan producir. Como se vio en el capítulo
anterior, esta cualidad depende de los números de redundancia de las observaciones, por lo
que habrá que analizar dichos valores y determinar de qué valores depende, así como, los
valores óptimos de estos nuevos parámetros.
Por lo cual, una vez anlizada la dependencia total de los números de redundancia de la
geometría de la red y la incertidumbre de las observaciones, es necesario analizar los valores
más adecuados para poder detectar los posibles errores groseros que pudieran producirse.
Tr R Tr In A AT PA AT P Tr In Tr A AT PA AT P
1
1
[185]
Ahora bien:
Tr In n
[186]
A AT PA AT P A A PA AT PA AT PA AT P A A T PA A T P
1 2 1 1 1
T
[187]
La traza de una matriz idempotente coincide con su rango (Rodriguez, 2005). Por otra parte,
el rango de un producto de matrices es el mínimo rango de los factores (Mikhail &
Ackermann, 1982), y se tiene:
Tr A AT PA AT P m . Consecuentemente, la traza de la matriz R coincide con la
1
Tr R Tr In Tr A AT PA AT P n m
1
[188]
52
Suma de los elementos de su diagonal principal
0 rii 1
[189]
Dado que la suma de todos los elementos, rii, de la diagonal principal de la matriz R es igual
a la redundancia total, cada uno de ellos constituye la contribución de cada observación a
dicha redundancia total. Por ello, dichos elementos se denominan redundancias parciales o
números de redundancia.
De acuerdo con la ecuación [181], la variación que produce en el residuo de una observación
un error existente en la misma viene dada por la magnitud del error multiplicada por el
número de redundancia correspondiente a esa observación:
Donde εii representa un error de cualquier índole introducido en la ecuación i. Ahora bien,
considerando la ecuación [189], la variación en el residuo es, como máximo, de la misma
magnitud que el error, pudiendo ser inferior. Es necesario subrayar este hecho, cuya
consecuencia inmediata es que una parte de los errores de observación pueden pasar
desapercibidos.
Para determinar la redunadancia óptima de una observación, se tendrá, por tanto que, la
redundancia máxima del sistema será n-m, que como se ha visto es la suma de las
redundancias de las observaciones, por lo que el sumatorio de las redundancias de las
observaciones será la redundancia del sistema, por lo que:
in
r n m
i 1
i
[191]
Dado que interesa que las redundancias de las observaciones sean lo mayor posible, esto
sucederá cuando todas ellas tengan el valor medio, el mayor para cada una de las visuales
realizadas, por lo tanto:
i n
m
r n m n r n m r
i 1
i i i óptimo 1
n
[192]
la relaciona con los números de redundancia: cuanto mayores sean éstos, mayor será la
fiabilidad interna de las correspondientes observaciones, y viceversa. A este respecto, se
considera (Márquez, 2009) que una observación está:
Los números de redundancia permiten calcular el mínimo error que puede detectarse, a partir
del mínimo residuo que se considera sospechoso. En la teoría del ajuste por mínimos
cuadrados, se admite como hipótesis que los residuos debidos a desviaciones accidentales se
distribuyen normalmente, considerándose sospechosos aquellos cuya probabilidad de
aparición bajo dicha hipótesis es inferior a un umbral, correspondiente a un valor crítico del
residuo. Para un nivel de significación de 0,01 se consideraría sospechoso un residuo si:
(según Baarda “Data Snooping” 3,29).
i 3o
[193]
3o
i
rii
[194]
La influencia de estos errores no detectados sobre las estimaciones de las incógnitas es la que
se habrá de considerar en relación con la fiabilidad externa del ajuste mediante los números
de redundancia.
Los diferentes estudios realizados por varios autores anteriormente mencionados Shalong
Kuang, Wolf y Ghilani, Kavouras, Baarda,…exponen los diferentes conceptos que deberán
intervenir para determinar si la geometría de una red tiene un diseño óptimo en función de
una serie de parámetros. Es evidente que, para completar el proceso de optimización en el
diseño de una red, se deberá plantear una metodología a seguir, a continuación se presentan
dos planteamientos realizados por:
53
Según el estudio de Charles D. Ghilani y Paul R. Wolf en su libro Adjustment Computations Spatial Data Analysis.
plantea la necesidad de variar alguno o todos los siguientes supuestos: (1) Número
de observaciones, (2) Otros procedimientos de observación, (3) Equipos diferentes,
(4) Más estaciones, (5) Diferente geometría de la red, y así sucesivamente.
Cabe señalar que lo que se espera del diseño puede tender a sobredimensionar el
trabajo de campo y elevar los costes de la campaña de observación. Por lo tanto, se
debe encontrar un equilibrio entre el diseño óptimo y los costes.
Paso 1: Usar un mapa topográfico o fotos aéreas, para diseñar las posibles
posiciones para las estaciones.
Paso 2: Utilizar el mapa topográfico junto con fotografías aéreas para comprobar la
visibilidad y las obstrucciones de las visuales previstas.
Paso 3: Reconocimiento de campo, revisando las líneas de visión para evitar las
obstrucciones que se muestra en el mapa o fotos, y ajustar las posiciones de las
estaciones, según sea necesario incluso realizando trazado de perfiles
longitudinales sobre la cartografía de las posibles visuales.
Paso 5: Calcular los valores de observaciones usando las coordenadas desde el paso
4.
Paso 8: Inspeccionar la solución para las áreas débiles en base a los números de
redundancia y formas de las elipses. Añadir o eliminar observaciones como sea
necesario, o reevaluar procedimientos y equipos de medición.
(Shanlong, 1996)
Otro método planteado por Shalong Kuang (Shanlong, 1996) es el denominado “método
analítico” del cual se establecerán sus principios y técnicas en el capítulo 8.
En los métodos anteriormente descritos se realiza una “prueba” partiendo de una geometría
de los puntos a analizar y con un instrumental determinado. Se calculan las elipses de error,
con una fiabilidad según una distribución normal o según la t de Student. Asimismo se
determinan los números de redundancia de las observaciones supuestas y se analizan los
resultados. Si estos no son satisfactorios, “error”, se vuelve a introducir una nueva geometría
para volver a realizar el cálculo de los parámetros que se quieren determinar, números de
redundancia y elipses de error. Éste proceso se repetirá tantas veces como el ingeniero estime
oportuno, dado que cada nueva geometría genera unos números de redundancia diferentes y
lo mismo sucede con las elipses de error.
En función del instrumental seleccionado las precisiones obtenidas serán también diferentes,
así como los números de redundancia de las supuestas observaciones. Es evidente que cada
instrumental requiere un nuevo cálculo y, todo esto sin tener presente la garantía de poder
realizar todas las visuales, debido a los inconvenientes que pueda ocasionar la orografía.
También se ha de tener en cuenta que si se varía la fiabilidad de los resultados obtenidos, los
resultados serán distintos, así como el número y la naturaleza de las visuales, lo que origina
una gran cantidad de cálculos y un proceso bastante dilatado en el tiempo.
Además, dado que también se contempla la inclusión del modelo digital del terreno, será
necesario analizar los modelos digitales del terreno y de superficie, así como su generación,
su almacenamiento, su estructura, su difusión,…también se han realizado los estudios
preceptivos de los otros parámetros de los que depende un diseño óptimo en la geometría de
una red topográfica.
Como se ha comentado en el apartado anterior, uno de los parámetros del diseño de una red
topográfica observada mediante técnicas topográficas convencionales es la orografía, tal y
como expusieron (Ghilani & Wolf, 2006), mediante la obtención de perfiles transversales del
terreno por donde discurren las futuras visuales. En la presente tesis se ha introducido dicho
elemento pero en formato digital, por lo tanto es básico realizar un estudio detallado de este
nuevo factor a tener presente en el diseño de una red topográfica.
Un Modelo Digital de Terreno (MDT) es una estructura numérica de datos que representa la
distribución espacial de una variable cuantitativa y continua, matemáticamente obedece a la
expresión H f E, N . Realmente, en la práctica, la distribución espacial de las altitudes
no es continua, puesto que el MDT está determinado por un número finito de puntos, el
método para obtener continuidad de función discreta se lleva a efecto mediante métodos de
interpolación.
Los MDT nacieron en la década de los años 50 como solución a la creciente necesidad del
tratamiento digital de problemas tecnológicos con el conocimiento de la estructura del
terreno. A partir de la evolución de los sistemas informáticos, se han desarrollado diferentes
estructuras, cada vez más complejas, para representar más fielmente el terreno.
Métodos indirectos: El más extendido hasta hace poco tiempo. La captura de datos
mediante restitución fotogramétrica, también se pueden generar modelos digitales
altimétricos mediante la digitalización de cartografía existente; la digitalización puede ser
automática o manual. La primera de ellas conlleva trabajos de rasterización y posteriormente
convertir las celdas con idénticas características en vectores con igual altitud, proceso poco
perfeccionado, por lo que prácticamente se convierte en manual.
Los métodos directos, curiosamente, son los más extremos en cuanto a la productividad,
dado que el número de puntos capturados por las dos primeras técnicas es muy baja,
mientras que en los dos últimos es la más elevada. Cientos de puntos frente a millones, con
igual o incluso mayor precisión en los segundos.
Modelos de cuadriculas regulares (DEM): Están basados en la formación de una rejilla por
la repetición de formas geométricas regulares, rectángulos, cuadrados, triángulos o
hexágonos, de los cuales se conoce la cota de sus nodos. El más comúnmente utilizado es el
formado por cuadrados.
Figura 70: Imagen de un Modelo digital del Terreno con formato DEM
Las características de este formato están basadas en las relaciones topológicas entre
los puntos con información y la geometría de su estructura, lo que genera falta de
flexibilidad en el modelo. En topografías irregulares esta ordenación no generará
un modelo fiel del terreno. Sin embargo, el manejo informático, es muy cómodo y
rápido debido a su simple estructuración. La localización de la altitud de un punto
es prácticamente inmediata, dado que el paso de malla suele ser constante. Se
pueden realizar modelos de malla, que varíe su paso en zonas donde el relieve sea
más irregular, pero evidentemente perjudica las ventajas de este formato: los
algoritmos de búsqueda se complican, lo mismo que su almacenamiento.
Figura 71: Imagen de un Modelo digital del Terreno con formato TIN.
◦ La circunferencia descrita por sus tres puntos no debe encerrar ningún otro
punto.
Existe una gran variedad de algoritmos que permiten construir este tipo de
triangulación a partir de un conjunto de puntos. A continuación, se citan los más
utilizados:
El formato TIN es aplicable a cualquier tipo de captura, mientras que la malla regular suele
ser un producto derivado, como se verá más adelante. Por el contrario, las líneas de cambio
de pendiente se pueden obtener de una forma bastante fiable y automáticamente mediante
algoritmos de software (Arranz, 2008) en los modelos DEM, mientras que para los TIN se
deberán introducir manualmente.
Con independencia del tipo de LiDAR empleado, lineal, zig - zag, elíptico o fibra óptica, la
captura de puntos no seguirá una estructura regular, por lo tanto, una malla regular de un
modelo digital del terreno será un producto derivado de un modelo con estructura TIN.
La revista GEOInformatics publicó en 2004 un artículo a favor del formato TIN, (Thurston,
2004), para la generación de Modelos Digitales del Terreno. A continuación este artículo es
cuestionado ya que este no hace justicia a otros métodos basados en mallas regulares de
puntos. Los autores presentan su punto de vista opuesto. El artículo reproducido es una
traducción realizada por GTBIbérica del borrador del artículo escrito por los profesores
(Ackerman & Kraus, Agosto 2004).
extracción automática
5.- Gran redundancia de datos
1.- En muchas ocasiones
requiere una inspección
1.- Imposibilidad de utilizar distintos
visual y un control manual de
tamaños de celda para representar relieve.
DESVENTAJAS la red.
2.- A mayor resolución, mayor peso de
2.- Captura de datos
archivo
selectiva, por lo tanto,
semiautomática.
Tabla 11: Comparación del DEM formato TIN con el de cuadrícula (Según Ackerman y Kraus).
En el segundo artículo, (Ackerman & Kraus, Agosto 2004) ponen de manifiesto una tercera
vía, el modelo híbrido de MDT, cuyo soporte básico lo constituye un soporte de modelo de
malla sobre el cual se determinan las líneas estructurales del terreno (vaguadas,
divisorias,…) denominadas “break line” (líneas de cambio de pendiente, líneas de rotura o
ruptura).
Las líneas de ruptura deben ser modeladas adecuadamente dentro de la malla e intersectadas
con las líneas de la cuadrícula, para lo cual se utilizan operaciones similares a las del TIN.
Jeff Thurston TIN (Triangulated Irregular Network) GRID o RASTER (malla regular)
1.- Requiere menos espacio de
almacenamiento para la
representación de MDT.
2.- Es generalmente más eficiente. 1.- Método mucho más eficiente,
3.- Es adaptable a estructuras basado en una adquisición automática
VENTAJAS topográficas de variada complejidad de grandes cantidades de datos, con
ya que la distribución y densidad de distribución regular y con una gran
los puntos originales implícitamente redundancia.
reflejan las irregularidades de la
superficie del terreno superficie del
terreno
Tabla 12: Comparación del DEM formato TIN con el de cuadrícula (Según Thurston).
Las siguientes figuras muestran la misma zona del terreno representada mediante los dos
tipos de modelos digitales expuestos. En la primera imagen, se muestra el modelo TIN, que
incluye todos los puntos LiDAR registrados por lo que tendrá la misma precisión que la nube
de puntos original, respetando todos los puntos que el usuario ha seleccionado. Sin embargo,
se ha precisado de un minuto para calcular todos los triángulos mediante la relación de
puntos cercanos. Se ha incluido un millón y medio de puntos y la memoria que ocupa es de
93 Mb.
En la segunda imagen, se muestra el modelo basado en rejilla. En este caso, los puntos están
colocados según una estructura rígida de filas y columnas. Por tanto, no son los puntos
originales sino una interpolación de ellos, lo que origina una pérdida de detalles. La
resolución a la que se ha generado ha sido similar a la densidad LiDAR original, resultando
un millón de puntos que ocupan en disco 4 Mb.
Por tanto, se deberá optar por cada tipo de modelo digital en función de la utilidad que se le
dé. El modelo TIN dará la opción de trabajar directamente con los puntos originales por lo
que podría estar indicado para procesos de filtrado o clasificación de puntos. El modelo
rejilla es más sencillo y rápido de manejar por lo que resulta indicado para el cálculo de
mapas de curvas de nivel o para rectificación de ortofotografías (Arranz, 2013).
Tantos unos métodos como los otros, proceden de automatismos donde el operador no
elegirá dónde se van a registrar puntos en el espacio, siendo la cantidad de estos puntos, a
veces, excesiva. Esto provocará que todos los puntos registrados no pertenezcan a la
superficie que realmente interesa simular: el terreno.
Tanto los métodos láser como los métodos basados en multi-correlación de imágenes, no van
a discernir entre lo que es suelo y lo que son objetos sobre la tierra, por ejemplo, vegetación,
edificaciones, vehículos, líneas aéreas de conducción, etc.
Figura 77: Medición LiDAR en una zona arbolada, donde se registran puntos sobre la cobertura vegetal.
Por tanto, si se realizara un modelo digital utilizando toda la información proporcionada por
estos métodos, no se dispondría de un modelo digital del terreno propiamente dicho, puesto
que incluiría elementos que no son terreno. De hecho, cualquier operación posteriormente
que se realizara con dicho modelo digital, incluiría estos elementos “no deseados”,
Por ello, hace algunos años apareció un nuevo término para denominar a estos modelos
digitales que, además de terreno, incluían otros elementos inmóviles sobre él, como
edificios, árboles, torres eléctricas, etc. Son los denominados Modelos Digitales de
Superficie (MDS).
El método de obtención de estos MDS no es tan sencillo como se pueda pensar. Es decir, no
se realiza de manera directa con todos los puntos registrados por el láser o por fotogrametría.
Primeramente, se ha de calcular el MDT, es decir, un modelo digital sólo con la superficie
del terreno y, posteriormente, se incluyen los elementos inmóviles sobre él (edificios,
vegetación, etc.), formando prismas de caras verticales. Esto evitaría la formación de prismas
con caras no verticales sobre el terreno, allí donde no se han registrado puntos sobre el suelo
(Arranz, 2013).
Por otro lado, la extracción de los puntos suelo también se antoja como una tarea no exenta
de dificultades. A través de algoritmos que utilizan relaciones geométricas con sus vecinos e,
incluso, los valores añadidos de color RGB o infrarrojo, se buscan cuáles pueden
corresponder únicamente al suelo. Esto suele ser realizado por aplicaciones dedicadas
exclusivamente al tratamiento de nubes de puntos LiDAR o nubes de puntos procedentes de
multi-correlación fotogramétrica. Del éxito de este cálculo dependerá la calidad del resto de
documentos derivados del modelo digital generado: curvados, mapas de tintas hipsométricas,
cálculo de cubicaciones, etc.
Por tanto, a partir de este tipo de registro se pueden realizar dos modelados: MDT y MDS.
De la comparación de ambos también se podrán extraer datos interesantes como altura de
edificación, volumen de masa forestal, etc.
Aunque habitualmente el modelo más interesante es el MDT, por los cálculos que se realizan
con el relieve de una zona, en esta tesis se utilizará el MDS ya que la altura de los objetos
inmóviles que se encuentran sobre el terreno también afectará a las posibles observaciones
topográficas realizadas entre los vértices de una red.
El formato TIN es una estructura de datos cada vez más utilizada. Es la que se compone de
un conjunto de triángulos irregulares que se construyen definiendo un plano con tres puntos
cercanos no colineales que se adosan sobre el terreno formando un mosaico que puede
adaptarse a la superficie con diferente grado de detalle, en función de la complejidad del
relieve. Se trata de una estructura en la que el terreno queda representado por el conjunto de
superficies planas que se ajustan a una estructura anterior de puntos. La estructura de
triángulos están internamente organizados en función de su vecindad mediante un conjunto
de información bastante complejo que hace posible un manejo relativamente ágil y eficaz
frente a alternativas menos estructuradas.
El formato de los ficheros de modelos digitales del terreno pueden ser de dos tipos, como
casi todo tipo de archivo, binario o ASCII. Dentro de los formatos binarios su estructura
depende de la aplicación que lo ha generado y, por lo tanto, inaccesible si no se dispone de la
estructura y secuencia de cómo se almacenaron los datos.
Las estructuras TIN se suelen guardar en ficheros con formato binario, aunque también se
utiliza el ASCII como formato de intercambio. Mientras que por el contrario, el formato más
estándar para el modelo de rejilla es el ASCII, aunque también existen ficheros de estructura
de rejilla almacenada en formatos binarios.
La denominación STL, adopta la sigla del inglés ‘STereo Lithography’, muy utilizados en
ingeniería industrial y en impresiones 3D y es el formato estándar para las tecnologías de
fabricación aditiva. Utiliza una malla de triángulos cerrada para definir la forma de un
objeto. Cuanto más pequeño son estos triángulos, mayor será la resolución del fichero final;
el tamaño de los triángulos está directamente proporcionado con el peso del fichero, por lo
que es aconsejable llegar a un equilibrio entre la resolución y el peso del fichero.
Dado que la información de la que se hace uso en la aplicación desarrollada para la presente
tesis es la procedente del PNOA (Plan Nacional de Ortofotografía Aérea), cuyo sistema de
difusión de los MDT es en formato ASCII, a continuación se desarrolla el formato de los
mismos.
A los ficheros de MDT con formato ASCII, se les suele denominar, formato de archivo
ASCII matriz ESRI, y la información está guardada, como es lógico secuencialmente, y su
está estructurada de una de las dos maneras siguientes:
Las cotas de la malla están expresadas en metros, con un espacio en blanco entre valor y
valor, y describen el terreno de norte a sur y de oeste a este.
A la información anterior se la denomina cabecera, debido a que son los primeros datos
registrados en el fichero. Seguidamente están grabadas las altitudes de forma secuencial,
correspondiente a cada celda de las correspondientes a la hoja de la cartografía seleccionada
(MDT05, MDT25 o MDT200).
4.4.3.2.Organización
La dirección del proyecto es asumida por el Ministerio de Fomento, a través de la Dirección
General del Instituto Geográfico Nacional (IGN) y el Centro Nacional de Información
Geográfica (CNIG) y se coordina con los demás Ministerios interesados y con cada
Comunidad Autónoma, que a su vez coordina a las Consejerías competentes (Obras públicas,
Agricultura, Medio Ambiente,…).
◦ Fotogramas digitales de los vuelos PNOA (a partir del año 2004), con
tamaño de pixel 0.22 m o 0.45 m, de 8 bits en formato TIFF, con los
correspondientes ficheros de georreferenciación en formato TFW y en
formato ECW georreferenciado. Sistema de referencia geodésico ETRS89
en Península e Illes Balears y REGCAN95 en Canarias. Proyección UTM
en el huso correspondiente. Ficheros con cuatro bandas RGB y NIR (rojo,
verde, azul e infrarrojo cercano), o un fichero RGB y el correspondiente
NIR.
◦ Ortofotos digitales de los vuelos PNOA (a partir del año 2004), con
tamaño de píxel 0,25 m o 0,50 m, en formato TIFF con el correspondiente
fichero TFW de georreferenciación. Sistema de referencia geodésico será
ETRS89 en Península e Illes Balears y REGCAN95 en Canarias.
Proyección UTM en el huso correspondiente, siendo el corte de hojas
1/5.000 o 1/10.000 según cuadrícula oficial.
◦ MDT05. Modelo digital del terreno con paso de malla de 5 m, con la misma
distribución de hojas que el MTN25. Formato de archivo ASCII matriz
ESRI (agr). Sistema geodésico de referencia ETR89 (en Canarias
REGCAN95, compatible con ETRS89), proyección UTM en el huso
◦ MDT200. Modelo digital del terreno con paso de malla de 200 m, con
distribución por provincias (rectángulo envolvente de cada provincia).
Formato de archivo ASCII matriz ESRI (agr). Sistema geodésico de
referencia ETRS89 (en Canarias REGCAN95, compatible con ETRS89) y
proyección UTM en el huso correspondiente a cada provincia y también en
el huso 30 extendido (para provincias en los husos 29 y 31). Canarias está
proyectadas en huso 28. El MDT200 se ha obtenido por interpolación de
modelos digitales del terreno de 5 m de paso de malla procedentes del Plan
Nacional de Ortofotografía Aérea (PNOA).
◦ Vuelo LIDAR
Un mapa de bits es una matriz de bits que especifica el color de cada píxel de una matriz
rectangular de píxeles. El número de bits asignado a un píxel individual determina el número
de colores que se pueden asignar a dicho píxel. Por ejemplo, si cada píxel se representa con 4
bits, a un píxel determinado se le podrá asignar uno entre los 16 colores distintos (2^4 = 16).
En la siguiente tabla, (Tabla 13) se muestran unos cuantos ejemplos del número de colores
que se le pueden asignar a un píxel que se representa con un número de bits determinado.
Los archivos que almacenan mapas de bits contienen, por lo general, uno o varios bloques de
información que almacenan datos como, por ejemplo, el número de bits por píxel, número de
píxeles de cada fila y número de filas de la matriz. Un archivo de este tipo podría contener
también una tabla de colores (a veces se denomina paleta de colores). Una tabla de colores
asigna números a colores específicos en el mapa de bits. En la siguiente ilustración se
muestra una imagen ampliada junto con el mapa de bits y la tabla de colores
correspondientes. Cada píxel se representa con un número de 4 bits y, por lo tanto, hay 2 4 =
16 colores en la tabla de colores. Cada color de la tabla se representa con un número de 24
bits: 8 bits para el rojo, 8 bits para el verde y 8 bits para el azul. Los números se muestran en
formato hexadecimal (base 16: A = 10, B = 11, C = 12, D = 13, E = 14, F = 15).
Un mapa de bits que almacena índices en una tabla de colores se denomina mapa de bits de
paleta indizada. Algunos mapas de bits no necesitan una tabla de colores. Por ejemplo, si un
mapa de bits utiliza 24 bits por píxel, el propio mapa de bits puede almacenar los colores en
lugar de los índices de una tabla de colores. En la siguiente ilustración se muestra un mapa
de bits que almacena colores directamente (24 bits por píxel) en lugar de utilizar una tabla de
colores. En la ilustración se muestra también una vista ampliada de la imagen
correspondiente. En el mapa de bits, FFFFFF representa el blanco, FF0000 representa el
rojo, 00FF00 representa el verde y 0000FF representa el azul.
BMP
GIF es un formato común de las imágenes que aparecen en páginas Web. Los
archivos GIF funcionan bien para dibujar líneas, imágenes con bloques de color
sólido e imágenes con límites definidos entre colores. Los archivos GIF se
comprimen, sin que se pierda información durante el proceso de compresión; una
imagen descomprimida es exactamente igual que la imagen original. En un archivo
GIF se puede especificar un color como transparente, de forma que la imagen tenga
el color de fondo de cualquier página Web en la que se muestre. Una secuencia de
imágenes GIF puede almacenarse en un único archivo para formar un GIF
animado. Los archivos GIF almacenan como máximo 8 bits por píxel, por lo que se
limitan a 256 colores.
JPEG es un esquema de compresión que funciona muy bien para escenas naturales
como fotografías escaneadas. Durante el proceso de compresión se pierde algo de
información, pero la pérdida suele ser imperceptible para el ojo humano. Los
archivos JPEG almacenan 24 bits por píxel, por lo que son capaces de mostrar más
de 16 millones de colores. Los archivos JPEG no admiten transparencia ni
animación.
54
De Windows GDI + es una API basada en la clase de C / C ++ programadores. Se permite a las aplicaciones
usar gráficos y texto con formato en la pantalla de vídeo y la impresora. Las aplicaciones basadas en la API
Win32 de Microsoft no tienen acceso a hardware de gráficos directamente. En su lugar, GDI + interactúa con los
controladores de dispositivo en nombre de las aplicaciones. GDI + también es compatible con Microsoft Win64.
EXIF es un formato de archivo utilizado para las fotografías que se capturan con
cámaras digitales. Un archivo EXIF contiene una imagen comprimida conforme a
la especificación JPEG. Un archivo EXIF contiene también información acerca de
la fotografía (fecha de toma, velocidad de obturación, tiempo de exposición, etc…)
e información acerca de la cámara (fabricante, modelo, etc…).
El formato PNG conserva muchas de las ventajas del formato GIF pero también
aporta más funciones que las del formato GIF. Al igual que los archivos GIF, los
archivos PNG se comprimen sin que se pierda información. Los archivos PNG
pueden almacenar colores con 8, 24 o 48 bits por píxel y escalas de grises con 1, 2,
4, 8 o 16 bits por píxel, mientras que los archivos GIF sólo pueden utilizar 1, 2, 4 u
8 bits por píxel. Un archivo PNG puede almacenar también un valor de la
trasparencia para cada píxel, que especifica el grado de mezcla de ese píxel con el
color de fondo.
El formato PNG supone una mejora con respecto al formato GIF por su capacidad
para mostrar una imagen progresivamente; es decir, para mostrar aproximaciones
cada vez mejores de la imagen a medida que ésta llega a través de una conexión de
red. Los archivos PNG pueden contener información sobre la corrección de gamma
y la corrección de color para que las imágenes puedan representarse con precisión
en varios dispositivos de presentación.
TIFF (Tag Image File Format, formato de archivo de imágenes con etiquetas)
ADJUST. “Freeware”. Aplicación realizada sobre MathCad. Autor Charles D. Ghilani. John
Wiley & Sons, Inc. 111 River St. Hoboken, NJ (Versión 6.1. 1995- 2014).
GeoLab. Desarrollado por “BitWise Ideas Inc” dirigidos por el Dr. Robin Steeves.
Esta aplicación, según narran sus propios autores en la revista Topografía y Cartografía,
permite además de realizar ajustes de redes topográficas mediante mínimos cuadrados,
realizar el diseño de una red planimétrica mediante el método indirecto o Pre-análisis,
también conocido como el método de prueba y error, presta un funcionamiento interactivo
con el usuario.
55
Tampoco se han encontrado más dentro del ámbito de la Topografía o de la Geodesia.
Esquemáticamente, según siempre los autores del artículo, el método se estructura mediante
los siguientes pasos:
Cálculo de las matrices de covarianza mínimo cuadráticas y cálculo de los valores de las
cantidades especificadas como criterios de precisión y fiabilidad.
Alteración del esquema de red propuesto: si no coinciden los valores criterio propuestos con
los calculados, eliminando observaciones y disminuyendo pesos si los criterios propuestos se
han excedido y procediendo a la inversa si los valores no eran lo suficientemente buenos.
Cálculo del coste de la red y consideración de esquemas alternativos distintos del propuesto.
Con el cuadro superior de la derecha se pueden introducir nuevos puntos, a través de sus
coordenadas y tal y como dice el mencionado artículo, “Una vez situados los nodos es
necesario definir las observaciones que los ligarán en el campo, para ello, emplearemos los
botones con una D para asignar una distancia entre nodos y con una L para asignar una
lectura angular horizontal”: El resultado final puede parecerse, por ejemplo, al de la
siguiente (Figura 87).
Una vez establecido el datum y, antes de pasar a la fase de cálculo, es necesario definir la
precisión de las observaciones establecidas en la red. Para ello se activará la ventana del
gestor de observaciones (Figura 88). El objetivo de esta ventana es asignar a cada
observación a un grupo de precisión, definido en función de las características de los
instrumentos y técnicas de medida empleados e incluso de los diferentes observadores que
han tomado los datos.
Para poder realizar un nuevo diseño deberán modificarse las posiciones de los puntos que
constituyen la red.
Básicamente, estas son las posibilidades de esta aplicación respecto al diseño de redes
planimétricas.
Esta aplicación facilita el ajuste mediante mínimos cuadrados de redes y el diseño de las
mismas mediante la siguiente secuencia de ventanas:
Barra de títulos
Es la barra horizontal situada en la parte superior de la pantalla, que contiene el nombre del
programa, y en algunos formularios información adicional.
Barra de menús
En la Figura 89 lo están las correspondientes a los cálculos y visión de datos pues todavía no
se ha abierto ningún proyecto.
Las letras subrayadas de los elementos del menú indican un modo de acceso rápido a ellos,
mediante la pulsación de ALT + dicha letra. También algunas opciones dentro de los menús
desplegables tienen una tecla de acceso rápido. Por ejemplo, con F6 se ejecuta la orden
Opciones del menú Avanzado.
Barra de herramientas
Contiene botones de acceso a las funciones más usadas del programa. Los botones,
enumerados de izquierda a derecha son:
- Nuevo Proyecto
- Activar Proyecto
- Importar Matrices
- Editor de texto
- Compensación con matriz inversa clásica
- Compensación con pseudoinversa
- Compensación con matriz de constreñimientos.
No obstante, la función de cada botón se muestra si se posa el ratón sobre él unos breves
instantes.
Ventana central
Ocupa la mayor parte de la pantalla. No tiene más función que servir de fondo sobre el que
se mostrarán los distintos mensajes de advertencia al usuario y cuadros de entrada.
Ventana de propiedades
Contiene información relativa al proyecto activo en cada momento: Nombre del proyecto
activo o de las matrices importadas, número de vértices y ecuaciones, o de ecuaciones e
incógnitas, etc.
Cuando se presiona sobre el icono de “Nuevo Proyecto” aparece la siguiente ventana donde
se irán introduciendo los datos. Con la pestaña “Vértices” se introducen las coordenadas, el
identificador del vértice, así como la naturaleza del punto (fijo o no). Se pueden recuperar los
vértices introducidos para modificar, bien sus coordenadas o su atributos, tal y como se
aprecia en la Figura 91.
Importar Matrices
El menú correspondiente a “Importar Matrices” permite designar los archivos que contienen
los ficheros de texto de cada una de las matrices del sistema: matriz de diseño, A; matriz de
términos independientes de las formas de observación, k; matriz de criterio de los pesos, P; y
opcionalmente la matriz de constreñimientos, E.
Como ya se dijo con anterioridad, esta opción tiene gran flexibilidad: los ficheros de
matrices son ficheros de texto en el que los elementos vienen en las distintas filas y
separados en columnas por un punto y coma, o uno o varios espacios, o uno o varios
tabuladores. Por otra parte, la existencia de un formato incorrecto o la incongruencia entre
dimensiones de las matrices, además de la detección de una matriz de pesos no cuadrada o la
de una ecuación entre puntos fijos en la matriz A, llaman al correspondiente mensaje
informativo.
Mencionar también que el programa detecta e interpreta si el fichero de los pesos que se
introduce contiene una matriz cuadrada de pesos o simplemente el vector con los elementos
de la diagonal, así como la existencia de la incógnita de factor de escala, siempre que se
introduzca en la última columna de la matriz A.
Cada botón “Examinar...” abre un cuadro de diálogo para la introducción del fichero de la
matriz análogo al de la Figura 93.
Esta aplicación posee herramientas para el ajuste de redes, en el menú aparece bajo el título
de “compensación” y otras, tales como, invertir matrices mediante diferentes
métodos,…pero desde el aspecto que se aborda esta tesis la opción más importante es la
denominada, “Problemas de Diseño”.
Se resuelve la red con varios vértices de máxima precisión intrínseca. Así, las preguntas al
usuario son cuatro:
Se obtienen las coordenadas aproximadas óptimas para determinados puntos, elegidos por el
usuario.
Fichero de salida.
Matriz cofactor Qxx deseada: cálculo automático, entrada por fichero ASCII o
manualmente.
Da los pesos necesarios de los observables para alcanzar la matriz cofactor Qxx deseada. Las
preguntas a que se ha de responder son:
Matriz cofactor Qxx deseada: matriz de criterio absoluta de Baarda, cálculo automático
con las medias, entrada por fichero ASCII o manualmente.
En las tres opciones se tienen que introducir los números de los vértices a variar su posición
y la variación máxima en respecto a su posición inicial. La pantalla de gráficos no es
interactiva con el usuario es simplemente descriptiva (Figura 96).
Este software no garantiza resultados correctos. Estos archivos están diseñados sólo para uso
educativo.
La entrada de datos en esta aplicación es mediante ficheros ASCII con el siguiente formato:
Lista de las estaciones de control: (ID de la estación de no puede tener espacios o comas) ID
de la estación (10 caracteres), X, Y (reales).
Visado atrás- Estación – Visado adelante: (Deg Min Seg) [desviación típica en segundos]
Estación – Visado – Acimut (Deg Min Seg) [desviación típica en segundos sexagesimales]
Una vez importado un fichero ASCII con la estructura analizada en la página anterior, se está
en situación de realizar un ajuste, siempre que se hayan introducido las observaciones
realizadas, no admite observaciones de dirección solo ángulos. La notación angular es en
graduación sexagesimal.
Figura 98: Secuencia de menú para llegar la opción de simulación. Figura 99: Ventana de la
ejecución de una simulación.
Una vez definidos los parámetros exigidos en la entrada para realizar la simulación se
muestra otra ventana (Figura 100) donde se deben introducir las desviaciones típicas a priori
de las visuales descritas en el fichero ASCII de entrada.
Seguidamente, se produce la simulación del ajuste, donde se aprecian las elipses de error y
donde se pueden seleccionar diferentes colores para los elementos gráficos, así como la
escala de las elipses. El gráfico resultante de la simulación no es interactivo (Figura 101).
Cada vez que se pretende variar la posición de algún punto es evidente que hay que volver a
recorrer toda la secuencia de pasos y volver a introducir los datos relativos a las desviaciones
típicas a priori.
El paquete de software líder en el mundo para realizar la topografía de redes y los ajustes
de la poligonal y cálculos relacionados. GeoLab56 maneja muchos tipos de mediciones, y
resuelve de varias formas la transformación adecuada en sus ajustes.
56
Copyright ©, 1985-2015, BitWise Ideas Inc.
Por lo tanto, se verá la utilización de esta herramienta en la simulación de una red para
cotejar resultados y poder contrastarlos.
Para una visión general de las nuevas características GeoLabPX5, consulte nuestra página de
GeoLabPX5 general (versión 2015). Algunos aspectos destacados seleccionados:
Usado y probado en todo el mundo fiable desde 1985 en todos los tamaños de redes.
Para importar el fichero que definen los vértices de la red se accede a través del siguiente
menú.
Como resultado final de la fase de simulación con esta aplicación, se obtienen las elipses de
error de cada uno de los vértices a ajustar y la desviación típica en altura.
5. METODOLOGÍA
En este capítulo se expone la metodología desarrollada, capaz de tener presente en el diseño
de una red los conceptos de incertidumbre a posteriori (la que se impone desde el pliego de
prescripciones técnicas de cualquier proyecto topográfico) y los impedimentos que presenta
la orografía de la ubicación del mismo, representado por el modelo digital de superficies o,
en su defecto en modelo digital del terreno. Asimismo, podrá intercambiar el instrumental de
observación y las condiciones de trabajo, lo que significa que variarán las desviaciones
típicas a priori. También se podrá variar el factor de cobertura de las desviaciones típicas que
se esperan, así como la naturaleza de las observaciones que se pretende que intervengan.
Como se ha repetido en varias ocasiones, una red topográfica está constituida por una serie
de puntos (vértices) relacionados entre sí a través de observaciones angulares (de dirección),
y lineales (de distancia) siendo conocidas o fijadas de antemano las posiciones de algunos de
esos puntos (marco de referencia) y desconociéndose las del resto, que se estiman a partir del
ajuste de las observaciones realizadas. La calidad métrica de tales estimaciones depende de
dos grandes grupos de factores:
Del modo en que se transmiten las imperfecciones de las observaciones a los resultados,
amplificándose o reduciéndose, manifestándose o pasando desapercibidas.
Para una instrumentación y una metodología de observación dada (esta también puede
variar), los resultados dependen única y exclusivamente del diseño de la red. Esto es, de la
figura geométrica definida por sus vértices y del número y distribución de las observaciones
que relacionan unos vértices con otros. Como se ha expuesto, la configuración geométrica
condiciona la transmisión de las varianzas de las observaciones a las incógnitas, de modo
que un diseño adecuado permite optimizar la precisión con que se estiman aquellas. El
diseño condiciona también la fiabilidad de la red que, a grandes rasgos, puede entenderse
como su sensibilidad a la presencia de errores en las observaciones, y es también susceptible
de optimizarse si la configuración se atiene a unos determinados criterios. Finalmente, el
diseño influye en los costes, lo que introduce un tercer criterio de optimización, siempre que
se respeten los requisitos de calidad establecidos en los pliegos de condiciones.
Ha de señalarse que la optimización de la red con arreglo a los criterios expuestos está sujeta
a los condicionantes que impone la necesidad de que los vértices sean accesibles, y además
sean visibles entre sí aquellos relacionados por observaciones, condicionantes que dependen
esencialmente del relieve del terreno y de los obstáculos naturales o artificiales que puedan
existir.
Las tareas de ubicación pueden ejecutarse al mismo tiempo que se realizan las
observaciones. Este modo de proceder, por otra parte muy habitual, genera una serie de
inconvenientes, tales como no conseguir las precisiones preestablecidas, o por el contrario
utilización de un instrumental demasiado preciso para las desviaciones típicas requeridas.
También puede ocurrir que se realicen más observaciones de las necesarias lo que originaría
un coste innecesario. Los mencionados inconvenientes se acentúan cuando las redes
topográficas son soporte de posteriores trabajos, o la zona sea muy extensa, o bien las
precisiones deban ser muy estrictas. Estos tres factores pueden presentarse de una forma
conjunta, y en cualquier caso sin perder el aspecto de costes.
Existen casos muy concretos donde el espacio para implantar los vértices de la red
topográfica está muy delimitado; esto sucede, por ejemplo, en una galería de elevada
longitud, una plataforma de pequeña magnitud con obstáculos de visibilidad, u otros lugares
donde los requerimientos de ubicación de los vértices de la red influyan de forma definitoria
en los resultados finales, en cuanto a precisión y fiabilidad. En estos casos más que en otros
es muy “interesante” (desde el punto de vista de precisiones a obtener, de fiabilidad de las
observaciones, de la viabilidad de las mismas y del coste de la red) el estudio previo de la
distribución geométrica en función de los parámetros que se exponen en el presente
documento.
En estos casos, es necesario valorar con anterioridad los resultados que cabría esperar con la
combinación de una determinada configuración geométrica con un cierto instrumental de
observación. Los parámetros de esta ubicación serían: la precisión con la que estiman las
incógnitas, la fiabilidad de las mismas estimaciones y los costes necesarios para su
obtención.
En esta tesis se aborda la optimización del diseño de una red topográfica bidimensional bajo
el punto de vista de los siguientes criterios:
Elaborar una visión conjunta de la influencia del diseño de una red en los seis factores
señalados (precisiones a posteriori, fiabilidad de las observaciones, naturaleza y
viabilidad de las mismas, instrumental y metodología de estacionamiento) como
criterios de optimización, con la finalidad de enmarcar el tema concreto que aquí se
aborda.
Y por último, construir una aplicación informática, ampliable, que permita optimizar
el diseño de redes topográficas sencillas teniendo presente los anteriores
requerimientos, además de incluir el recálculo en tiempo real y la inclusión del
MDS, o en su defecto del MDT cuyos ficheros estén diseñados, en ASCII, según el
patrón de ESRI.
Para el desarrollo de la aplicación capaz de ayudar a encontrar el diseño óptimo de una red
topográfica observada mediante técnicas de topografía clásica (ángulos y distancias), se han
estudiado los factores intervinientes en dicho proceso así como los resultados que se
pretendían obtener y se han desarrollado los algoritmos necesarios para la resolución de los
objetivos.
1. Parámetros de entrada:
2. Parámetros a determinar:
4. Resultados generados:
◦ Visuales factibles.
Por lo tanto, en éste capítulo se desarrollará el método de “prueba y error” de diseño, pero al
que se le han ha incorporado variantes que enriquecen dicha metodología.
La principal ventaja del método “prueba y error” consiste en que cualquier criterio arbitrario
de precisión y fiabilidad, puede usarse para lograr un diseño satisfactorio. No es necesario
encuadrar estos criterios en formas matemáticas complejas, indispensables si se utilizan
métodos analíticos.
Los algoritmos y fórmulas utilizadas en las fases del desarrollo seguidos son los que a
continuación se detallan:
Determinación de las desviaciones típicas del instrumento seleccionado así como del método
de estacionamiento.
30cc 4A
ccp 1
A 100
[196]
scc
cc
12
v
[197]
ccl ccHz ISO
[198]
2 2
ccd E V
r cc
DVE
[199]
mv seno cc
ccH j r
DVE
[200]
De forma análoga, cada vez que varíe las condiciones de estacionamiento y/o las
características del instrumental se deberá recalcular las incertidumbres de las
visuales.
Donde cada uno de los términos son valorados por las siguientes expresiones:
Sólo se trabajará con ecuaciones de dirección y/o distancia, tanto las ecuaciones de
ángulo como de desnivel no se utilizarán. Estas últimas, no tienen relevancia,
debido a que el estudio que se aborda en la presente tesis es solo para redes de dos
dimensiones, aunque se contemple el impacto y la viabilidad en el diseño, del
MDT de la zona de proyecto. Las ecuaciones de observación de ángulo no se
utilizan, debido a que si una ecuación de esa naturaleza proporciona un número de
redundancia bajo, no se podrá determinar a cuál de las dos ecuaciones de
observación que intervienen en ella es la causante de dicho valor.
1 r cc
r D j' 2
N j'
i' E j' N j'
i' E i' E j'
i' N i' E j'
i' N j' cc
i' cc
r Lcc
r
i'
[205]
1 1
j' Eij'' E j' Eij'' Ei ' Nij'' N j' Nij'' Ni ' ν mr 1 Lmr 1
σ r 1 Di '
[206]
1
A1 A
i
1
L1 L A1 x V1 L1
i
1
V1 V
i
[207]
1
X 02 AT A 02 N1 02 QX
[208]
Tal y como describen los autores (Ghilani & Wolf, 2006) el valor de la varianza se
establece en la unidad por lo que la matriz de covarianzas será igual a la de
cofactores y, por lo tanto, se pondrán obtener los valores de incertidumbre con esa
geometría diseñada y supuestamente sin ningún tipo de equivocación.
Para obtener las desviaciones típicas de los parámetros, según una distribución
normal con una fiabilidad de 68,27% las expresiones a emplear son las siguientes:
Xi k p qi,i
[210]
1
a 2 ˆ 2E ˆ 2N ˆ 2E ˆ 2N 4 ˆ 2EN semieje mayor
2
2
1 2
b 2 ˆ 2E ˆ 2N ˆ 2E ˆ 2N 4 ˆ EN
2
semieje menor
2
1 2 ˆ
arctan 2 EN2 acimut del semieje mayor
2 ˆ E ˆ N
[211]
Para buscar los números de redundancia óptimos se deberá determinar este valor
con la siguiente expresión, justificada en la ecuación [192] del apartado 4.3.4.1:
i n
m
r n m n r n m r
i 1
i i i óptimo 1
n
[212]
AX L A N1 t L
[213]
A AT PA A PL L
1 T
N 1 t
[214]
A AT PA A P I L
1 T
[215]
R In A A PA A P
T 1 T
[216]
Por lo tanto, habrá que encontrar aquella geometría que entre otros requerimientos
cumpla que todos los números de redundancia sean lo más próximos a valor
óptimo y sobrepasando como número de redundancia cada observación 0,4, según
el criterio que estableció (Márquez, 2009):
Los tres primeros pasos del método57 “prueba y error” descrito por (Ghilani &
Wolf, 2006), pone de manifiesto, como es lógico, lo importante que es tener
conocimiento altimétrico de la zona donde se va a diseñar la red. En uno de los tres
pasos del proceso llegan a plantear para comprobar la viabilidad de las visuales la
realización de perfiles de cada una de las visuales proyectadas. Evidentemente este
proceso es lento y laborioso, dada la cantidad de visuales que se pueden llegar a
proyectar en el diseño de una red.
57
Paso 1: Usar un mapa topográfico o fotos aéreas, diseñar posibles posiciones para las estaciones.
Paso 2: Utilizar el mapa topográfico junto con fotografías aéreas para comprobar la visibilidad y las
obstrucciones de las visuales previstas.
Paso 3: Reconocimiento de campo, revisando las líneas de visión para evitar obstrucciones, revisar en
el mapa o fotos, y ajustar las posiciones de las estaciones, según sea necesario incluso realizando
trazado de perfiles longitudinales sobre la cartografía de las posibles visuales.
Debido a que uno de los objetivos que se persiguen en esta tesis es comprobar la
variación de los parámetros de diseño en tiempo real, obliga a vincular las
diferentes posiciones de los vértices con la variación de dichos parámetros
mediante la iteración con los gráficos en pantalla. Como consecuencia, es muy
importante que a una variación de las posiciones de los vértices se muestre de una
manera casi instantánea de los valores buscados en el diseño.
Las tareas más comunes de GDI+ son: el dibujo de líneas, curvas, polígonos; el
relleno de cuadros, círculos, polígonos, etcétera; igualmente, se encarga del
“renderizado” de fuentes y textos, y, el manejo de paletas.
El objeto “BitMap” encapsula mapas de bits de GDI+, que están formados por los
datos de píxeles de una imagen de gráficos y sus atributos. Se utiliza para trabajar
con imágenes definidas mediante datos de píxeles
Este “interface” posee herramientas de fácil uso pero al trabajar con gráficos algo
complejos pierde eficacia, por lo que en aplicaciones de producción o en
videojuegos es muy habitual el uso de APIs, bien DirectX58 u OpenGL59.
58
Esta colección de APIs desarrolladas por Windows debutó en Windows 7, y su versión más reciente es DirectX
11.2 (solo para WIndows 8).
59
Colección de APIs desarroladas por grupo Khronos para la gestión de gráficos.
Figura 109: Imagen del MDT de la misma zona generado por la aplicación “Brújula”
Figura 110: Imagen del MDT del IGN en la zona de la presa de Beleña.
Figura 111: Imagen del MDT de la misma zona generado por la aplicación “Brújula”
En el siguiente imagen, (Figura 112 y Figura 113) se puede apreciar que la redundancia
existe en la determinación de las desorientaciones en los puntos fijos, pero los números de
redundancia de las dos visuales al punto T1 (rii=0,000), nos indica que en dichas
observaciones, si se produjera cualquier tipo de error, por muy grande que fuera éste no se
detectaría.
Figura 112: Imagen de la intersección directa. Figura 113: Resultados del diseño de la
intersección directa.
Es evidente que ésta sería la única forma de comprobar la elipse de error “teórica” en el caso
de una intersección directa simple angular, salvo recurriendo a las tradicionales expresiones
que determinan dichos valores, pero sin poder determinar el acimut del semieje mayor.
Los números de redundancia de las observaciones de dirección entre puntos fijos determinan
la fiabilidad de las mismas en función de su geometría.
Seguidamente, se puede observar en el caso de una intersección directa múltiple angular, que
es imprescindible la inclusión de las visuales entre puntos fijos para poder determinar las
posiciones de una serie de testigos de forma individual y no conjuntamente, dado que entre
ellos no existen observaciones y, por lo tanto, no existe correlación.
Tal y como se aprecia en la siguiente figura, la fiabilidad de las observaciones desde, por
ejemplo, el hito fijo H1 a los testigos, es prácticamente la misma en el caso de incluir la
desorientación en los puntos fijos, como si no se incluye. Lo mismo ocurre con las
incertidumbres a posteriori de las coordenadas. La conclusión que se podría obtener es que la
desorientación no es necesaria incluirla.
Figura 114: Números de redundancia de las observaciones Figura 115: Números de redundancia de las observaciones
y desviaciones típicas a posteriori. Con observaciones entre y desviaciones típicas a posteriori. Sin observaciones entre
fijos fijos.
Suponiendo el mismo diseño y los dos mismos supuestos, pero esta vez planteando la
optimización de los hitos de forma individualizada, los resultados que se obtienen no dejan
duda que el planteamiento en estos casos de la desorientación en los puntos fijos es
necesaria.
Se eliminan las visuales a fijos desde el hito H1, se obtienen los siguientes valores:
Figura 116: Números de redundancia de las Figura 117: Números de redundancia de las
observaciones y desviaciones típicas a posteriori. Con observaciones y desviaciones típicas a posteriori. Con
observaciones entre fijos salvo en la estación H1. observaciones entre fijos
Si en la fase de diseño se contemplan todos los testigos conjuntamente, tal y como aparece
en la siguiente figura, es evidente que las observaciones entre puntos fijos no será necesaria,
pero las desviaciones típicas a posteriori de los testigos se verán afectadas por la correlación
existente establecida desde cada hito a los testigos tomados de dos en dos.
Como conclusión de este pequeño análisis, se puede asegurar que la inclusión del parámetro
de desorientación en las vueltas de horizonte, no es imprescindible para obtener la geometría
óptima pero si en aquellos casos de intersecciones directas múltiples.
En estos pasos, se pone de manifiesto la relevancia de la orografía del lugar y así conseguir
un diseño óptimo, llegando a indicar la necesidad de realizar perfiles longitudinales a lo
largo de las futuras visuales, trabajo éste ingente, dado que para cada una de las nuevas
posiciones de los vértices móviles se deberían realizar tantos perfiles como visuales, partan o
lleguen a él.
Una vez contemplado este inconveniente, y dado que los avances por parte de los
organismos oficiales, al menos en España, facilitan gratuitamente los MDT del terreno,
parece lógico integrarlos en las tareas del diseño de redes observadas mediante técnicas
convencionales.
Ahora bien, la inclusión de esta nueva información permite que, mediante técnicas
informáticas, el proceso de diseño sea interactivo para el ingeniero encargado de estas tareas
tan delicadas; ayudando al aumento de la precisión y fiabilidad de la red y así aminorar
costes de los trabajos topográficos inherentes a estas técnicas indispensables, en la mayoría
de las obras de ingeniería que hoy día se proyectan.
Se denomina nodos, a los puntos iniciales y finales de los vectores. Por el contrario, si las
entidades que se pretenden representar tienen una distribución continúa, el método más
adecuado es el ráster. En este caso, las entidades se representan mediante teselas.
Cada tesela es la unidad elemental de información; esto quiere decir que, a la escala de
trabajo, la superficie real representada por una tesela es homogénea en sus propiedades.
A B ...
R4 R5 R6
R1 R2 R3
La estructura “quadtree” es una técnica más difundida que la anterior, y propone una
descomposición disjunta del espacio, pero en este caso, el proceso de descomposición se
realiza mediante una subdivisión sucesiva del espacio en cuatro cuadrantes de igual tamaño.
Un “quadtree” se considera un árbol, en el que cada uno de sus nodos corresponde a una
extensión espacial cuadrada. En el caso de los nodos interiores del árbol, estos tienen cuatro
nodos hijos correspondientes a los cuatro cuadrantes del rectángulo que representa, de ahí
deriva su nombre.
0 3
1 2
0 1 2 0 1 2 3
3
0 1 2 3
Actualmente son usados para representar puntos, áreas, curvas, superficies y volúmenes. La
descomposición puede ser en partes iguales en cada nivel (llamada descomposición regular),
aunque básicamente se utilizan en imágenes ráster.
23 22
20 21
133 132 12
130 131
10 11
Ahora bien, este tipo de estructuras son útiles cuando los datos tienen entidades complejas y
su distribución espacial también lo es. En el caso de los MDT, del IGN, tanto los datos como
su distribución espacial son totalmente homogéneos, por lo que no es el mejor método de
almacenamiento de los datos en la memoria. Para este tipo de información el mejor formato
es una cuadricula, definida por máximos y mínimos, el paso de malla y se almacenan única y
exclusivamente las altitudes, en un formato de cuadrícula (grid, rejilla,…).
Poder recortar el MDT a las dimensiones del modelo, o a las que considere el usuario,
mediante una utilidad de Brújula.
Figura 121: Herramienta para recortar el MDT según las dimensiones de la zona de la red.
Se aprecia en la figura anterior (Figura 121), un MDT del IGN de 3841 filas y 5761
columnas, se puede reducir a otro de, tan solo, 143 filas y 187 columnas, con sobre
Figura 122: Visualización de la altimetría de forma solo digital, sin tener la imagen del BitMap.
Ambas soluciones se han presentado en la aplicación diseñada para esta tesis, la primera de
ellas más atractiva visualmente; la segunda más eficaz para zonas de gran superficie. En la
primera, según se seleccionan nuevas posiciones de los puntos móviles el “BitMap” del
MDT, se mantiene visible; en la segunda no está presente, por lo su regeneración no es
necesaria. La aplicación, como ya se ha dicho, seguirá leyendo las altitudes sobre dicho
modelo; con lo cual se siguen analizando las interferencias del terreno en las visuales
diseñadas. La opción que permite visualizar el MDT mediante un BitMap, al margen de ser
más atractiva, en terrenos abruptos es mucho más eficaz que ver tan solo el recuadro, puesto
que en el momento de seleccionar una nueva posición del “punto móvil” la lectura de la
altimetría es más rápida en intuitiva mediante el gráfico.
Para que el resultado de la intervisibilidad entre dos puntos fuese preciso sería necesario
disponer de un MDS y que éste estuviera actualizado. Por el contrario el resultado de las
visuales diseñadas no tendrán elevada fiabilidad, salvo en zonas rústicas y de poca
vegetación. La difusión de este tipo de productos, como ya se vio en el apartado 4.4.3
depende de las administraciones central y autonómicas a través del PNOA, pero en los
productos derivados no se encuentran los MDS del territorio nacional, por lo que su
utilización obligaría a producir este tipo de información de manera privada. Hoy en día se
están desarrollando aplicaciones informáticas para la generación de estos productos
derivados, prácticamente de forma automática, o bien supervisada de gran efectividad
(Arranz, 2013).
En el siguiente gráfico (Figura 123) se presentan todas las clases diseñadas en la aplicación,
así como las enumeraciones. También aparecen las clases heredadas de la clase “form” así
como las propiedades y métodos desarrollados para cada una de ellas.
Los datos miembro de la clase CObsDis (Clase Observación Diseño) se aprecia que los tres
primeros datos miembro no tienen capacidad de almacenamiento (tipo booleano “si” o “no”)
de ningún dato numérico, como no podía ser de otra manera en el estudio de diseño de redes,
donde aún no se han realizado las observaciones.
para poder incluir el MDT en el diseño. Esta nueva clase dispondrá de las propiedades y
métodos de la clase “padre” y los propios generados en su diseño 10.4.
Existe otra clase derivada de la CPunto2D, la cual tiene las mismas propiedades y métodos
de la clase “padre” y se le han añadido los siguientes datos miembros:
En ambas clases se definen los métodos necesarios para poder leer y escribir ficheros de
entidades de las dos clases que almacenan. Los tipos de formatos de ficheros que admite son
ASCII y binario.
También se pueden apreciar los métodos de búsqueda en cada una de las dos listas de clases,
así como las posibles modificaciones de los objetos que contienen. Otra clase derivada de
una de las dos básicas, es CPunto2_5D, que como su nombre indica creará objetos para
almacenar puntos cuya posición esté expresada en un sistema de 2,5 dimensiones. Como en
cualquier plataforma orientada a POO la clase “hija” mantiene las propiedades y métodos de
la clase “padre” además de las propias de ella misma. En este caso, uno de los datos
miembros, más significativos, es la aparición de la altitud del punto sobre un sistema de
referencia unidimensional. Dado que va a constituir la clase donde se van a almacenar los
objetos propios de un diseño, deberá permitir almacenar datos tales como desviaciones
típicas a posteriori, índice de los parámetros en el ajuste simulado mediante mínimos
cuadrados, así como un identificador para determinar si el punto es fijo o ajustable, también
deberá permitir almacenar los semiejes de la elipse de error así como el acimut del mayor de
ellos.
Además contiene un método específico, exportar a ficheros dxf, que permite exportar los
diseños y fichero de puntos al formato estándar de dibujo.
Para la determinación de los números de redundancia de las futuras observaciones, con una
configuración geométrica determinada, es necesario realizar las siguientes operaciones
R In A AT PA AT P , para lo cual será necesario formar la matirz “A”, de diseño.
1
Esta se formará a partir del estudio de la libreta de puntos, analizando cuáles son fijos, cuáles
son móviles y cuáles de todos ellos están activos. Una vez analizados los puntos que
intervienen en el diseño y sus características, se deberá proceder a plantear cada ecuación de
observación
Cada vez que el usuario seleccione un punto para localizar su mejor posición, según los
criterios de precisión y de fiabilidad de todas las observaciones vinculadas a él, ha de tenerse
en cuenta que todo el proceso anterior se debe recalcular con cada posición que tome el
punto. Esto es así, debido a que en todos los procesos interviene la matriz “A” y ésta es
función de las posiciones de los puntos de la red; incluso las desviaciones típicas a priori de
las observaciones (Ea y ED), puesto que también dependen de las distancias.
5.2.1.2.Clases gráficas
Ya se ha puesto de manifiesto que el método de
almacenamiento en memoria del MDT se hace
mediante una cuadrícula de paso constante, dado que
el origen de la información disponía de esa estructura.
Para localizar la altitud de cada “celda” de la rejilla se
inicia con el movimiento del puntero del ratón,
mediante el método de lectura se obtiene la posición
bidimensional de éste sobre el lienzo de dibujo.
Figura 132: Clase CRelObs
Realizando un cambio de origen y una traslación se
obtienen las coordenadas terreno del puntero. A
continuación, se interpola a partir de los mínimos del MDT, obteniéndose la fila y la
columna dentro de la rejilla que, mediante un método de la clase “CGrid”, proporciona la
altitud del punto en cuestión.
Dado que la clase que se ha descrito anteriormente es “hija” de otra más genérica, convendrá
definirla antes, así como a todas las clases que derivan de ella.
Evidentemente, todas estas clases son las utilizadas en la parte gráfica de la aplicación, en
mayor o menor medida intervienen en la ejecución de la misma, salvo la clase polígono, que
se ha diseñado para estudios futuros, como ya se verá más adelante.
Para determinar si una visual intercepta el MDT cuando uno de los extremos se está
desplazando sobre el soporte del dibujo, el método es algo más complejo, lo que genera que
la respuesta visual no sea tan rápida coma la anteriormente descrita y requiere un algoritmo
algo más complejo que el descrito anteriormente. Éste puede diseñarse de formas diversas en
función de muchos parámetros, pero fundamentalmente del tipo de MDT.
Uno de los algoritmos de intervisibilidad entre dos puntos considerando el MDT lo definió
(Felicísimo, 1994):
◦ Se definen los puntos inicial y final del segmento rectilíneo sobre el que se
levantará el perfil topográfico.
Figura 134: Clase CEntidadDibujo y sus clases derivada con sus propiedades y métodos
perfiles siguiendo líneas quebradas, que no son más que conjuntos de segmentos
conectados, por lo que basta con ejecutar iterativamente la rutina perfil con los
cambios adecuados en las coordenadas de los puntos inicial y final.
◦ Se toma un punto P(k) del perfil (comenzando por el más próximo a P(i)) y
se comprueba si intercepta la línea visual entre P(i) y P(j). Pueden ocurrir
tres casos:
Figura 135: Gráfico del proceso para determinar la intervisibilidad entre dos puntos del terreno.
Seguidamente, se muestra el diagrama de flujo de los datos necesarios para el diseño de una
nueva red topográfica. Una vez introducidos los vértices de la red, así como aquellos que
constituyen el marco de referencia y las observaciones que vinculan a estos con los puntos
móviles y las propias entre ellos quedará definido el proyecto. Además habrá que determinar
las características técnicas del instrumental y modos de estacionamiento, aunque estos
podrán ser cambiados en el proceso de diseño.
5.2.2.1.Definición de un proyecto
Se aprecia que, para definir un nuevo proyecto, es necesario definir la ubicación del mismo
dentro de los dispositivos de la unidad donde se esté trabajando, así como una descripción
del mismo y un tipo de instrumental, que se introducirá mediante una ventana de diálogo
diseñada para tal fin. En ella, se podrán definir tantos instrumentales como el usuario desee.
Por defecto, siempre existirán cuatro.
E,N
Figura 139: Diagrama del cálculo de las desviaciones típicas a posteriori y los números de redundancia
cuando se varía el tipo de instrumental o la posición de algún punto
Cada vez que un “punto móvil” es desplazado por el usuario se producen, además de los
métodos gráficos correspondientes, otros de cálculo, que es necesario poner de manifiesto.
Lógicamente, al variar la posición de un punto las distancias cambian, por lo que las
desviaciones típicas a priori, también. Por lo tanto se deberán calcular para cada nueva
posición del “punto móvil”.
De igual manera, cada vez que el usuario cambie las características del instrumental, variarán
las desviaciones típicas a priori y, por lo tanto, también los números de redundancia y las
incertidumbres a posteriori de los parámetros.
Otros factores que varían la presentación de las desviaciones típicas a posteriori y los
números de redundancia son: la selección del tipo de observaciones (direcciones, distancias o
ambas) así como el factor de cobertura (68,25%, 80%, 99%,…) de la distribución
seleccionada normal o “t de Student”.
i , Di
E,N
Figura 140: Diagrama del inicio del método “Prueba y Error”
5.2.2.4.Algoritmo de visibilidad
Cuando se carga un proyecto existente, o bien se define uno nuevo, con las observaciones,
las coordenadas de los vértices y el MDT, ya importados; se está en ambos casos en
situación de comprobar la intervisibilidad entre los puntos que configuran la red. En esta
situación al desplazar los denominados “puntos aproximados”, aquellos que son factibles de
variar su posición, se podrá comprobar la intervisibilidad con los restantes puntos de la red.
E,N
E,N
Como se aprecia en la Figura 141, para cada nueva posición, se realizan los siguientes
cálculos:
Definición del perfil del terreno según la posición del inicio de la visual y del punto
final de la misma, “punto móvil”.
5.2.3.1.Inicio de la aplicación
Al comienzo de la aplicación, ésta presenta al usuario un entorno típico de cualquier
aplicación de Windows, por lo tanto, bastante común para que no resulte incomoda su
utilización, donde aparecen los típicos iconos de “Nuevo – Abrir – Guardar – Guardar
como… - Propiedades - Salir”; es evidente que si no se ha abierto o creado ningún proyecto,
las opciones de Guardar – Guardar Como… y Propiedades estarán inhabilitadas”. (Figura
142).
5.2.3.2.Nuevo Proyecto.
Al pulsar la opción de “Nuevo”, permite al usuario generar un nuevo proyecto de diseño en
el que se solicitará dos informaciones imprescindibles, ruta de donde se pretende almacenar
el trabajo y las características del instrumental que un principio se pretende utilizar para la
técnica del diseño. Estos datos se introducirán mediante una ventana como la que aparece en
la (Figura 143).
Para definir la ubicación de los datos del proyecto de diseño se deberá pulsar el botón
“Ruta…”. Seguidamente, la aplicación proporciona una ventana clásica del navegador de
Windows para ubicar la ruta y el nombre del proyecto, asimismo se puede documentar con
las características del trabajo.
Una vez definido el trabajo y el instrumental deseado, se habilitan algunas de las opciones de
las siguientes “pestañas”, a saber:
De la pestaña Proyecto, se pueden utilizar todas las opciones “Nuevo – Abrir – Guardar –
Guardar Como… - Propiedades – Salir”
De la Pestaña Datos, son utilizables las opciones de Importar, fichero de visuales, puntos y
MDT.
El resto de las pestañas no permiten seleccionar ninguna opción, dado que falta las
posiciones iniciales de los vértices así como las posibles visuales que se pretenden realizar.
5.2.3.3.Abrir proyecto
El proyecto abierto puede no contener los ficheros de trabajos básicos, observaciones y
coordenadas. Si este es el caso, se estará en la misma situación del caso anterior, proyecto
creado pero sin haber importado los ficheros mencionados.
Para importar cualquiera de los dos ficheros el formato que deben tener es el siguiente:
El formato de los ficheros de observaciones, solo deberá incluir la denominación del punto
de estación y del observado; al cargarse se supone que la observación de esa visual va a ser
de dirección y de longitud, aunque luego se puede modificar eliminando alguna de ellas o las
dos.
5.2.3.4.Datos
Una vez definido el proyecto y habiendo importado los datos imprescindibles, fichero de
observaciones y de vértices, las posibilidades para el usuario para el diseño de la red y las
opciones que se pueden utilizar son las siguientes:
Del menú de proyecto, se pueden utilizar todas las opciones, del menú de datos, todas las
opciones son utilizables salvo las vinculadas al MDT, puesto que éste aún no está
incorporado al proyecto. (Figura 145)
Las opciones disponibles permiten al usuario eliminar los ficheros cargados, observaciones
y/o coordenadas: Exportar los ficheros anteriormente cargados y, también uno del gráfico de
visuales activos en el proyecto y lo más importante, añadir a éste, el MDT de su zona de
influencia, en formato ASCII de ESRI, definido y analizado anteriormente.
Figura 145: Vista de la aplicación una vez definido el proyecto y habiendo importado las observaciones y las
coordenadas
Una que se hayan importado las observaciones y las coordenadas de los vértices, si se
selecciona nuevamente la opción de importar, el resultado será que las nuevas observaciones
o coordenadas se añadirán a las ya existentes en el proyecto.
5.2.3.4.1.Importar MDT
Como se ha dicho en otras ocasiones, el MDT del IGN corresponde al tamaño de una hoja
del MTN y, dado que los proyectos de redes de esta naturaleza no suelen tener tales
dimensiones, se han diseñado dos herramientas, una que permita recortar la información del
MDT y otra que permita obtener, del modelo de elevaciones, las altitudes de los puntos que
constituyen el proyecto. (Figura 147).
Una vez importado el MDT del terreno, se carga una tabla de colores por defecto que
posteriormente se puede variar. Solo se podrá ver el MDT así como el gráfico de la red y
observaciones si se presiona en la pestaña Diseño (Prueba - Error).
Este útil permite al usuario de la aplicación, que de manera automática se presenta nada más
cargar el modelo digital del terreno, poder proyectar los vértices de la red sobre el MDT y
También se pueden seleccionar los puntos que se desean proyectar, esta selección se realiza
con la última columna del cuadro de diálogo, mediante una serie de objetos “check box”
cuya cabecera se denomina “Validar MDT”.
Para recortar el MDT se ha diseñado una herramienta en la que permite introducir de forma
manual las dimensiones deseadas para obtener una fracción o bien, seleccionando la opción
“Ajuste Automático”. En este caso, el recorte que se realiza es el correspondiente a la zona
donde está ubicada la red objeto de diseño. Para que el corte no sea al borde de máximos y
mínimos de la red, existe la posibilidad de seleccionar una cantidad de metros para que el
fragmento del MDT obedezca al sobre ancho elegido.
Máximos y mínimos en planimetría del MDT que se pretende recortar, así como el número
de columnas y filas que está almacenado y el paso de malla, distancia de la cuadrícula. En la
parte inferior, si se selecciona el reporte automático, se calculan los máximos y mínimos de
la zona del proyecto con o sin sobre ancho.
Una vez recortado el MDT, la aplicación solicita si se desea sustituir el MDT original por el
recorte que se acaba de efectuar, en ese caso se sustituye el cargado por el recorte.
Seguidamente, si el MDT es del interés del usuario, puede almacenarse en fichero con el
formato ASCII de ESRI.
Las herramientas para lograr el diseño óptimo de la red se agrupan en ocho paneles, unos
simples y otros múltiples.
5.2.3.5.1.Información lateral
Figura 150: Imagen de la información a la que se accede presionando la pestaña Diseño (Prueba – Error).
Es evidente que si se varían las posiciones de los puntos a estudiar su ubicación óptima, la
geometría de la red cambia y en consecuencia sufren variaciones los valores indicativos de la
fiabilidad interna y de la precisión. Todas las observaciones cuyo número de redundancia sea
inferior al valor óptimo se verá rotulado en rojo. En cuanto a la información relativa a las
desviaciones típicas a posteriori de los parámetros, se facilitará mediante el valor de las
longitudes de los dos semiejes de la elipse de error, así como el acimut del mayor de ellos.
Una vez cargado el modelo digital del terreno el usuario puede seleccionar si prefiere
realizar el diseño con la presencia del MDT o sin él.
También es posible tenerlo presente para el diseño
aunque no sea visible, solamente con presionar sobre
el check-box denominado contorno MDT. Es
evidente que si el MDT no está cargado esta opción
está inutilizable. Esta opción es interesante cuando Figura 152: Herramienta para seleccionar la
el MDT cargado sea muy voluminoso y requiera visualización o no del MDT.
muchos recursos para regenerarlo.
“No”, se puede seguir buscando una nueva posición más óptima para el punto
“capturado”.
En la ventana donde aparecen las configuraciones del instrumental guardado aparecen dos
botones con la denominación “Nuevo” y “Borrar”. Con el primero de ellos, una vez
En este panel se incorporan tres útiles que permiten acercar o alejar la imagen hasta el
encuadre deseado por parte del usuario. El primero
de ellos encaja las imágenes activas en los límites de
la pantalla, tanto la imagen de la red como el MDT,
si este está activo. La segunda opción permite
mediante un zoom denominado “de caja”, encuadrar Figura 158: Tipo de Zoom utilizables
la zona y el aumento que se produce es la relación existente entre las dimensiones de la caja
realizada con las de la ventana. La última herramienta va a permitir, activando la “rueda” del
ratón realizar un zoom continuo hacia el interior o exterior, dependiendo del sentido de giro
de la “rueda”.
Con este útil se puede desplazar la imagen para localizar las zonas de interés.
5.2.3.5.8.Configuración gráfica
Estas variaciones pueden ser útiles, fundamentalmente, cuando los colores del fondo del
MDT, según la gama de colores seleccionada, se superpongan con los colores de los
restantes elementos que configuran la red, no permitiendo ver con claridad dichos elementos,
evitando así que a la hora de seleccionar los puntos para variar sus posiciones hasta llegar a
un diseño óptimo, no existan incertidumbres.
También es útil para que aquellas visuales vinculadas al punto en situación de ubicar su
posición más óptima, aparezcan o desaparezcan en función del relieve de la zona sean
perceptibles por el usuario.
60
Acrónimo para definir en España la Línea de Alta Velocidad ferroviaría.
◦ Una vez diseñada la red exterior definir la mejor geometría para acometer la
red que permita con las mayores garantías, desde el punto de vista de la
fiabilidad y de la precisión, definir la estructura de las observaciones dentro
de los túneles.
◦ Es evidente que, una vez instaurados los hitos “de guarda” del marco de
referencia, el diseño no es útil, salvo para validar la geometría en función
del instrumental seleccionado.
En el año 1991 el ayuntamiento de Leganés decidió elaborar la cartografía del casco urbano
a escala 1/500 y, 1/1000 del resto del término municipal. Para lo cual, se estableció un
convenio de colaboración entre el Excelentísimo Ayuntamiento de Leganés y la Universidad
Politécnica de Madrid, y más concretamente, por aquél entonces, con la Escuela
Universitaria de Ingenieria Técnica en Topografía61, , para la ejecución de todos los trabajos
necesarios en dicho proyecto.
61
Escuela Técnica Superior de Ingenieros en Topografía, Geodesia y Cartografía, desde 2006
Evidentemente, debido a que los marcos de referencia planimétrico y altimétrico eran (y son)
diferentes, se diseñaron diferentes redes básicas de enlace con ellos.
Dicho sistema estaba materializado por las líneas de la Red de Nivelación de Alta Precisión.
Para este proyecto el punto de referencia altimétrico más próximo al término municipal de
Leganés estaba ubicado en Griñón (NPG 373). A partir de él se observó una línea de doble
nivelación hasta una estación de la red de itinerarios principales, cerca del vértice de la red
básica planimétrica Severo Ochoa (17). Desde el cuál se nivelaron todos los vértices de la
red básica planimétrica cuya ubicación estuviera en terreno natural y los clavos de la red
principal de itinerarios; ese conjunto de hitos formó la red básica altimétrica.
Dado que se diseñaron tres niveles de redes planimétricas, antes de llegar a la radiación de
los detalles, se determinó que la incertidumbre a posteriori con un factor de cobertura de
99,9% en planimetría no debería rebasar 0,050 m. Respecto a la desviación típica a posteriori
altimétrica, ésta estaba fijada en 0,050 m para todos aquellos puntos de la red básica
altimétrica.
La zona urbana, debido a los detalles de interés pero inalcanzables para la fotogrametría, por
la resolución, o por las zonas de sombra de los edificios, como del arbolado o por la propia
perspectiva de las edificaciones, precisó de la mediación de la topografía convencional para
resolver tales limitaciones.
62
Realmente el ajuste se realizó libre en escala, esto es, Aristrain como fijo y el acimut del mismo a Depósito 13
de Getafe y la escala la definió la distanciometría observada. Previamente se realizó un ajuste manteniendo
ambos vértices fijos y comprobando que las variaciones no eran significativas, pero si pudiendo comprometer la
incertidumbre final planimétrica de los puntos radiados.
Las características del instrumental utilizado para las observaciones angulares se exponen a
continuación, arrojando las siguientes desviaciones típicas a priori.
cc 30cc 4A
p 1 2cc , 2
A 100
scc
V acimutal
cc
5 cc
12
l 1cc , 3 cc
ccHz 2p 2V 2l 2d 2Hj Hz 5 , 6
cc
ISO D 5 mm 1 ppm 6 mm 11 mm
2
E 0, 5 mm
Dg ISO D E S Dj
2 2 2
Dg 11 mm
S 0, 5 mm
2
0, 0
Dj
[218]
Figura 165: Distribución aproximada de los vértices de la red básica respecto a la de los itinerarios de centrado forzado.
Figura 166: Muestra de una de las hojas de cartografía a escala 1/500 del municipio de Leganés.
274
6.1.3. Comparación de los resultados del ajuste con
los del diseño de la red
Tras la depuración de las observaciones realizadas en campo, se procede a realizar un ajuste
mediante mínimos cuadrados, con una aplicación diseñada al efecto. Una vez realizado el
ajuste se aplica el test de Baarda, comprobando que existen cinco observaciones (una de
distancia y cuatro de dirección) cuyos residuos tipificados denotan con una fiabilidad del
99,9%, que adolecen de errores groseros (capítulo 10.5).
Coordenadas ajustadas
Vértice Este m σE m Norte m σN m
1 433267.635 0.013 4467888.148 0.010
2 434582.775 0.010 4467918.291 0.010
3 435647.087 0.010 4467658.388 0.010
4 437605.418 0.010 4468258.821 0.010
5 434067.625 0.013 4466753.927 0.010
6 436750.960 0.010 4467029.861 0.010
7 432642.571 0.010 4466161.607 0.013
8 434939.562 0.007 4466251.777 0.007
9 437128.379 0.007 4465599.250 0.007
10 438691.011 fijo 4465852.137 fijo
11 430788.455 0.007 4464514.156 0.016
12 431865.416 0.010 4464827.553 0.013
13 433479.369 0.007 4464323.561 0.010
14 435061.444 0.007 4464701.057 0.007
15 436824.996 0.007 4464415.050 0.010
16 432281.838 0.010 4463709.585 0.013
17 434773.221 0.007 4463804.942 0.007
18 431475.349 0.010 4461875.230 0.016
19 432939.898 0.007 4461339.506 0.013
20 434535.342 0.013 4461911.116 0.010
21 435799.101 fijo 4462077.712 fijo
A tenor de los resultados obtenidos en el ajuste, una vez eliminadas las observaciones con
“errores groseros”, se comprueba que todas las desviaciones típicas a posteriori, con un
99,9% de fiabilidad cumplen las condiciones impuestas en el pliego de prescripciones
técnicas. Esta red será considerada en las siguientes comparaciones como red patrón y, por lo
tanto, sus coordenadas así como las desviaciones típicas obtenidas con un 99,9% de
fiabilidad.
Se introducen en la aplicación (Brújula) las coordenadas de los vértices de la red, así como
las teóricas visuales realizadas. Las posiciones son las mismas obtenidas en el ajuste y la
simulación de las visuales son las mismas que en su día se observaron; los resultados
obtenidos se muestran en las siguientes tablas; en la de la izquierda se representan los
números de redundancia, ordenados de mayor a menor y, por lo tanto, comprobando que
todos ellos están por debajo de los valores establecidos para una observación “bien
controlada”, según (Márquez, 2009).
Como se aprecia en la tabla adjunta (Figura 167) todos los números de redundancia se
mantienen por encima del 0,4, lo cual garantiza una fiabilidad alta sobre todas las
observaciones, y las estimaciones de las incertidumbres de los parámetros se mantienen por
encima de las condiciones establecidas en el PPT, manteniendo el factor de cobertura para
una fiabilidad, según una distribución normal, de 99,9%.
Las desviaciones típicas obtenidas en la fase de diseño han sido muy semejantes a las
obtenidas en el ajuste de la red. En concreto, salvo las incertidumbres marcadas en naranja
en la tabla, que superan los 4 mm el resto están todas en 2 mm o, incluso menos.
En este análisis, se valorará la diferencia entre la red diseñada y la que se podría haber
diseñado, de haber dispuesto de la herramienta desarrollada en los análisis de este estudio.
Para subsanar esta deficiencia de fiabilidad interna de la red, en dichas visuales, se plantea la
observación de las distancias recíprocas siguientes: 5-2, 6-4, 9-6, y 20-21. Una vez incluidas
Figura 170: Valores de desviaciones típicas a Figura 171: Valores de desviaciones típicas a
posteriori y números de redundancia de la red posteriori y números de redundancia de la red
optimizada. Marcados en naranja valores no fiables optimizada una vez aumentada la fiabilidad de
algunas visuales.
Una vez realizados los diseños de ambas redes, la observada (red modelo) y ajustada con la
optimizada según los condicionantes ya expresados, y comparar sus desviaciones típicas a
posteriori con un factor de cobertura correspondiente a una fiabilidad de 99,9%, mantienen
valores muy semejantes, tal y como puede apreciarse en la Tabla 19:
Tabla 19: Valores de desviaciones típicas a posteriori en el diseño de la red modelo y la optimizada.
Al tener menor redundancia la red optimizada que “la red modelo”, las dimensiones de las
elipses de error serán mayores, pero se mantienen inferiores a los límites impuestos en el
PPT.
Por lo tanto, queda de manifiesto, en cuanto a la fase de diseño, que la utilidad de los
criterios de la técnica de “prueba y error” hubiese permitido optimizar recursos debido a la
reducción de catorce vértices de la red básica.
Tras esta última comparación, para valorar el grado de eficacia de la aplicación “Brújula” y,
por tanto, parte de los principios expresados en la presente tesis, se aprecia que una red
diseñada previamente a su observación puede optimizar los recursos en un proyecto
topográfico, aún sin tener presente el MDT, el cambio de instrumental y la ubicación idónea
de los vértices que constituyen la red.
Diferencia de Coordenadas
Vértice Este (m) Norte (m)
1 -0.006 -0.008
2 -0.006 -0.004
4 0.006 0.005
5 0.000 -0.005
6 0.009 0.006
9 0.001 0.006
10 0.000 0.000
13 -0.003 -0.005
14 0.001 -0.001
20 0.004 -0.002
21 0.000 0.000
Tabla 21:Diferencias entre las coordenadas ajustadas de la “red modelo” y la red optimizada “ajustada”.
El proceso de auscultación de los carriles de las líneas de alta velocidad, para su puesta en
producción se produce, bien en la fase de ejecución de la obra o bien en las tareas de
mantenimiento a las que está sometidas estas superestructuras cuya posición geométrica debe
ser muy precisa. Por lo tanto, es una tarea que suele ser bastante frecuente.
Una de las metodologías existente para la realización de este proceso de auscultación está
basada en el siguiente planteamiento. (Soler García & Roca Novoa, 2008)
Una vez determinada las posiciones tridimensionales de los vértices de la red de hitos, se
procederá a instaurar los puntos exteriores, piquetes. Para determinar sus coordenadas
rectangulares planas se utilizarán metodologías de topografía clásica, radiación doble y
nivelación geométrica.
Red de piquetes
Clavo de nivelación
El instrumental que se deberá emplear en esta fase de la observación deberá tener las
siguientes características, medida de ángulos 0,1mgon , medida de distancias
D (2mm 2 ppm) , medida de desniveles:
Para que la precisión en la radiación sea más elevada, se realizará con un “miniprisma”
ubicado en la marca sobre el piquete. Posteriormente, las coordenadas se obtendrán mediante
media ponderada.
Una vez determinada las posiciones de los piquetes (o bulones), se procede al replanteo de
los raíles de la vía mediante el método de coordenadas absolutas, para lo cual se deberá
disponer de un instrumento registrador de las anchuras relativas de los carriles, así como de
un medidor de peraltes, sensor de inclinación longitudinal, portaprisma y prisma para la
medición de distancias con estación total de precisión y odómetro. Este método está basado
en la determinación tridimensional de la posición de los carriles de la vía en determinados
intervalos de espacio, para que posteriormente la bateadora comparando la geometría real,
con la posición de proyecto coloque las vías en el lugar correcto. Por lo tanto, no consiste en
un verdadero método de replanteo desde el punto de vista estricto de la topografía, más bien
es un levantamiento de la geometría de la vía en ciertos intervalos. Por esa razón al
instrumento registrador de la geometría se le conoce como “carro auscultador” (Figura 174).
Para que las intersecciones inversas, y por lo tanto las coordenadas de las sucesivas
estaciones, sean más precisas y respondan a una geometría más homogénea es conveniente
observar solapados los primeros y últimos piquetes, tal y como aparece en la Figura 176.
Cuando el carro auscultador se aleja de la estación robotizada, para que este no se detenga,
es conveniente que ya se encuentre posicionada una segunda estación robotizada, y así poder
disponer de una zona de solape y contrastar la posición de los puntos comunes del carro
auscultador, lo que permitirá determinar cualquier anomalía en la geometría, bien de los
piquetes, bien de las coordenadas de las estaciones.
Una vez registras las posiciones de los carriles de una determinada zona, los parámetros
obtenidos se introducen en un formato digital concreto en el ordenador de la bateadora
(Figura 177), para que ésta una vez posicionada, compare las posiciones real y teórica,
mediante levantes y ripados sitúe las vías en la posición definida en proyecto. Esta
operación se realiza las veces necesarias, y nunca menos de cinco, hasta conseguir las
tolerancias métricas establecidas en el pliego de prescripciones técnicas (Tabla 22).
Dado que las líneas de ferrocarril discurren, normalmente entre trincheras y terraplenes,
podría aprovecharse dicha situación para que en las zonas de trincheras, no muy elevadas,
los estacionamientos se realizaran sobre ellas. Esto aumentaría el campo de visión
permitiendo prolongar en el espacio el seguimiento al carro auscultador. Para poder realizar
esta variación habría que diseñar a priori las zonas aproximadas donde se podría realizar los
estacionamientos libres. Si, además se dispusiera de la cartografía de la zona, bastante
probable, se realizaría el diseño con el MDT del terreno, que en este caso coincidiría con el
MDS.
El ámbito del proyecto comienza con un túnel de 1180 m, que se denomina, Corga da Vela.
La salida del mismo enlaza sobre un viaducto de 260 m y a continuación entronca con otro
túnel de 7550 m. Por lo tanto la longitud total del tramo es de aproximadamente 9000 m.
Debido a la fecha en la que se redactó el proyecto el sistema de referencia en el que estaba
definida su geometría fue ED50 con proyección UTM y huso 29.
Zona 2 Zona 3
Debido al sistema de referencia, el marco quedó definido por las bases del proyecto. Estas
dieron escala, orientación y origen. En definitiva, fueron el marco de referencia al que ajustar
toda la ejecución de la obra, dado que lo fueron para la ejecución de la cartografía y, en
consecuencia a la redacción de la geometría del proyecto.
El enlace de las tres zonas de actuación se realizó mediante técnicas GNSS, manteniendo
fijas las bases de proyecto y los vértices de la zona anterior al túnel de Corga da Vela, dado
que estaba en fase de producción, lo mismo que en la zona oeste, esto es en la salida del
túnel de Prado.
Una vez situados los vértices de enlace y futuros soportes geométricos para transmitir la
orientación, escala y geometría a los túneles se observaron, como ya se ha comentado,
mediante técnicas GNSS, pero atendiendo de una manera aproximada a la mejor geometría
respecto a las técnicas de observación convencional. Este hecho es de gran relevancia, dado
que la trasmisión de la geometría de la obra se realizaría, como es lógico, mediante dichas
técnicas. Aquí hubiera sido de gran interés haber realizado un estudio de diseño más
exhaustivo de la fiabilidad de la geometría, así como de la trasmisión de las varianzas
(incertidumbres) a lo largo de los túneles.
La zona de estudio, en la presente tesis, hace referencia tan solo a la denominada zona 2, la
más conflictiva, puesto que era la ubicación donde debería ejecutarse el viaducto y la zona
de inicio de los cuatro túneles; por lo que en 250 m de longitud del trazado se deberían
instalar los vértices del control para el cale de dos túneles y en una zona de gran desnivel,
dado que es donde deberían ejecutarse un viaducto.
Debido a la orografía tan abrupta, las ubicaciones de los hitos del marco de referencia que
debían enlazar con las bases de proyecto y el resto de vértices en las zonas 1 y 3, estaba muy
condicionada, no teniendo gran libertad a la hora de elegir sus disposiciones.
Aunque en la Figura 180 aparecen los vértices del marco de referencia para la ejecución de
los túneles estos no se ubicaron hasta la explanación de los dos emboquilles.
Una vez realizada las explanaciones para comenzar el trabajo de guiado de los “jumbos” 63 se
debería realizar el proceso de diseño de la geometría más óptima de los vértices del
mantenimiento de la geometría en el interior de los túneles. En este capítulo, se procederá a
efectuar dicho estudio para comparar las posiciones de los vértices ubicados, tanto en el
exterior como en el interior de los túneles.
63
Maquinaria que posibilita realizar barrenos siendo guiada para tal función.
El número de hitos que se fabricaron para enlazar las tres zonas de actuación del proyecto
fue el siguiente:
Zona 1: BR1 y BR4 de proyecto. Hitos del siguiente tramo, H14 y H15 de otro proyecto,
anterior y los de nueva implantación, H13 y H16. Posteriormente se densificaría la red con
H20, H21, H22, H23, H24, H25 y H26.
Zona 2: BR2, base de proyecto. H4, H5, H6, H7, H8, H9, H10, H11, H12, H17 y H18 de
nueva construcción.
Zona 3: H1C, H2C y H3C, del tramo anterior y de nueva implantación, H1, H2, H3, H27,
H28, H29 y H30.
Una vez ajustadas las observaciones realizadas mediante GNSS, manteniendo como marco
de referencia los hitos de los tramos anterior y posterior, junto a las tres bases de proyecto, se
procedió a la reobservación de las redes mediante técnicas de topografía convencional, para
comprobar escalas y geometría de las mismas. En esta situación es donde se va analizar las
precisiones obtenidas mediante las observaciones GNSS y las obtenidas mediante el diseño
con el método de “prueba y error” aplicándola sobre la zona 2.
Figura 181: Zona 2. Túnel de Prado- Este con curvas de nivel del terreno una vez explanado.
Debido a que, en la zona anterior y posterior ya estaban en la fase de producción, hubo que
mantener los mencionados hitos como marco de referencia y, por supuesto, también debido a
que no producían distorsión en el ajuste al mantenerlos fijos.
La técnica para la ejecución de los túneles fue el denominado “Nuevo Método Austriaco”,
N.A.T.M. (“New Austrian Tunneling Method”), en el cual, primero se realiza la excavación
en parte de la sección, denominado “avance”, y una vez terminada esta primera sección se
realiza la segunda fase denominada “destroza”, concluyendo la sección completa de
excavación. Aunque también se puede realizar a plena sección. Una vez revestido el túnel
mediante gunita64 y/o cerchas así como también la utilización de bulones.
Figura 182: Zona 2. Túnel de Prado-Este. Fotografía Figura 183: Zona 2. Túnel de Prado-Este. Fotografía
de un “jumbo”. de un “jumbo” con equipo de topografía.
Debido a que el encofrado de los túneles se realiza posteriormente al cale y a que también la
perforación se produce mediante explosivos, estos producen que el perfilado de sección no
sea homogéneo, permitiendo cierta tolerancia en la precisión de las consolas.
64
Hormigón proyectado.
Verificar la precisión del diseño geométrico tomando como base las consolas de los túneles
de Prado-oeste.
Comprobar la ayuda de disponer de un MDS o MDT para el diseño de las redes de enlace
situados en los emboquilles.
Partiendo del MDT del IGN, se comprueba que su utilización no aporta ningún tipo de ayuda
dado que el terreno representado en el modelo es anterior a la explanación y, por lo tanto, es
inútil intentar establecer un diseño, dado que las visuales en el terreno natural son imposibles
de realizar.
Figura 185: MDT de los taquimétricos en la zona 2 del proyecto con la red de hitos (Brújula)
Los hitos se diseñaron con diferente material en función del tipo de terreno donde se
emplazaban, pudiendo ir desde un tubo de fibrocemento con solera de hormigón hasta
estructuras más voluminosas y complejas.
El instrumental seleccionado para realizar tanto las observaciones de la red externa con las
interiores de los túneles fue de la marca Trimble, modelo S8 (Figura 27) junto con el sistema
de estacionamiento de centrado forzado que permitía obtener desviaciones típicas a priori
para distancias de 100 m los siguientes valores:
cc 30cc 4A
p 1 100 2 , 2
cc
A
s cc
cc V acimutal 0, 5cc
12
2 3 cc
cc
ccHz p V l d Hj
2 2 2 2
l Hz 3 , 6
cc
2E 2S cc
cc r 3cc
d
D VE
j cc
H j V r 0
cc cc
DE
ISO D 0, 8 mm 1 ppm 0, 8 mm
E 0, 5 mm
Dg 2ISO D 2E S2 2Dj Dg 1, 5 mm
S 0, 5 mm
2
0 , 0
Dj
Todas las desviaciones típicas que se obtengan en los supuestos anteriores estarán simuladas
con un factor de cobertura del 98%, según una distribución normal.
Es muy importante analizar las desviaciones típicas en las consolas iniciales de los túneles
para comprobar la fiabilidad interna de las visuales proyectadas, esto permitirá valorar la
dependencia de las desviaciones típicas a posteriori del resto de consolas (Figura 187).
En esta simulación se aprecia que las desviaciones típicas a posteriori en las cuatro primeras
consolas se puede fijar alrededor de ± 5 mm .
Figura 188: Simulación de la red interior del túnel derecho hasta la mitad de la perforación (Prado).
Es muy importante analizar la fiabilidad de las visuales que van a trasmitir el marco de
referencia al interior del túnel. Se puede comprobar que los números de redundancia de las
primeras visuales han aumentado. Esto quiere decir que se han “robustecido” al aumentar la
redundancia total de la red. Este robustecimiento indica que en el caso de producirse un error
grosero, éste es más fácilmente detectable que en caso anterior. Por lo tanto, es interesante,
en un principio, desde el punto de vista de la fiabilidad interna de la red que la redundancia
aumente.
Con esta simulación se puede predecir que en las consolas situadas en la mitad del túnel
(consola 38) presentarán las siguientes desviaciones típicas:
E 0, 073 m
N 0, 008 m
E 0, 059 m
N 0, 005 m
Figura 189: Simulación de las redes interiores de los dos túneles (Prado).
En una primera fase del diseño de la red, se pueden considerar fijas las posiciones de los
testigos y así determinar en zonas estables, las mejores ubicaciones en cuanto a geometría
del futuro marco de referencia, también la cantidad de hitos que lo configuren; igualmente es
de sumo interés la geometría entre el marco y los propios testigos.
Para este proyecto experimental se ha seleccionado la presa de Beleña, sobre el río Sorbe. La
presa está ubicada en los términos municipales de Cogolludo y Tamajón, en la provincia de
Guadalajara, a unos 450 m aguas arriba de Beleña de Sorbe.
El tipo de presa es de gravedad de materiales sueltos y con núcleo arcilloso. Fue inaugurada
en 1982 para abastecer de agua potable a los municipios de la mancomunidad de Aguas del
Sorbe y de la mancomunidad de Aguas La Muela.
65
SEPREM. Sociedad Española de Presas y Embalses. http://www.seprem.es/
Seguidamente, una vez ubicados los vértices de la red de control, se determinarán los
números de redundancia de todas las posibles observaciones diseñadas, así como las
desviaciones típicas a posteriori en las coordenadas de los testigos, comparando éstas con las
descritas en el pliego de prescripciones técnicas. Se estudiará igualmente el tipo de
observación, ángulos o ángulos y distancias. Estos pasos se realizarán en los dos diseños que
seguidamente se exponen.
Se han realizado varios diseños con dos geometrías diferentes, pero manteniendo siempre un
factor de cobertura de 99,5% para una distribución normal.
Primer diseño.
La realización de este primer diseño parte con la ubicación de fija de los testigos,
planimétricos, con el MDT (IGN), con las características de un instrumental estándar en este
tipo de trabajos y con una posición aproximada de los vértices de la red. Las características
del instrumental se podrán variar al final del diseño, optando por el más idóneo. El tipo de
centrado tanto en los testigos como el de los vértices, en este caso, viene ya definido; aunque
también se podría determinar en la fase de diseño.
Mediante la aplicación “Brújula” y, partiendo de las posiciones fijas de los testigos se parte
del supuesto de ubicar cuatro vértices de la red de control. Dada la orografía de las
inmediaciones a la presa, existe una zona totalmente inhábil para situar cualquier tipo de
vértice con garantías de visibilidad, la garganta del cauce del río. Esto obliga a situar a
ambas laderas los hitos de la red de control, el número mínimo de señales sería de dos, una
en cada ladera, evidentemente esta solución no sería adecuada, dado que las precisiones en
las posiciones de los testigos no serían las deseables y tanto su fiabilidad como la de red
serían muy baja.
El siguiente número para vértices fijos podría ser de tres, en esta situación la redundancia
aumenta y, por la tanto, la fiabilidad y la precisión. Pero la distribución debería ser con un
vértice en una ladera y en la opuesta dos, lo que originaría que las intersecciones entre los
dos de la misma ladera generaría una geometría poco precisa y nada fiable. También
importante reseñar, como se ha dicho anteriormente, los estudios de auscultación son
temporales y consecuentemente. Si se deteriorara un hito o desapareciera, el marco de
referencia tendría pocas posibilidades de aumentarse, si los que se conservan son los dos de
la misma vertiente, lo que generaría la perdida de la secuencia temporal de la auscultación.
En consecuencia el número de hitos que deben constituir la red ha de ser, de al menos cuatro,
siempre y cuando su geometría garantice unos mínimos de precisión y fiabilidad. Es evidente
que se podría diseñar una red con cinco o, incluso más, pero esto no garantizaría mucha
mayor precisión y si aumentaría el coste de las observaciones temporales.
Con estas condiciones iniciales de contorno se van buscando, mediante el método de “prueba
y error”, las distintas posiciones de los emplazamientos de los hitos. Se podría decir, que
mediante “tanteo”, pero atendiendo a valores muy específicos e importantes como son la
fiabilidad de las posibles observaciones, así como las desviaciones típicas esperadas con
dicha geometría en las posiciones de los vértices.
66
Se ha seleccionado la magnitud de 1 mm en la incertidumbre de la señal debido a que su sistema no es
estrictamente de centrado forzado en la posición del prisma. Ver Figura 199
Figura 198: Distribución de los testigos Figura 199: Sistema de Figura 200: Sistema de
(1, planimétrico y 2, altimétrico). centrado de señal para
centrado.
medición de longitudes.
La posición del testigo 28 obliga, para aumentar la precisión en su posicionamiento, a
condicionar demasiado las posiciones de los cuatro vértices. Otro gran condicionante son los
cinco testigos en la berma, 28, 29, 30, 31 y 32, debido a su baja posición respecto de la
coronación.
Las posiciones obtenidas con la aplicación tras diferentes posicionamientos de los cuatro
vértices de la red son las siguientes:
Tabla 24:Coordenadas de los vértices de la red de control obtenidas con la aplicación Brújula
Tras determinar las posiciones de los cuatro vértices de la red de control se deben analizar
los mismos valores, pero invirtiendo la situación. Esto es, los hitos de la red de control
pasarán a ser los puntos fijos y los testigos, los puntos a ajustar, situación habitual en cada
sesión que se realice en las series temporales.
Los resultados obtenidos en el diseño y, por lo tanto, situación similar a cuando se realicen
las observaciones de auscultación, son los que aparecen en la Tabla 25.
Una vez determinada la posición óptima de los vértices de la red de control y situados por
coordenadas en una imagen de Iberpix, se comprueba que la situación del hito 5003 y 5004
pueden tener problemas de visibilidad, no por la altura, sino por la vegetación. Esta situación
plantea la posibilidad de que la aplicación permita incluir en la fase de diseño la
visualización de ortofotos, se verá en al apartado 8.4.
Figura 202: Primer diseño. Red de control sobre una imagen de Iberpix.
AJUSTE 1º DISEÑO
σE σN σE σN Dif. Dif.
Testigo (m) (m) (m) (m) (m) (m)
1 0.006 0.008 0.003 0.004 0.003 0.004
3 0.006 0.008 0.003 0.003 0.003 0.005
7 0.003 0.003 0.003 0.003 0.000 0.000
9 0.006 0.006 0.003 0.003 0.003 0.003
11 0.006 0.006 0.003 0.003 0.003 0.003
13 0.003 0.003 0.003 0.003 0.000 0.000
15 0.003 0.003 0.003 0.003 0.000 0.000
17 0.003 0.003 0.003 0.003 0.000 0.000
19 0.003 0.003 0.003 0.003 0.000 0.000
21 0.003 0.003 0.003 0.003 0.000 0.000
23 0.003 0.003 0.003 0.003 0.000 0.000
25 0.003 0.003 0.003 0.003 0.000 0.000
27 0.003 0.003 0.004 0.004 -0.001 -0.001
28 0.006 0.006 0.004 0.005 0.002 0.001
29 0.003 0.003 0.003 0.003 0.000 0.000
30 0.006 0.006 0.003 0.003 0.003 0.003
31 0.006 0.008 0.003 0.003 0.003 0.005
32 0.003 0.003 0.003 0.003 0.000 0.000
Tabla 26:Desviaciones típicas a posteriori del ajuste de campo y
las obtenidas en el primer diseño.
Figura 204: Números de redundancia y
elipses de error.
Por lo tanto, se plantea la posibilidad de un segundo diseño evitando las zonas arboladas y en
el mismo, plantear la posibilidad de utilizar exclusivamente observaciones de dirección.
Una vez diseñada las nuevas posiciones de los cuatro vértices de la red de control (Tabla 27),
y manteniendo fijas las posiciones de los mismos, se analizan la redundancia de las
observaciones y las desviaciones típicas esperables en las coordenadas de los testigos.
Se puede comprobar que las desviaciones típicas a posteriori de los vértices de la red de
control son análogos a los obtenidos en el anterior diseño (Tabla 28), pero evitando los
emplazamientos de los hitos en las masas arbóreas, según imagen de la ortofotografía. Este
problema sería evitable si se dispusiera del MDS de la zona.
Seguidamente se posicionan sobre Iberpix las nuevas coordenadas obteniéndose los valores y
posiciones que se pueden apreciar en las siguientes figuras, Figura 205 y Figura 206 y en la
Tabla 27.
σE σN σE σN σE σN
Testigo Testigo Testigo
(m) (m) (m) (m) (m) (m)
1 0.002 0.004 15 0.003 0.002 27 0.002 0.003
3 0.002 0.003 17 0.003 0.002 28 0.004 0.003
7 0.002 0.003 19 0.003 0.002 29 0.003 0.002
9 0.002 0.003 21 0.003 0.003 30 0.003 0.002
11 0.003 0.003 23 0.003 0.003 31 0.003 0.002
13 0.003 0.002 25 0.002 0.003 32 0.003 0.003
Si se selecciona un instrumento del tipo TC2002 (Leica) sin realizar medida de distancia,
dado que como se ha dicho ésta es la tarea más costosa, puesto que un ayudante ha de ir
cambiando el prisma por todos los testigos en cada estacionamiento de los vértices de la red,
los resultados pueden mejorar de una forma ostensible, dado que la incertidumbre en la señal
se estimará nula. Esto es debido a que las señales no hay que volver a materializarlas de una
auscultación respecto de la anterior o siguiente.
Con este nuevo diseño se obtienen en algunos testigos unas desviaciones típicas a posteriori
inasumibles en proyectos de auscultación. El testigo 28 es solo interceptado desde los hitos
5001 y 5002, por lo que al tratarse de una intersección angular el resultado no tiene
comprobación y, por lo tanto, no es factible la metodología, al menos en éste testigo. Los
testigos 29, 30, 31 y 32 son visibles desde los cuatro hitos de la red y las desviaciones típicas
esperadas, en sus coordenadas, son semejantes a los restantes testigos de la coronación de la
presa.
Previamente conviene valorar las posiciones relativas entre los vértices de diseño con la
ubicación real de los mismos desde los que se observan periódicamente a los testigos,
mediante visuales de dirección y de distancia.
Tabla 29: Diferencia de coordenadas entre las posiciones de los hitos en el segundo diseño con las del ajuste.
Puede verse en la información sobre puntos y observaciones (Figura 208), que los números
de redundancia de las visuales al testigo 28 son cero y muy
próximos a cero los de las visuales a los testigos 1 y 32. En
cuanto a las desviaciones típicas a posteriori de los
testigos, puede apreciarse que salvo el número 28 el resto
de testigos mantienen valores muy semejantes a los
obtenidos realizando observaciones de dirección y
distancia.
La primera comparación cuyo resultado que se obtiene nada más estacionar es la visibilidad
desde los hitos. Por esta circunstancia se dejaron de realizar las siguientes visuales:
Desde el pilar 5003 no hay visibilidad con las señales de puntería nº 1, 28, 29 y 30.
Desde el pilar 5004 no hay visibilidad con las señales de puntería nº 1, 3, 28, 29 y 30.
En los dos diseños realizados la posición de los hitos no es la misma, hubo también una serie
de visuales, que según la aplicación con el MDT, no eran realizables:
Para establecer relaciones entre los dos diseños, cuatro si se atiende a las dos variaciones del
segundo, es determinante la comparación de las desviaciones típicas a posteriori en cada
caso respecto de las obtenidas en el ajuste, todas ellas con un factor de cobertura del 99,5%,
según una distribución normal. Como es lógico las comparaciones en este caso no son del
todo rigurosas, dado que las geometrías, aunque muy semejantes, no son idénticas en lo que
respecta a la estructura de los hitos de la red de control.
2ª Diseño Solo
Ajuste 1º Diseño 2º Diseño ángulos 2º Diseño mixto
Testigo E (m) N (m) E (m) N (m) E (m) N (m) E (m) N (m) E (m) N (m)
1 0.006 0.008 0.003 0.004 0.002 0.004 0.003 0.005 0.002 0.004
3 0.006 0.008 0.003 0.003 0.002 0.003 0.002 0.004 0.002 0.004
7 0.003 0.003 0.003 0.003 0.002 0.003 0.003 0.004 0.003 0.004
9 0.006 0.006 0.003 0.003 0.002 0.003 0.003 0.003 0.003 0.003
11 0.006 0.006 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003
13 0.003 0.003 0.003 0.003 0.003 0.002 0.003 0.003 0.003 0.003
15 0.003 0.003 0.003 0.003 0.003 0.002 0.003 0.003 0.003 0.003
17 0.003 0.003 0.003 0.003 0.003 0.002 0.003 0.003 0.003 0.003
19 0.003 0.003 0.003 0.003 0.003 0.002 0.004 0.003 0.003 0.003
21 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003
23 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.004 0.003 0.004
25 0.003 0.003 0.003 0.003 0.002 0.003 0.003 0.004 0.003 0.004
27 0.003 0.003 0.004 0.004 0.002 0.003 0.003 0.004 0.003 0.004
28 0.006 0.006 0.004 0.005 0.004 0.003 0.015 0.005 0.004 0.003
29 0.003 0.003 0.003 0.003 0.003 0.002 0.003 0.003 0.003 0.003
30 0.006 0.006 0.003 0.003 0.003 0.002 0.004 0.003 0.003 0.002
31 0.006 0.008 0.003 0.003 0.003 0.002 0.003 0.003 0.003 0.003
32 0.003 0.003 0.003 0.003 0.003 0.003 0.004 0.003 0.003 0.003
7. CONCLUSIONES
A través de los resultados obtenidos, tras el estudio y desarrollo, tanto en el presente
documento como en la aplicación informática “Brújula”, se ha llegado a las siguientes
conclusiones:
Una vez analizadas las técnicas para la optimización del diseño de redes topográficas, en dos
dimensiones mediante observaciones convencionales, se han estudiados los modelos
matemáticos, seleccionando uno de ellos, “prueba y error”, para su desarrollo mediante
algoritmos en una aplicación informática.
Mediante el estudio de los parámetros de los ajustes por mínimos cuadrados se han deducido
y comprobado aquellos de los que depende el diseño. Se ha constatado que, tanto en la
simulación de redes, como en el diseño óptimo, los parámetros que se han de tener en
consideración son:
Determinados los parámetros de los que depende el diseño y definidas la expresiones que los
regulan, se ha analizado la metodología pormenorizadamente del método “prueba y error”,
para desarrollar los algoritmos necesarios y su programación dentro de una aplicación
informática.
Proceso iterativo laborioso sin poder predecir la visibilidad de las visuales diseñadas,
salvo que se realice el arduo trabajo del cálculo de los perfiles transversales de todas
las visuales en cada uno de los supuestos diseñados.
Diseño de las redes teniendo presente los modelos matemáticos en los que se basa
dicha técnica y, que las posibles soluciones sean en tiempo real, evitando el proceso
iterativo largo, tedioso y demasiado limitado para obtener múltiples diseños
alternativos.
Variación de las características del instrumental en tiempo real, así como el método de
estacionamiento, pudiendo diseñar las alternativas.
Para validar ésta técnica y herramienta se han realizado cuatro ensayos, donde se comprueba
el ahorro de medios materiales y humanos en los mismos y, consecuentemente costes.
Los ámbitos de utilización de esta metodología son y pueden ser muy variados pero las
garantías que aporta en precisión y fiabilidad antes de comenzar cualquier campaña de
observación la debería hacer imprescindible en cualquier proyecto de topografía.
Con este estudio ayudado con la aplicación desarrollada no se ha pretendido eliminar las
fases necesarias de reconocimiento sobre el terreno, para la ubicación óptima de los vértices,
pero si minimizar el número de ellas y, lo más importante, garantizar las precisiones finales y
la fiabilidad de las observaciones.
8. PROYECTOS FUTUROS
Todo documento, esta tesis también, debe tener un final, o mejor, un punto y seguido. En el
apartado anterior se ha llegado al punto, el seguido es el actual capítulo y será la
materialización de las siguientes ideas y técnicas para dar continuidad a los desarrollos y
estudios realizados en la presente tesis.
A continuación, se abordan las bases de las “supuestas” mejoras, al menos las teorías
continuistas en las técnicas del diseño de redes topográficas o geodésicas. Es importante
resaltar como desarrollos teóricos, en esa faceta sí han evolucionado, pero según un aspecto
práctico no se han “descubierto” aplicaciones que recojan tan siquiera el método de “prueba
error”.
Shalong Kuang en su libro Geodetic Network Analysis and Optimal Design: Concepts and
Applications (Shanlong, 1996), establece las bases del desarrollo teórico para establecer el
diseño analítico de una red topográfica o geodésica, es cierto que en una primera
aproximación hace referencia “al tradicional método de prueba y error”67 basándose en los
pasos establecidos por numerosos autores, pero solo desde una perspectiva teórica.
Es evidente que la metodología de diseño de redes es una técnica de tanteos, pero basada en
planteamientos teóricos, comprobados, fiables y, lo más importante, de gran ayuda al
ingeniero responsable de definir los marcos de referencia en situaciones de gran
responsabilidad técnica, en grandes proyectos de ingeniería, desde el punto de vista
económico y, en otros en los que su característica principal no son las dimensiones, pero si la
obtención de resultados altamente precisos.
El enfoque convencional para el diseño de redes ha sido utilizado por ingenieros técnicos en
Topografía e ingenieros en Geodesia y Cartografía desde hace “tiempo” y sigue siendo
ampliamente utilizado hoy en día.
Uno de los argumentos citados por el anterior autor hace referencia a que el diseño de redes
mediante el método de “prueba y error” lo plantea en el segundo orden de diseño (SOD),
donde hace cita “…se realiza habitualmente, en los que el diseñador tiene que añadir o
eliminar algunos de los observables propuesto inicialmente de forma manual, a
continuación, calcular y comparar la calidad de la red resultante con los criterios
preestablecidos. Esto se realiza iterativamente hasta que la calidad de la red cumple con los
criterios. El éxito de la "prueba y error" es en gran medida depende de las experiencias y el
conocimiento del diseñador.”
El autor anteriormente mencionado presupone que el diseño de una red se abordará de forma
manual, como asevera en el párrafo anterior. Se ha intentado demostrar que no es del todo
cierto, con la aplicación desarrollada conjuntamente a este documento.
67
Desde la perspectiva histórica es tradicional, pero su desarrollo completo no se ha visto reflejado en ninguna
aplicación informática.
proceso de resolución puede ser automatizado completamente con el ordenador sin necesidad
de intervención humana.
Para plantear el enfoque analítico para el diseño óptimo de una red, se supone que ésta es de
tipo tridimensional, partiendo de unas posiciones iniciales tales que, se considerarán
aproximadas X0i , Yi0 , Z0i ,i 1,...,m .
En cuanto a las soluciones de los pesos de las observaciones, se puede comenzar con un
conjunto de pesos aproximados Pi i 1,...,n , y a continuación, introducir incrementos
0
Las posiciones finales de los vértices y los pesos óptimos se obtendrán mediante la adición
de la solución óptima para los incrementos a sus correspondientes valores iniciales de la
siguiente manera:
X i X0i x i
Yi Yi0 y i i=1,...,m
Z i Z z i
0
i
Una solución es idónea para estos parámetros si cumple los criterios de optimización
adoptados para definir la calidad de la red y es físicamente realizable. Con el fin de resolver
de forma analítica los incrementos, el problema principal es cómo acercar a los criterios de
calidad en una formulación matemática. Esto es, establecer la relación explícita entre los
criterios de diseño preestablecido de precisión, fiabilidad y el coste y los parámetros
desconocidos a ser optimizados. Se llevará a cabo, en este capítulo utilizando la técnica de la
desarrollo en serie de Taylor para "linealizar" como se verá más adelante, las matrices de
redundancia y de covarianzas.
x 20 A T PA
1
[220]
En este caso, las fórmulas de las derivadas parciales de la matriz varianza-covarianza con
respecto a las coordenadas de las estaciones y observaciones ponderadas son las
simplificadas a continuación:
x 1 A A T
T
20 A T PA A PA
1
PA A T P
X i X i X i
x 1 A A T
T
20 A T PA A PA
1
PA A T P
Yi Yi Yi
x 1 A A T
T
20 A T PA A PA
1
PA A T P
Z i Z i Z i
x 1 P T
20 A T PA A T A A PA
1
Pi Pi
[221]
R Q A A T PA DDT A T I A A T PA DDT
1 1
A TP
[222]
m R
R R0 Xi
1 X
i
[223]
R Q A A T PA A T I A A T PA
1 1
A TP
[224]
m R m R m R m R
R R0 Xi Yi Z i Pi
1 X 1 Y 1 Z 1 P
i i i i
[225]
Donde:
R0 I A A T PA A T P X0 , Y0 , Z0 ,P0
1
[226]
Las derivadas parciales de la matriz R con respecto a las coordenadas de las estaciones y
respecto al peso de las observaciones son las siguientes:
R A 1 A
T
1 A
T
A T
A T PA A T P A A T PA P A A T PA A PA A P
1 1
PA A T P T
[227]
R A T 1 A
T
1 A
T
A T
A PA A T P A A T PA P A A T PA A PA A P
1 1
PA A T P T
[228]
R A 1
A TPA A TP A A TPA AZ P A A TPA AZ PA A TP ZA A TPA A TP
T T
1 1 1
Zi Zi i i i
[229]
R 1 P T P
A A T PA A T A A PA A T P A A T PA A T
1 1
pi p i pi
[230]
[231]
La fiabilidad de una red será tanto mayor cuanto menores sean las variaciones que
provoquen sobre las coordenadas estimadas y los errores advertidos en las observaciones.
Por tanto, será tanto mayor, cuanto más pequeño sea error que puede pasar inadvertido, en el
conjunto de las observaciones realizadas.
R0 I A A T PA A T P
1
m m
[233]
Donde r0ii representa el valor inicial de cada uno de los números de redundancia, r ii su valor
tras la optimización y rm su valor medio, con el que habrán de coincidir para lograr ésta.
Eventualmente, puede ocurrir que no sea posible alcanzar este mínimo absoluto, y sí
aproximar tanto como sea posible los números de redundancia a su valor medio.
Donde R representa una matriz cuyos elementos son las variaciones de los elementos de R,
y Xi es el vector con las variaciones de las coordenadas (genéricas). En un proceso
iterativo, se irían determinando nuevas versiones de R hasta cumplir la función objetivo
deseado:
m R
R R0 Xi
1 X
i
[235]
Para una red planimétrica y tomando como sistema de coordenadas un sistema cartográfico
(E, N), la expresión de la ecuación [235] toma la forma:
m R m R m R m R m R
R R0 Ei Ni i Pi
1 E 1 N 1 1 P
i i i i 1
0 0
[236]
R A 1 A 1 A
T
A T T
A T PA A T P A A T PA P A A T PA A PA A P 0
1 1
PA A T P T
Ei Ei i i i
[238]
R A 1 A
T
1 A
T
A T
A TPA A TP A A TPA P A A TPA A PA A P
1 1
PA A TP T
R A 1 A
T
1 A
T
A T
A PA A TP
1 1
A T
PA A T
P A A T
PA P A A T
PA PA A T P
E j E j E j E E j
j
[240]
R A 1 A 1 A
T
A T
T
A T PA A T P A A T PA P A A T PA A PA A P
1 1
PA A T P T
N j N j N j
N j N j
[241]
R A T 1 A 1 A
T
A T T
A PA A T P A A T PA P A A T PA A PA A P 0
1 1
PA A T P T
[242]
R A 1 A
T
1 A
T
A T
A T PA A T P A A T PA P A A T PA A PA A P 0
1 1
PA A T P T
Ahora bien, la matriz de diseño “A” estará formada por los coeficientes de correspondientes
a las ecuaciones de observación y de distancia: recordando las ecuaciones [121] y [122]
Ecuación de dirección:
rcc E E
Nj Ni Ej Nj Ni Ei Ej Ei Ni Ej Ei Nj i' i' LHzij rcc j i
N N
D
2
j'
i' j i
Ecuación de distancia
1
N N E N N E E E N E E N D (1 ) D
o
j j'
j i j j i i j i i j i j i i'
Di'j'
Por tanto, las derivadas de la matriz A responden a las siguientes expresiones, en función de
la naturaleza de la observación.
dEi
dNi
dE j
dN j
Di 2 Ei 2EijNij D 2 E
j 2 j 2 j 2 j 2 di
cc 2Ni E i
j j
A i i
r 0
Dij Dij Dij D
4 4 4 j 4
E i
i
[244]
dEi
dNi
dE j
dN j
Dij 2 Nij Dij 2 Nij
2 2 2 2 d
2Ni Ei 2E N
j j j j i
A
r
cc
i i
- 0
Di D D D
4 j 4 j 4 j 4
E j j
i i i
[245]
dEi
dNi
dE j
dN j
j 2
Di 2 Nij D 2 N
2 j 2 j 2 di
A cc 2N E j j
i i 2N E j j
r i i
i i
0
Dij D D D
4 j 4 j 4 j 4
Ni
i i i
[246]
dEi
dNi
dE j
dN j
D 2 N
2 j 2 j 2 j 2 di
A cc
Di
j
2 N i 2Eij Nij i i 2N E j j
r - i i
0
Dij Dij D D
4 4 j 4 j 4
N j
i i
[247]
A dEi dNi dE j dN j
di
0 0 0 0 0
i
[248]
dEi
dNi
dE j
dN j
j
Di Ei Eij Nij Di Ei
2 j 2 j 2 j 2 d
A Eij Nij
- 0
j 3
j 3
Dij D
3 j 3
E i D D
i i i
[249]
dEi
dNi
dE j
dN j
A Ei Ni
j j
D N
j 2
i
j 2
i E N j
i
j
i
-
D N
j 2
i
j 2
i
d
0
Di D D D
Ni j 3 j 3 j 3 j 3
i i i
[250]
dEi
dNi
dE j
dN j
Di Ei D E
j 2 j 2 j 2 j 2 d
A E N j j
i i E N j j
i i
- i i
0
Dij D D D
3 j 3 j 3 j 3
E j
i i i
[251]
dEi dNi
dE j
dN j
Dj 2
N j 2
D
j 2
Nij
2 d
Ei Ni E N
j j j j
A i i i
- - i i
0
Di D D D
3 j 3 j 3 j 3
N j j
i i i
[252]
A dEi dNi dE j dN j
d
0 0 0 0 0
[253]
Una vez analizadas las ecuaciones de observación de dirección, se puede comprobar que
R
0 y, por lo tanto, no aportará elementos al sistema de ecuaciones. Lo mismo
i
sucede con las derivadas en las ecuaciones de distancias respecto del factor de escala
D1 D2
2 2
A
2 1
; 2 E 2 E1 ; 2 E1 E 2
E1 E1 E1
[255]
1 1 1
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
D
j 2
2 E1j D 2 E1j
2 j 2 2
2N1jE1j 2N1jE1j
1 1
1 j 0 0 0 0 ...... 0 ......
D1j D D D
4 j 4 j 4 j 4
1 1 1
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
D
1 2
2 E11 D 2 E12
2 1 2 2
j j j
j 2 0 0 0 0 0 0 ...... 0 0 0 ......
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
[256]
[257]
[258]
2 2
A D1 D1j
j
; 2 Ej E1 ; 2 E1 Ej
Ej Ej Ej
visuales dE1 dN1 d1 dE2 dN2 d2 ...... dEj dN j d j ......
1 2 0 0 0 0 0 0 ...... 0 0 0 ......
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
D D
2 2 2 2
2N j Ej j
2 E1j 2N1j E1j
j
2 E1j
1 1 1
0 0 0 0 ......
1
0 ......
1 j
D D D
4 4 4 4
D1j j j j
1 1 1
......
...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
2 1 0 0 0 0 0 0 ...... 0 0 0 ......
A r cc
Ej
D D
2 2 2 2
j
2 E2j j
2 E1j
2N2j E2j 2N2j E2j
......
2 2
2 j 0 0 0 0 ...... 0
D D D D
4 4 4 4
j j j j
2 2 2 2
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
D D
2 2 2 2
2N j Ej j
2 E2j 2N2j E2j
j
2 E2j
j1 2 2 2
0 0 0 0 ......
2
0 ......
D D D
4 4 4 4
D2j j j j
2 2 2
D D 2 E
2 2 2 2
2N2j E2j
j
2 E2j 2N1j E1j
1 1
......
j2
2 j j
0 0 0 0 ...... 0
D D D D
4 4 4 4
j j 1 1
2 2 j j
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
[259]
2 2
D1 D2
2 1
A
; 2 N2 N1 ; 2 N1 N2
N1 N1 N1
[260]
visuales dE1 dN1 d 1 dE2 dN2 d2 ...... dEj dNj d j ......
D D
2 2 2 2
2
2 N12 2N12E12
2
2 N12 2N12E12
1 2 1
0
1
0 ...... 0 0 0 ......
D D D D
4 4 4 4
2 2 2 2
1 1 1 1
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
D D
2 2 2 2
j
2 N1j 2N1j E1j
j
2 N1j 2N1j E1j
1
0 0 0 0 ......
1
0 ......
1 j
D D D D
4 4 4 4
j j j j
1 1 1 1
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
D D
2 2 2 2
1
2 N12 2N12E12
1
2 N12 2N12E12
2 1
2
0
2
0 ...... 0 0 0 ......
D D D D
4 4 4 4
1 1 1 1
A
r cc 2 2 2 2
N1
2 j 0 0 0 0 0 0 ...... 0 0 0 ......
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
D D
2 2 2 2
1
2 N1j 2N1j E1j
1
2 N1j 2N1j E1j
j1
j
0 0 0 0 ......
j
0 ......
D D D D
4 4 4 4
1 1 1 1
j j j j
j2 0 0 0 0 0 0 ...... 0 0 0 ......
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
[261]
2 2
D1 D2
2 1
A
; 2 N2 N1 ; 2 N1 N2
N2 N2 N2
[262]
visuales dE1 dN1 d1 dE2 dN2 d2 ...... dEj dNj d j ......
D2
D
2 2 2 2
2 N12 2N12E12
2
2 N12 2N12E12
1 2 1 0
1
0 ...... 0 0 0 ......
D D D D
4 4 4 4
2 2 2 2
1 1 1 1
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
0 0 0 0 0 0 ...... 0 0 0 ......
1 j
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
D
2 2 2 2
1
D2 2 N12 2N12E12
1
2 N12 2N12E12
2 1 0
2
0 ...... 0 0 0 ......
D D D D
4 4 4 4
1 1 1 1
A
r cc 2 2 2 2
N2
D 2 N D
2 2 2 2
j j 1
2 N12
2N2j E2j 2N12E12
......
2 2 2
2 j 0 0 0 0 ...... 0
D D D D
4 4 4 4
j j 1 1
2 2 2 2
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
j1 0 0 0 0 0 0 ...... 0 0 0 ......
D D
2 2 2 2
2
2 N2j 2N2j E2j
2
2 N2j 2N2j E2j
......
j2
j j
0 0 0 0 ...... 0
D D D D
4 4 4 4
2 2 2 2
j j j j
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
[263]
; 2 Nj N1 ; 2 N1 Nj
Nj Nj Nj
[264]
visuales dE1 dN1 d 1 dE2 dN2 d2 ...... dEj dNj d j ......
1 2 0 0 0 0 0 0 ...... 0 0 0 ......
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
D
2 2 2 2
D1j 2 N1j 2N1j E1j
j
2 N1j 2N1j E1j
0 0 0 0 ......
1
0 ......
1 j
D D D D
4 4 4 4
j j j j
1 1 1 1
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
2 1 0 0 0 0 0 0 ...... 0 0 0 ......
A r cc
N j
D D
2 2 2 2
j
2 N2j j
2 N2j
2N2j E2j 2N2j E2j
......
2 2
2 j 0 0 0 0 ...... 0
D D D D
4 4 4 4
j j j j
2 2 2 2
...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
....
j1 0 0 0 0 0 0 ...... 0 0 0 ......
D D
2 2 2 2
2
2 N2j 2N2j E2j
2
2 N2j 2N2j E2j
......
j2
j j
0 0 0 0 ...... 0
D D D D
4 4 4 4
2 2 2 2
j j j j
.... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ......
[265]
A D
2
E E D1 E E
; 1 2 2 1 ; 2 2 1 1
E1 E1 D1 E1 D2
9. BIBLIOGRAFÍA
Ackerman, F. & Kraus, K., Agosto 2004. Looking back and ahead: Grid Based Digital
Terrain Models. GEOInformatics.
Arranz, J. J., 2008. Nuevo método de suavizado de modelos digitales del terreno procedentes
de correlación fotogramétrica automática mediante interpolación bicúbica. Valencia
(España), Congreso Internacional de Ingeniería Geomática y Topografía.
Arranz, J. J., 2008. Representación del relieve. En: Apuntes de Topografía. Madrid: ETSI
Topografía, Geodesia y Cartografía (UPM).
Arranz, J. J., 2013. Diseño, optimización y análisis de sistemas basados en técnica láser,
para el modelado geométrico, registro y documentación, aplicados a entidades de interés
patrimonial. Madrid: Universidad Politécnica de Madrid.
Arranz, J. J. & Soler, C., 2015. Métodos Topográficos. Madrid: Universidad Politécnica de
Madrid.
Baarda, W., 1968. A testing procedure for use in Geodetic Networks. En: Publications on
geodesy. Delft: Netherlands Geodetic Commission.
Berné, J. L., Anquela, A. & Baselga, S., 2002. Microgeodesia y redes locales. Valencia:
Universidad Politécnica de Valencia.
Boletín Oficial del Estado, 1970. 13751 DECRETO 230311970, de 16 de julio, por el que se
adopta la proyección Universal Transversa Mercator (U.T.M.) para la revisión y nueva
edición del Mapa Topográfico Nacional. Issue 202.
Boletín Oficial del Estado, 2007. 15822 REAL DECRETO 1071/2007, de 27 de julio, por el
que se regula el sistema geodésico de referencia oficial en España. Issue 207.
Caturla, J. L., 1983. La nueva red geodésica española. Publicación técnica del Instituto
Geográfico Nacional (I.G.N.).
Chueca Pazos, M., García García, F., Jiménez Martínez, M. J. & Villar Cano, M., 2008.
Compendio de historia de la Ingeniería Cartográfica. Valencia: Universidad Politécnica de
Valencia. Servico de publicación.
Chueca, M., García, F., Jiménez, M. J. & Villar, M., 2008. Compendio de la Ingeniería
Cartográfica. Valencia: Universidad Politécnica de Valencia.
Chueca, M., Jiménez, M. J. & Quesada, N., 2014. Método Gaussiano de los Ajustes
Coordinados: aplicación en Microgeodesia y Redes Locales. Valencia: Real Acadèmia de
Cultura Valenciana.
Domingo, A., 2000. Investigación sobre los métodos de estimación robusta aplicados a la
resolución de los problemas fundamentales de la fotogrametría. Santander: Universidad de
Cantabria.
García, J. L., Miguel, A. & Mesa, J. L., 2011. Evaluación de la incertidumbre de medida de
ángulos, distancias y desniveles medidos con instrumentación topográfica. Mapping, Issue
149.
García, S., Sánchez, B. & Sáez, E., 2001. DART Aplicación Informática para el Diseño y
Ajuste de Redes Topográficas (I) y (II). Topografía y Cartografía, Issue 107.
Ghilani, C. D. & Wolf, P. R., 2006. Adjustment Computations Spatial Data Analysis. 4ª ed.
s.l.:John Wiley & Sons, Inc..
Grafarend, E. W. & Sansó, F., 1985. Optimization and Design of Geodetic Networks. Berlin:
Springer-Verlag.
Harvey, B. R., 1991. Practical Least Squares and Statistics for Surveyors. Sydney: The
University of New South Wales.
Henneberg, H. B., 1986. Redes Geodésicas de Alta Precisión. III Curso de Geodesia
Superior ed. Madrid: Instituto de Astronomía y Geodesia. Centro mixto C.S.I.C. - U.C.M.,
(Centro Superior de Investigaciones Científicas y Universidad Complutense de Madrid).
Hur, S. -M., Kim, H. -C. & Lee, S. -H., 2002. STL File Generation with Data Reduction by
the Delaunay Triangulation Method in Reverse Engineering. The International Journal of
Advanced Manufacturing Technology, Issue 19, pp. 669-678.
Inés, A., 2014. Evaluación de la incertidumbre de medida de una estación total aplicando la
Norma ISO. Revista facultad de ciencias exactas, físicas y naturales, 1(1).
Instituto Geográfico Nacional, 2009. El nuevo modelo de geoide para España EGM08-
REDNAP, Madrid (España): Centro de Observaciones Geodésicas, Subdirección General de
Astronomía, Geodesia y Geofísica.
Jiménez, M. J., 2011. Jorge Juan y la Geodesia de la Ilustración. Visión técnica e histórica
desde el siglo XXI. Novelda: Autor.
Jiménez, M. J., Quesada, N. & Chueca, M., 2014. Método Gaussiano de los Ajustes
Coordinados: aplicación en Microgeodesia y Redes Locales. Valencia: Real Academia de la
Cultura Valenciana.
Jordan, W. & Eggert, K., 1961. Handbuch der Vermessungskunde. Erste Hälfte. Die Figur
der Erde und die geodätischem. Die Feldarbeiten bei der Haupttriangulation. Sttutgart: J.B.
Metzlersche Verlagsbuchhandlung.
Kavouras, M., 1982. On the detection of outliers and the determination of reliability in
geodetic networks. Geodesy and Geomatics Engineering (UNB), Issue 87.
Lafuente, A., 1983. Los elementos de un debate científico durante la primera mitad del siglo
XVIII: la cuestión de la figura de la Tierra. Cuadernos críticos de geografía humana.
Lafuente, A. & Mazuecos, A., 1987. Los caballeros del punto fijo. Ciencia, Política y
Aventura en la Expedición Geodésica Hispanofrancesa al Virreinato del Perú en el Siglo
XVIII.. Barcelona: Editorial Serbal y CSIC.
López , J. L. & Navarro, V., 1995. Història de la Ciència al País Valencià. Valencia:
Institución Alfonso el Magnánimo.
Márquez, R., 2009. Introducción al ajuste y diseño de redes topográficas. San Juan:
Departamento de Ingeniería en Agrimensura. Facultad de Ingeniería. Universidad Nacional
de San Juan.
Márquez, R., 2009. Introducción al ajuste y diseño de redes topográficas. San Juan:
Departamento de Ingeniería en Agrimensura.
Martín , J., 1999. Francisco Coello. Su vida y Obra 1822-1898. Madrid: Centro Nacional de
Información Geográfica, (CNIG).
Mikhail, E. M. & Ackermann, F. E., 1982. Observations and Least Squares. s.l.:University
Press of America.
Nadal, F. & Urteaga, L., 1990. Cartografía y estado: los mapas topográficos nacionales y la
estadística territorial en el siglo XIX. Cuadernos críticos de Geografía Humana.
Rodriguez, J., 2005. El método de los mínimos cuadrados con aplicaciones a la topografía.
Barcelona: Universitat Politecnica de Catalunya.
Schmid , W. A. & Lazos, R. J., 2004. Guía para estimar la incertidumbre de la medición.
s.l.:CENAM.
Schwendener, P., 1972. Electronic distancers fod short rangers: accuracy and checking
procedures. s.l.:Survey Teview,vol 21.
Shanlong, K., 1996. Geodetic Network Analysis and Optimal Design: Concepts and
Applications. s.l.:Ann Arbor Press.
Soler García, C. & Roca Novoa, J. R., 2008. GNSS como instrumento homogeneizador de
geometría en el replanteo de vía en LAV. Valencia, s.n.
Ten, A. E., 1996. Medir el metro. La historia de la prolongación del arco de meridiano
Dunkerque-Barcelona, base del Sistema Métrico Decimal. s.l.:Instituto de estudios
documentales e históricos sobre la ciencia Universitat de Valencia (C.S.I.C.).
Thurston, J., 2004. Looking back and ahead: The Triangulated Irregular Network (TIN).
GEOInformatics.
Vacaflor, J. L., Golbarch, J. R., Corral, S. M. & López, N. G., 2007. Óptima red Geodésica a
partir de una solución al problema de segundo orden y una matriz de criterio.
s.l.:Asociación Argentina de Mecánica Computacional.
Yalçinkaya, M. & Teke, K., octubre, 2006. Optimization of GPS Networks with Respect to
Accuracy and Reliability Criteria. Munich, Germany, XXIII FIG, Congress Munich.
10. ANEXOS
3D: Sistema de Tres Dimensiones. Posición en el espacio caracterizado por las coordenadas
X, Y y Z.
BitMap: Formato de imagen de mapa de bits, propio del sistema operativo Microsoft
Windows. Clase de la plataforma Windows.Net.
GNSS: Global Navigation Satellite System. (Sistema Global de Navegación por Satélite).
LIDAR: Light Detection and Ranging o Laser Imaging Detection and Ranging.
MTN: Mapa Topográfico Nacional. Mapa base del resto de cartografías oficiales (Escala
1/50.000).
TIFF: Tagged Image File Format. (Formato de archivo informático para imágenes).
Figura 29: Willem Baarda (1917 – 2005) en Leeuwarden, Países Bajos ............................... 46
Figura 30: Erik W. Grafarend (30 de octubre de 1939 en Essen, Alemania) ......................... 47
Figura 31: Shanlong Kuang ................................................................................................... 48
Figura 32: Paul R. Wolf ......................................................................................................... 49
Figura 33: Charles D. Ghilani ................................................................................................ 49
Figura 34: Puntos acotados .................................................................................................... 51
Figura 35: Curvas de nivel ..................................................................................................... 51
Figura 36: Curvas de nivel con sombreado ............................................................................ 53
Figura 37: Sombreado. ........................................................................................................... 53
Figura 38: Representación del relieve. Tintas hipsométricas. ................................................ 53
Figura 39: Técnica de sombreado .......................................................................................... 54
Figura 40: Tintas hipsométricas con sombreado .................................................................... 54
Figura 41: Curvas de nivel y sombreado................................................................................ 54
Figura 42: Tintas hipsométricas con sombreado y curvas de nivel ........................................ 54
Figura 43: REDNAP .............................................................................................................. 59
Figura 44: Distribución de Vértices de la red REGENTE ..................................................... 60
Figura 45: Planta del edificio “Torre Espacio” de 248 m de altura (Madrid) ........................ 64
Figura 46: Imagen de “Torre Espacio” y fases de su construcción ........................................ 64
Figura 47: Presa de El Atazar en el río Lozoya (Madrid) ...................................................... 65
Figura 48: Presa de El Villar en el río Lozoya (Madrid) ....................................................... 65
Figura 49: Ejemplo de Red topográfica. Término Municipal de Leganés (1991).................. 67
Figura 50: Gráfico de la Red topográfica de Término Municipal de Leganés (1991)
ajustada................................................................................................................................... 68
Figura 51: Imagen del deslizamiento de una ladera por flujo o colada .................................. 69
Figura 52: Imagen del deslizamiento de una ladera ............................................................... 69
Figura 53: Imagen del efecto de la solifluxión en una ladera ................................................ 70
Figura 54: Ejes de una estación total...................................................................................... 74
Figura 55: Incertidumbre de dirección ................................................................................... 76
Figura 56: Pilar con sistema de centrado forzado y basada para estacionar .......................... 76
Figura 57: Inclinación del jalón ............................................................................................. 77
Figura 58: Telurómetro de la marca Geodimeter ................................................................... 78
Figura 59: Diferentes dispositivos para minimizar la incertidumbre por la verticalidad
del jalón .................................................................................................................................. 80
Figura 60: Variación del coeficiente de refracción a lo largo de un día. ............................... 83
Figura 155: Ventana para definir una nueva configuración de trabajo y de instrumento. ... 262
Figura 156: Tipo de Zoom utilizables .................................................................................. 263
Figura 157: Cuadro de dialogo para cambiar la Configuración Gráfica .............................. 264
Figura 158:Ejemplo de la utilizad para el cambio de colores de los elementos gráficos ..... 264
Figura 159: Sistema de centrado forzado empleado ............................................................ 269
Figura 160: Imagen del teodolito Wild T2 y sus características técnicas ............................ 270
Figura 161: Imagen del M.E.D. Wild, Di 3000.................................................................... 271
Figura 162: Distribución aproximada de los vértices de la red básica. ................................ 272
Figura 163: Distribución aproximada de los vértices de la red básica respecto a la de
los itinerarios de centrado forzado. ...................................................................................... 273
Figura 164: Muestra de una de las hojas de cartografía a escala 1/500 del municipio de
Leganés. ............................................................................................................................... 274
Figura 165: Valores de desviaciones típicas a posteriori y números de redundancia del
diseño de la red observada ................................................................................................... 277
Figura 166: Gráfico de la red básica observada (red modelo). ............................................ 277
Figura 167: Gráfico de la red básica con un diseño optimizado. ......................................... 278
Figura 168: Valores de desviaciones típicas a posteriori y números de redundancia de
la red optimizada. Marcados en naranja valores no fiables.................................................. 279
Figura 169: Valores de desviaciones típicas a posteriori y números de redundancia de
la red optimizada una vez aumentada la fiabilidad de algunas visuales. ............................. 279
Figura 170: Hito del marco de referencia ............................................................................ 284
Figura 171: Distribución de piquetes ................................................................................... 284
Figura 172: Carro auscultador.............................................................................................. 285
Figura 173: Estación y carro auscultador. ............................................................................ 285
Figura 174: Secuencia de auscultación desde los estacionamientos. ................................... 285
Figura 175: Bateadora. ......................................................................................................... 286
Figura 176: Zona de actuación del proyecto. ....................................................................... 289
Figura 177: Zona Norte (1). Túnel de Prado- Oeste. ........................................................... 290
Figura 178: Zona 2. Túnel de Prado-Este con curvas de nivel del terreno natural. ............. 291
Figura 179: Zona 2. Túnel de Prado- Este con curvas de nivel del terreno una vez
explanado. ............................................................................................................................ 292
Figura 180: Zona 2. Túnel de Prado-Este. Fotografía de un “jumbo”. ................................ 293
Figura 181: Zona 2. Túnel de Prado-Este. Fotografía de un “jumbo” con equipo de
topografía. ............................................................................................................................ 293
Figura 182: MDT del IGN en la zona 2 del proyecto. ......................................................... 294
Figura 183: MDT de los taquimétricos en la zona 2 del proyecto con la red de hitos
(Brújula) ............................................................................................................................... 295
Simulated Adjustment Estimated errors - All lengths are in distance units Instrument
setup error: ±0.0010 Target setup error: ±0.0010 EDM error: 0.001 + 1 ppm Number of
angle repetitions: 6 Total station with DIN of: 2.0
28 1°14'15.7" 0.00" 0.00 0.531 28 5001 32 35°41'53.6" 0.00" 0.00 0.436 5004 5002 5003
18°37'09.4" 0.00" 0.00 1.000 5003 5002 1 22°05'38.1" 0.00" 0.00 0.831 1 5002 3
2°27'57.8" 0.00" 0.00 0.632 3 5002 28 7°01'09.0" 0.00" 0.00 0.637 28 5002 5001
47°53'47.4" 0.00" 0.00 0.785 1 5003 3 8°24'40.2" 0.00" 0.00 0.475 3 5003 32
45°50'14.5" 0.00" 0.00 0.539 32 5003 5001 14°08'21.4" 0.00" 0.00 0.793 5001 5003 5002
15°15'25.5" 0.00" 0.00 1.000 5002 5003 5004 90°16'42.2" 0.00" 0.00 1.000 5003 5004 3
8°03'09.8" 0.00" 0.00 0.866 3 5004 32 36°52'43.6" 0.00" 0.00 0.755 32 5004 5001
12°43'59.7" 0.00" 0.00 0.852 5001 5004 5002 13°26'15.3" 0.00" 0.00 1.000
Data snooping used. Possible blunder in observations with Std.Res. > 3.290
Convergence!
Clase CProyecto.
Formulario donde se pueden definir las características visuales de los elementos gráficos
tales como observaciones de dirección, distancia, elipses de error, puntos fijos y puntos a
definir su posición.
Este formulario es a través del cual se puede llegar a conseguir un diseño óptimo de una red.
En él es donde se puede realizar todas las variaciones vistas en la parte teórica, selección de
la naturaleza de las observaciones, tipo de distribución, así como su factor de cobertura.
También es posible, en este mismo formulario, seleccionar otro tipo de instrumental para
realizar, la simulación, o el diseño. Esta opción
resulta muy interesante, dado que una vez encontrada
la posición óptima se pueden in variando las
características del instrumental hasta conseguir, o
bien las desviaciones típicas deseadas, o bien el
equipo, económicamente más rentable.
Ajuste de la “red modelo” con todas las observaciones realizadas en 1991. Las desviaciones
típicas de los parámetros están obtenidas con una fiabilidad del 68.27%, para determinarlas
con 99,9% habrá que mayorarlas todas ellas, con un factor de cobertura de 3,2905.
Primer Diseño.
Obtención de una geometría de tal manera que las desviaciones típicas a posteriori estén
por debajo de las establecidas en el PPT, la fiabilidad interna de la red esté controlada
(valores de los números de redundancia).
Testigo σE σN
1 0.003 0.004
3 0.003 0.003
7 0.003 0.003
9 0.003 0.003
11 0.003 0.003
13 0.003 0.003
15 0.003 0.003
17 0.003 0.003
19 0.003 0.003
21 0.003 0.003
23 0.003 0.003
25 0.003 0.003
27 0.004 0.004
28 0.004 0.005
29 0.003 0.003
30 0.003 0.003
31 0.003 0.003
32 0.003 0.003
Segundo Diseño.
Testigo σE σN
1 0.002 0.004
3 0.002 0.003
7 0.002 0.003
9 0.002 0.003
11 0.003 0.003
13 0.003 0.002
15 0.003 0.002
17 0.003 0.002
19 0.003 0.002
21 0.003 0.003
23 0.003 0.003
25 0.002 0.003
27 0.002 0.003
28 0.004 0.003
29 0.003 0.002
30 0.003 0.002
31 0.003 0.002
32 0.003 0.003
Figura 213: Imagen de las posiciones de vértices e hitos en el segundo diseño, solo angular.
Debido a los valores de la fiabilidad interna de la red se ve que las posiciones de los
testigos 1 y 32 arrojan unos números de redundancia con valores muy pequeños, pero
sobre todo en 28 que llega a rii=0,000, lo que demuestra que su posición no tiene
comprobación.
Para poder mantener esta metodología de observación se añadió el observar tan solo esos
tres testigos además de angularmente mediante distanciometría.
Testigo σE σN
1 0.003 0.005
3 0.002 0.004
7 0.003 0.004
9 0.003 0.003
11 0.003 0.003
13 0.003 0.003
15 0.003 0.003
17 0.003 0.003
19 0.004 0.003
21 0.003 0.003
23 0.003 0.004
25 0.003 0.004
27 0.003 0.004
28 0.015 0.005
29 0.003 0.003
30 0.004 0.003
31 0.003 0.003
32 0.004 0.003
Diseño con solo observaciones de dirección y algunas de distancia. Las posiciones de los
vértices se mantienen como en el diseño anterior. En esta simulación se pretende
optimizar los recursos para cada auscultación sin perder las precisiones en tres testigos
(1, 28 y 32).
Figura 215: Posiciones de vértices e hitos en el segundo diseño, solo angular y ciertas distancias.
Testigo σE σN
1 0.002 0.004
3 0.002 0.004
7 0.003 0.004
9 0.003 0.003
11 0.003 0.003
13 0.003 0.003
15 0.003 0.003
17 0.003 0.003
19 0.003 0.003
21 0.003 0.003
23 0.003 0.004
25 0.003 0.004
27 0.003 0.004
28 0.004 0.003
29 0.003 0.003
30 0.003 0.002
31 0.003 0.003
32 0.003 0.003