Story Transcript
LA IONOSFERA, ¿UNA ALTERNATIVA REAL PARA LAS TELECOMUNICACIONES?
José Manuel Elena Ortega Joaquín Luque Rodríguez
Depto. de Tecnología Electrónica
Enero de 1994
Cables fulgurantes entre centelleantes rayos y fatales cortocircuitos. Placas madre y circuitos ahijados se preparan a recibir la descarga determinante. Integrados y desintegrados comienzan a ronronear como un elefante sobre la roca de los vientos eléctricos. Y finalmente llegó la hora. Y finalmente llegó el microsegundo. Y finalmente los robots funcionaron entre chirriantes y oxidados gemidos.
Tomy
1
SUMARIO
1 INTRODUCCIÓN ......................................... 2
2 LA IONOSFERA ......................................... 6
3 EL FENÓMENO FÍSICO ................................... 12
4 LA PROPAGACIÓN REAL .................................. 19
5 LA CALIDAD DE LA SEÑAL ............................... 35
6 LA ELECCIÓN DE LA FRECUENCIA ......................... 44
7 LA AUTOMATIZACIÓN DEL ENLACE ......................... 57
8 REFERENCIAS .......................................... 68
2
1 INTRODUCCIÓN.
Podría parecer que la utilización de la ionosfera con el fin de establecer comunicaciones radioeléctricas es equiparable al uso de la vela para navegar por el mar, algo deportivo, incluso romántico, pero no realmente útil, ya que la existencia en la actualidad de múltiples satélites de comunicaciones con cientos de canales permanentemente dispuestos para ser utilizados, hace aparecer a las comunicaciones a larga distancia por vía ionosférica como algo periclitado y sin utilidad práctica alguna.
Esta fue una opinión generalizada durante la década de los setenta, pues mientras la capacidad y fiabilidad de los satélites de comunicaciones crecía, también se creía que eran inmunes a cualquier intervención extraña que pretendiera alterar sus funciones o ponerlos fuera de servicio. Era por tanto lógico que se les considerara como los elementos ideales para una comunicación fiable, a pesar del serio inconveniente que representaba su alto coste, tanto en el orden económico como en la necesaria dependencia tecnológica respecto a unos pocos países, los únicos capaces de construir y poner en órbita tales ingenios.
Todo ello condujo a la pérdida sistemática de los conocimientos depositados en operadores expertos, a la drástica disminución de los fondos empleados en la investigación y el desarrollo de sistemas en este campo y a la creencia generalizada en que las comunicaciones ionosféricas en HF eran
3 algo del pasado y utilizables tan solo cuando no había ninguna otra posibilidad real de establecer el enlace deseado, o bien para fines lúdicos -Servicio de Radioaficionados- [GOO92].
Sin embargo, es en la década de los ochenta cuando se inicia un cambio de actitud en todo este proceso. El elevado costo de la sustitución de todas las comunicaciones que con anterioridad se realizaban en HF por los enlaces vía satélite, unido a los avances tecnológicos en los métodos de interferencia y destrucción de los mismos, -misiles antisatélite, pulsos electromagnéticos de alta intensidad producidos por explosiones nucleares en la alta atmósfera, haces de microondas de alta densidad energética, etc-, da lugar a que se comience a pensar que la evolución de los sistemas de comunicaciones no era totalmente satisfactoria y empiece a considerarse como ni económica ni estratégicamente adecuada, por parte de un número cada vez mayor de países, la dependencia total de todas la comunicaciones de un sistema caro y demostradamente vulnerable.
Como consecuencia pues de todo lo anteriormente expuesto, vemos cómo en la actualidad existe un renovado interés por el uso de las comunicaciones por vía ionosférica [MAS90], favorecido por los continuados avances en la tecnología electrónica empleada en la fabricación de equipos de comunicaciones en HF -síntesis digital de frecuencia, filtros activos, control de los equipos mediante ordenador, etc-, unido a la posibilidad de grandes potencias de cálculo ligadas a pequeños sistemas ordenadores de la línea PC-, con elevadas velocidades de reloj y grandes cantidades de memoria, tanto central de funcionamiento como de almacenamiento, todo ello a precios sorprendentemente bajos.
4 Muestra de este interés por las comunicaciones en HF es el intento de crear una nueva generación de equipos de radiocomunicaciones inteligentes, capaces de crear y mantener los enlaces de manera automática, los denominados HF ALE RADIOS -High Fre-cuency Automatic Link Establishment Radios-, para los cuales hay propuestos cinco nuevos estándares federales en los EE.UU. de Norteamérica [ADA92], dentro del FTPS -The Fede ral Telecommuni-cation Standards Program- para el NCS -National Communications System- [BOD85].
Otro factor favorable a tener en cuenta es el cambio realizado en las condiciones sociopolíticas en el mundo, debidas al cese de la política de confrontación de bloques, que hace que el uso comercial de la radiodifusión en HF predomine sobre el uso político realizado de manera prioritaria hasta entonces, con todo lo que ello significa de aportación de fondos económicos a la investigación en este área.
Es conveniente hacer notar también el destacado papel que vuelven a tener las comunicaciones a larga distancia vía HF en los sistemas de comunicaciones militares [WAL92,SAL92], en las comunicaciones diplomáticas y en la coordinación de la ayuda nacional e internacional en caso de desastre a través de los servicios de Protección Civil, Radioaficionados, Cruz Roja y Creciente Rojo.
Existen, no obstante, algunos factores negativos en este proceso, tales como la falta de personal con experiencia en general y lo escaso del número de grupos de investigación en este área, entre los cuales es necesario mencionar al Grupo VI del CCIR -Comité Consultivo Internacional de Radio-, perteneciente a la ITU -Unión Internacional de Telecomunicaciones-, que ha logrado mantener vivo el interés por este campo de la investigación en tiempos muy difíciles.
5
Es en este sentido de evitar las dificultades generadas por la falta de personal suficientemente formado, utilizando las facilidades tecnológicas actuales en lo que a posibilidades de cálculo automatizado y bajo precio de los equipos necesarios se refiere, en el que desean avanzar los trabajos que a continuación se exponen y a los que estas líneas pretenden servir de introducción.
6
2 LA IONOSFERA.
La ionosfera es una capa atmosférica alta, dotada de una gran conductividad eléctrica gracias a los electrones liberados en la intensa ionización producida por la radiación solar, básicamente en las porciones ultravioleta y de rayos X de su espectro, y en menor medida por las partículas cargadas generadas por el Sol junto a los rayos cósmicos.
Se extiende entre los 50 y 2000 Km de altitud sobre la superficie terrestre, dividiéndose por razones históricas en tres capas o regiones denominadas D, E y F en orden creciente de altura y concentración de electrones, cumpliendo las capas E y F el papel de reflector de las ondas radioeléctricas y siendo la capa D la principal causante de la atenuación sufrida por las mismas entre las frecuencias de 2 y 30 MHz -HF- y la responsable también de la reflexión de las ondas de muy baja frecuencia -VLF- y extra baja frecuencia -ELF-.
Al ser su origen la radiación solar fundamentalmente, es lógico esperar, como así sucede, que la intensidad de la ionización dependa de la intensidad de dicha radiación y de la trayectoria o camino que la misma recorra a través de la atmósfera. Esto se traduce en una mayor ionización de las capas
7 atmosféricas más altas y en una relación inversa entre la ionización medida y el ángulo solar cenital1, con un valor máximo donde éste ángulo sea cero.
Asímismo constatamos una relación directa entre las variaciones en la altura, la concentración de electrones y el comportamiento de las distintas capas ionosféricas y los cambios reflejados en la actividad solar durante el día, a través de las distintas estaciones del año y a lo largo de los sucesivos ciclos solares.
La actividad de la ionosfera en lo que a su papel dentro de la comunicación a larga distancia -CLD- le corresponde, depende de la intensidad de ionización de la misma, la cual, como ya hemos comentado, es fiel reflejo de la actividad solar. Esta a su vez mantiene una relación directa con el número de manchas solares existentes en cada momento, cuyo número varía cíclicamente con una periodicidad de 10.7 años, aunque nos referiremos en general al ciclo de los 11 años, siendo éste sólo un valor medio, pues se han registrado ciclos de 7.3 años como el más corto y de 17.1 años como el más largo [ARR92].
Un número elevado de manchas solares provoca una fuerte radiación solar con gran ionización en las capas altas de la atmósfera que es entonces capaz de devolver a la tierra frecuencias de hasta 40
1
Ángulo delimitado entre la recta que une un punto de la superficie terrestre con el sol y la vertical de ese punto.
8 MHz, mientras que por el contrario un bajo número de manchas y la baja actividad solar que le acompaña hace que descienda fuertemente la ionización, convirtiendo en prácticamente inútiles para la CLD las frecuencias situadas por encima de los 20 MHz.
La indicación de la actividad solar podemos obtenerla para propósitos estadísticos y actividades retrospectivas de investigación a través del International Sunspot Number -ISN[ARR92], calculado mensualmente mediante la media suavizada del número de manchas solares contabilizadas durante los seis meses anteriores y los seis posteriores al mes en cuestión.
Si lo que necesitamos es la actividad solar actual la obtendremos a través del flujo de ruido radioeléctrico en la frecuencia de 2.800 MHZ [CCI90], que ha demostrado ser una buena indicación del flujo solar. Se le acostumbra a denominar flujo solar en 10.7 centímetros y es transmitido por la estaciones patrón de frecuencia y tiempo WWV -Ft.Collins, Colorado, USA- en el minuto 18 de cada hora y WWVH -Kauai, Hawaii, USA- en el minuto 45 de cada hora, en las frecuencias de 1.5 MHz, 5 MHZ, 10 MHz 15 MHz y 20 MHz. Estas emisiones además de su utilidad como patrón de frecuencias y tiempo pueden servir como balizas para la comprobación de las predicciones de propagación que realicemos [ARR92].
Las capas ionosféricas que han demostrado tener relación con la CLD son las siguientes [CCI90a]:
9 Capa F:
Se extiende por encima de los 130 Km y es la más alta de todas las capas que componen la ionosfera, dividiéndose durante el día en dos subcapas, la F1 o de Appleton entre los 130-210 Km y la F2 o de Van Allen entre los 250-400 Km de altura.
La subcapa F1 alcanza una densidad electrónica máxima de 2·1011 e/m3, existiendo sólo durante el día, y si bien puede cumplir el papel de deflectora de algunas frecuencias, es más frecuente que actúe como atenuadora de las frecuencias que se reflejan en la subcapa F2.
La subcapa F 2 presenta una densidad típica de electrones de 1012 e/m3 durante el día y de 5·1010 e/m3 durante la noche, siendo la principal zona deflectora responsable de la comunicación a larga distancia, con una máxima distancia de salto único de 4000 Km. Su comportamiento es difícil de modelar, debido a que está influida por los vientos, por distintos efectos electrodinámicos y por la variación de la ionización debida a la diferente radiación solar durante el día y la noche, durante el curso de las distintas estaciones del año y a lo largo del ciclo solar de los once años.
Capa E:
También denominada de Headviside -Kennelly, está situada entre los 90-130 Km de altura sobre la tierra e incluye a la capa E normal y a las denominadas capas esporádicas E -Es-.
10 La capa normal E es homogénea y existe sólo durante la radiación solar directa, alcanzando por tanto su máximo durante el mediodía local y desapareciendo durante la noche, ya que aquí la atmósfera es todavía lo suficientemente densa para que pueda existir una gran recombinación de los iones generados por la actividad solar. Presenta por tanto una fuerte dependencia del ángulo solar cenital, con máximos en su densidad electrónica durante el verano en lo que a la variación estacional se refiere e incrementándose asimismo al aumentar el número de manchas solares. Este máximo es del orden de los 1011 e/m3 a la altura de 110 Km. Durante la noche desaparece prácticamente, quedando sólo restos de la ionización existente durante el día. Es la capa ionosférica mas baja y aún capaz de ser útil en la CLD, siendo muy adecuada para la propagación diurna a distancias menores de 2.000 Km.
Las capas Esporádicas-E, tienen su origen en la existencia de zonas relativamente densas de ionización situadas a unos 110 Km de altura, produciéndose únicamente en determinadas estaciones del año. No dependen de la actividad cíclica solar y son especialmente útiles en los períodos en los que la baja actividad solar deja cortada la propagación en las bandas por encima de los 21 MHz.
Capa D:
Situada a 50-90 Km sobre la tierra. Tiene una actividad directamente proporcional a la radiación solar recibida, presentando unos valores máximos de ionización de 108-109 e/m3 inmediatamente después del mediodía local y
11 bajando a valores muy pequeños durante la noche, manteniendo asimismo una pronunciada variación estacional. Produce un marcado efecto de absorción de toda señal que pasa a través de ella, siendo esta absorción inversamente proporcional a la raíz cuadrada de la frecuencia utilizada. Su incremento diurno y correspondiente disminución nocturna marcan la mínima frecuencia utilizable -LUF- para un determinado recorrido entre dos estaciones.
12
3 EL FENÓMENO FÍSICO.
Cuando una onda de radio penetra en la ionosfera su campo eléctrico asociado imprime a los electrones liberados en la ionización producida por la radiación solar, un movimiento de oscilación que les hace volver a radiar como nuevos emisores, proceso en el cual podemos observar dos fenómenos distintos, uno de cambio de velocidad del frente de onda que produce la refracción del mismo y otro de cambio de la polarización de la onda reemitida, debido este último a la influencia del campo magnético terrestre sobre los orbitales afectados por los procesos de absorción-reemisión de la onda de radio.
Veamos a continuación como una onda de radio de una frecuencia determinada que llega con un ángulo de incidencia adecuado, al encontrar un medio con una concentración creciente de electrones, sufre sucesivas refracciones hasta retornar a la tierra.
Si ignoramos la influencia de campo magnético terrestre el índice de refracción de la ionosfera viene dado por la expresión siguiente [MAS90],
n2 = 1 - (fN / f)2
(3.1)
13 donde f es la frecuencia de la onda incidente y fN es la denominada frecuencia de resonancia2, proporcional a la raíz cuadrada de la concentración de electrones y cuyo valor viene determinado por la expresión,
fN = 9 N 1/2
(3.2)
Al ascender en la atmósfera vamos desde una concentración de electrones nula, con un índice de refracción igual a uno3, hacia una concentración creciente de electrones, con su correspondiente disminución en el índice de refracción. Esto quiere decir que si la anchura de la capa ionizada es suficiente, la refracción de una onda radioeléctrica incidente continuará hasta que alcance los noventa grados.
A partir de aquí el proceso continuará y la onda retornará de nuevo a la tierra por simetría, ya que ahora tendremos una onda de regreso que penetrará en una ionosfera de densidad electrónica decreciente e índice de refracción creciente, con un ángulo inicial de incidencia de noventa grados.
2
También denominada frecuencia de plasma. 3
Como obtenemos de la expresión 3.1, ya que si N = 0 entonces de 3.2 se deduce que fN = 0, con lo que n = 1.
14 Si bien la variación de la concentración de electrones es continua y la trayectoria de la onda es una curva también continua, modelaremos este proceso como si existiera un número casi infinito de capas de un ancho casi nulo.
Aplicando la ley de Snell en el límite de cada capa obtendremos,
n0 sen t0 = n1 sen t1 = n2 sen t2 = ....= nn sen tn (3.3)
Para un rayo que entre en la ionosfera bajo un ángulo de incidencia t0 desde la atmósfera no ionizada, donde n0 = 1, la reflexión tendrá lugar cuando tn valga noventa grados, o lo que es lo mismo,
sen tn = 1
Llevando estas consideraciones a la expresión (3.3) llegamos a la conclusión de que la reflexión tendrá lugar a una altura donde la ionización tenga un valor que haga que el coeficiente de refracción sea,
n = sen t0
(3.4)
15
Para un incidencia vertical, donde sen t0 = 0, la reflexión ocurre a la altura donde n = 0. De la ecuación (3.1) deducimos que esto ocurre cuando, f = fN .
Si fV es la frecuencia reflejada en incidencia vertical a la altura donde la frecuencia de plasma es fN, obtenemos para la onda que incide oblicuamente la siguiente expresión,
n2 = sen2 t0 = 1 - (fN /f)2 = 1 - (fV / f)2
y por tanto,
(fV/f)2 = 1 - sen2 t0
luego,
(fV/f)2 = cos 2 t0
y
fV/f = cos t0
(3.5)
16 o, lo que es lo mismo,
f = fV sec t0
(3.6)
Esto nos lleva a la conclusión de que una onda de frecuencia f que incide en la ionosfera bajo un ángulo t0 será reflejada a la misma altura donde la intensidad de ionización electrónica sea suficiente para producir la reflexión de una onda de incidencia vertical y frecuencia,
fv= f cos t0
es decir, una determinada capa ionosférica reflejará siempre frecuencias más altas con una incidencia oblicua que con incidencia vertical.
El análisis de una situación ionosférica determinada se realiza frecuentemente mediante sondeos verticales, comprobando el valor de fV o frecuencia máxima que en ese momento se refleja bajo un ángulo de incidencia vertical. A esta frecuencia se le denomina frecuencia crítica -fo-.
Vemos como al aumentar el ángulo de incidencia también aumenta la frecuencia máxima utilizable junto al alcance, siendo esto último por razones geométricas evidentes -fig. 3.2 rayos 3 y 4-.
17 Asimismo vemos como en un frente de ondas que estaba siendo reflejado hacia la tierra, al disminuir el ángulo de incidencia, llega un momento en el que en lugar de reflejarse totalmente se refracta realizando una penetración lateral en la ionosfera -fig. 3.2 rayo 1-, pudiendo retornar a la tierra bajo ángulos muy diferentes.
A este ángulo, por debajo del cual no existe un retorno neto de los frentes de onda previsto por leyes geométricas lo denominamos ángulo de distancia de silencio4.
Si seguimos disminuyendo el ángulo de incidencia aún más, nos encontraremos con que el frente de ondas incidente no sufrirá una refracción suficiente y después de una ligera desviación escapará al espacio exterior, denominándose entonces rayos de escape -Fig. 3.2, rayo 2-, los cuales han incidido en la ionosfera bajo un ángulo inferior a un ángulo límite denominado ángulo crítico.
A estas conclusiones hemos llegado considerando una superficie terrestre y una ionosfera ambas planas, así como una densidad de iones estable en cada punto a lo largo del tiempo. Si consideráramos que la tierra tiene forma esférica y que la densidad de electrones varía en cada punto y a lo
4
Denominado habitualmente en la literatura anglosajona como ángulo de skip.
18 largo del tiempo, obtendríamos expresiones realmente complejas para encontrar la frecuencia a utilizar en función de la frecuencia reflejada bajo incidencia vertical. La práctica demuestra que es suficiente introducir un coeficiente de corrección k para obtener una aproximación adecuada.
Así la ecuación 3.5 queda de la siguiente forma,
f = k fv sec t0
(3.7)
En esta expresión, en la que lo mas importante es su forma funcional, fv es la máxima frecuencia reflejada en incidencia vertical, to es el ángulo de entrada del frente de onda en la ionosfera y k una constante cuyo valor dependerá de la capa en cuestión sobre la que se efectúa la refracción y de las circunstancias particulares de cada momento, tales como la estación del año, momento del ciclo solar en el que estemos, etc.
Es en el cálculo del valor de ésta constante, para cada caso en particular, donde se centran todos los esfuerzos de los diferentes programas para la predicción de la propagación ionosférica.
19
4 LA PROPAGACIÓN REAL.
Cuando una onda de radio se refracta en alguna capa ionosférica y vuelve a la tierra decimos que ha efectuado un salto, denominándose Distancia de Salto Único -DSU- a la distancia que, sobre la superficie terrestre, separa el punto de emisión de la señal del punto de llegada de nuevo a la tierra. El valor máximo que toma esa magnitud para una capa determinada en unas condiciones determinadas recibe la denominación de Máxima Distancia de Salto Único -MDSU-.
Denominamos Ángulo de Radiación -AR- al ángulo formado por la trayectoria de la onda radioeléctrica emitida por una antena con el plano de la tierra. Las ondas emitidas bajo un gran ángulo desviarán poco su trayectoria, no retornando a la tierra. El ángulo a partir del cual se produce el retorno recibe el nombre de Ángulo de Radiación Crítico -ARC-. El valor de este ángulo dependerá fundamentalmente de la frecuencia utilizada, de la capa donde se efectúe la reflexión y de la distancia entre emisor y receptor.
Definimos zona de silencio5 a la distancia comprendida entre el punto donde ya no se recibe la señal transmitida, debido a la atenuación de la onda de tierra, y el punto donde de nuevo volvemos a recibirla, debido a la onda reflejada. Más adelante veremos como éste no es un concepto absoluto, ya
5
Denominada habitualmente en la literatura anglosajona como distancia de Skip.
20 que la señal puede ser recibida en esta zona a causa del fenómeno de dispersión unas veces, y por efecto de la capa Esporádica E en otras ocasiones.
Frecuentemente es más práctico considerar el trayecto de una onda radioeléctrica como el resultado de una reflexión en lugar de una refracción. Para una determinada DSU hablamos de una Altura Virtual -AV-, que es la altura donde estaría situada una hipotética capa que reflejaría nuestras ondas, de manera que obtuviéramos la misma DSU.
Asimismo, definiremos el Ancho de Banda de Propagación como el conjunto de frecuencias utilizable para establecer un enlace radioeléctrico entre dos puntos geográficos determinados. Al límite superior de dicho intervalo lo denominamos frecuencia máxima utilizable o MUF6 y al límite inferior frecuencia mínima utilizable o LUF7. Entre ambos límites situamos la Frecuencia Óptima de Trabajo -FOT- como frecuencia mas adecuada al uso concreto que se pretende. Podemos considerar como válida la mayoría de las veces la aproximación que utiliza el valor de la FOT como 0.85 veces el valor de la MUF [CCIR 90b].
Todos estos valores se definen para unas condiciones de trabajo determinadas tales como potencia utilizada, modo de transmisión, la hora solar en los puntos de emisión y recepción de la señal, época del año, actividad solar, etc.
6
De la expresión inglesa Maximum Usable Frecuency.
7
De la expresión inglesa Lowest Usable Frecuency.
21 Naturalmente, una onda radioeléctrica puede refractarse en la ionosfera, retornar a la tierra y reflejarse sobre ella para, de nuevo, volver a refractarse y así realizar un número variable de sucesivos saltos, número que depende tanto del estado de la ionosfera como de las capas envueltas en la refracción, así como de la naturaleza de la superficie terrestre donde se efectúen las reflexiones.
Esto provoca el que, en determinadas condiciones, el receptor pueda captar ondas que han realizado un diferente número de saltos, bien por haber sido emitidas bajo diferentes ángulos de emisión y haberse refractado en distintos puntos de la misma capa ionosférica, bien debido a que el trayecto de llegada se ha realizado por circunvalación de la superficie terrestre en distintos sentidos. Los distintos recorridos provocan la llegada de diferentes frentes de ondas con el mismo contenido pero con diferencias de tiempo, lo cual causará en definitiva fenómenos de desfase e interferencia con la consecuente alteración de la información transmitida.
La repercusión final de esos procesos dependerá de las exigencias de fiabilidad del enlace, del modo de codificación de la información y de la forma de transmisión. Así pues, todas estas alteraciones en la onda radioeléctrica transmitida apenas producirán trastornos a una emisión en código Morse transmitido y recibido manualmente por operadores expertos, causarán dificultades de comprensión en determinadas circunstancias en la emisiones vocales de amplitud modulada -AM- o en banda lateral única -BLU-, y crearán severas alteraciones en los diferentes modos de transmisión digital como RTTY -radioteletipo-, ASCII, etc.
22 Esto ha determinado la creación de nuevos modalidades de transmisión digital con sistemas de corrección de errores como PACKET RADIO8, AMTOR -comercialmente denominado TOR9- en sus distintas modalidades FEC10, ARQ11, etc., siendo necesario destacar la última aportación efectuada, denominada PACTOR que, como su nombre indica, es una asociación de las mejores características de los modos digitales PACKET y TOR.
La propagación de una onda electromagnética entre dos puntos situados en la superficie terrestre se efectúa habitualmente por el camino mas corto, recorrido sobre un círculo máximo, que es la línea imaginaria producida por el corte de la superficie terrestre con un plano que pasa por los puntos de emisión y recepción de la onda, así como por el centro de la tierra. Sin embargo a veces no es éste
8
Versión para Radioaficionados del protocolo X25.
9
Del inglés, Transmiting Over Radio.
10
Del inglés, Forward Error Correction.
11
De la exp resión inglesa Automatic Repeat reQuest.
23 el camino seguido, pues la trayectoria realizada sigue un círculo máximo pero por el camino mas largo. Esto puede ser debido, entre otros factores, a que este camino largo se recorra por un área donde al ser de noche, la capa D, principal responsable de la atenuación de las ondas refractadas en la ionosfera, ha desaparecido, pudiendo suceder además que, las reflexiones producidas sobre la tierra amortigüen más la onda que va por el camino corto que la del camino largo. Esto último puede suceder si las últimas reflexiones se producen sobre zonas altamente conductoras, y por tanto muy reflectantes, como la superficie del mar.
Denominamos línea o franja gris a la línea que separa el día de la noche. En una cara de la tierra avanza hacia el día con el amanecer y en la cara opuesta avanza hacia la noche con el atardecer. La propagación a lo largo de la línea gris es muy eficiente, debido fundamentalmente a que la capa D, que absorbe fuertemente la radiación electromagnética, desaparece rápidamente con el anochecer y no le ha dado tiempo a formarse en el lado del amanecer, eliminándose de esta manera y en ese recorrido el principal obstáculo para la CLD.
Consideraremos en último lugar el fenómeno denominado dispersión12, por el cual una onda altera la trayectoria esperada según las leyes puras de la refracción y reflexión. La dispersión o scatter puede ser en sentido directo o de avance, produciéndose en la troposfera y para frecuencias superiores a los 20 MHz. Esto tiene como consecuencia la recepción de la señal radiada en la zona de silencio, siendo un fenómeno esporádico y poco utilizable para enlaces fijos. A veces observamos que después del primer salto las ondas se reflejan sobre la tierra hacia el transmisor, ya que la superficie terrestre no
24 es, en general, un medio liso y homogéneo, hablándose entonces de dispersión inversa. Este fenómeno, cuando se produce, es más estable, ayudando a disminuir la zona de silencio.
Veremos a continuación el comportamiento genérico respecto a la CLD de las distintas bandas de radioaficionado, ya que será en ellas donde se realizarán todos los desarrollos experimentales, al estar uniformemente distribuidas por todo el espectro de frecuencias de la HF y ser accesibles con los menores trámites administrativos y legales[ARR92].
Hacemos la salvedad de que la banda de 1.8 MHz, correspondiente a 160 metros de longitud de onda, no pertenece en realidad a la HF sino a las frecuencias medias o MF, pero la incluimos aquí porque su uso puede ser, en algunas situaciones, determinante para conseguir el enlace deseado.
Banda de 1.8 MHz (160 metros de longitud de onda).
Sufre extrema absorción en la capa D durante el día, aunque las señales emitidas bajo ángulos muy altos pueden retornar a la tierra, proporcionando durante las hora diurnas un alcance de hasta 125 Km, aproximadamente.
12
Denominado Scatter en inglés.
25
Durante la noche, al disiparse la capa D, las señales emitidas con ángulos de radiación bajos proporcionan alcance de varios miles de Km.
Los ruidos estáticos y los procedentes de las tormentas son muy abundantes durante el verano, llegando a veces a hacer imposible su uso. Es por tanto una banda nocturna y de utilización preferente durante el invierno.
Banda de 3.5 MHz (80 metros de longitud de onda).
Comportamiento muy parecido a la banda de 1.8 MHz pero sin tanta absorción diurna, por lo que su alcance puede llegar durante el día hasta los 400 Km.
Durante la noche sus señales pueden llegar a los antípodas, manteniéndose la sensibilidad a los estáticos y a las ruidos producidos por las tormentas estivales. Es pues una banda nocturna e invernal como la anterior.
Banda de 7 MHz (40 metros de longitud de onda).
26 Es la banda de frecuencia más baja en la que apreciamos la existencia de una zona de silencio o de skip.
Podemos utilizarla durante el día para comunicaciones hasta una distancia de unos 800 Km, distancia que variará en función de la hora solar en el punto donde se realiza la primera, y en general única refracción diurna, lugar que está situado normalmente en la mitad del trayecto entre el punto de emisión y el de recepción.
Durante la noche posibilita comunicaciones alrededor del mundo entero, aunque de nuevo una cierta sensibilidad a los ruidos estáticos y a los producidos por tormentas provoca cierta incomodidad durante los meses veraniegos, sin llegar al extremo de las dos bandas anteriores, por lo que podremos usarla durante las horas nocturnas tanto en invierno como en verano.
Es la banda de radioaficionados de frecuencia más baja utilizable para realizar comunicaciones alrededor del mundo entero.
Banda de 10 MHz. (30 metros de longitud de onda).
27 Posee características comunes a las bandas diurnas y nocturnas, pudiéndose utilizar hasta los 1600 Km durante el día y proporcionando un alcance mundial durante la noche.
Si bien, en general, puede ser considerada una banda de uso durante las 24 horas, durante las épocas de mínimo solar la MUF puede caer por debajo de los 10 MHz, pasando entonces a poseer el perfil de las bandas diurnas de frecuencias más altas. Es la banda de frecuencia más baja en la que se hace notar el efecto de las variaciones debidas al ciclo solar.
Banda de 14 MHz. (20 metros de longitud de onda).
Es la banda más usada para la CLD, pues está siempre disponible durante las horas diurnas con independencia de la influencia del ciclo solar, aunque en los momentos de máxima actividad de este queda abierta para las comunicaciones también durante toda la noche, pues es una frecuencia lo suficientemente elevada como para no sufrir una gran absorción en la capa D y al mismo tiempo lo suficientemente baja como para refractarse de una forma adecuada en las capas F1 y F2.
Presenta una zona de silencio apreciable, no siendo de gran perturbación los ruidos estáticos sobre las comunicaciones.
28
Todas estas características positivas generan un importante problema que es la gran congestión existente en esta banda, lo cual produce frecuentes interferencias entre las distintas transmisiones.
Banda de 18 MHz. (17 metros de longitud de onda).
Similar en muchos aspectos a la banda de 21 MHz que describiremos a continuación, pero sin un influjo tan marcado de la actividad solar.
Durante los años de elevada actividad solar es utilizable durante el día y las primeras horas de la noche para comunicaciones con todo el mundo, mientras que los períodos en los que esta actividad es moderada se cierra para todas las comunicaciones inmediatamente al anochecer.
En los períodos de baja actividad solar es utilizable únicamente en las horas de mediodía en trayectos norte-sur y sólo en latitudes medias o en el ecuador.
Banda de 21 MHz. (15 metros de longitud de onda).
29 Comportamiento muy similar a la banda de 14 MHZ pero con una gran dependencia de la actividad solar.
En los años en los que esta es máxima se mantiene abierta durante todo el día y hasta muy avanzada la noche a las comunicaciones con todo el mundo, pasando a ser una banda diurna en los años de actividad solar media y cerrándose completamente los años de baja actividad solar.
Banda de 24 MHz. (12 metros de longitud de onda).
Banda fundamentalmente diurna durante los períodos de moderada y baja actividad solar, siendo utilizable hasta bien avanzada la noche en los máximos de la misma.
Nunca queda sin actividad salvo en los años de mínimo solar en latitudes altas. Incluso entonces se activa por esporádica E desde el final de la primavera hasta el otoño, aunque a veces es utilizable en ciertos períodos del invierno.
Banda de 28 MHz. (10 metros de longitud de onda).
30 Es la banda con variaciones más extremas respecto al ciclo solar, durante cuyos máximos es posible establecer comunicaciones a grandes distancias utilizando muy poca potencia en el transmisor durante el día y hasta horas muy avanzadas de la noche. Al ir decayendo la actividad solar va recortándose el número de horas que es utilizable, llegando a quedar totalmente sin propagación durante los años de mínimo solar.
También se activa por esporádica E desde finales de Abril hasta mediados de Agosto, con total independencia del ciclo solar.
Si pretendemos establecer una comunicación entre dos puntos de la superficie terrestre separados por una determinada distancia necesitaremos conocer el intervalo de frecuencias que podemos utilizar, ya que si utilizamos frecuencias muy altas pueden no reflejarse en la ionosfera y escapar al espacio exterior y si utilizamos frecuencias muy bajas obtendremos una comunicación con ruidos excesivos y utilizando potencias mayores de las estrictamente necesarias[MAS87].
El intervalo de frecuencias utilizables está limitado para cada lugar y momento por la frecuencia máxima utilizable y la frecuencia mínima utilizable, es decir la MUF y la LUF.
La MUF la obtendremos multiplicando la frecuencia crítica por un factor que manifieste la relación existente entre la distancia de transmisión, el ángulo de elevación de la onda transmitida y la capa ionosférica donde se efectúe la refracción, pero la dificultad principal para la obtención de este
31 factor va a ser la variación de la ionización en las distintas capas ionosféricas, las cuales se corresponden con la distinta radiación solar durante el día y la noche, durante las distintas estaciones del año y a lo largo del ciclo solar de los once años.
La LUF nos va a venir determinada por la absorción ejercida por la capa D, que va a ser inversamente proporcional a la raíz cuadrada de la frecuencia utilizada. Dado que la utilidad o no de una señal determinada para la realización de una comunicación va a venir determinada por el hecho de que la relación señal/ruido de la onda recibida sea mayor que la permitida por el receptor utilizado, la LUF va a estar influida por todos aquellos factores que modifiquen la cantidad de energía que finalmente llegue al lugar de recepción, siendo mayor cuanto más lo sean las pérdidas sufridas por la onda en su camino desde el emisor hasta el receptor cualquiera que sea el origen de las mismas. Cuando se incrementa la potencia de transmisión, disminuyen las pérdidas de propagación ionosférica o se mejora el rendimiento de las antenas se obtiene un descenso, a veces muy importante, de la mínima frecuencia utilizable.
Entre ambos límites se sitúa la frecuencia óptima de trabajo o FOT, que como ya hemos mencionado, se obtiene de una manera empírica multiplicando por el factor 0.85 el valor medio mensual de la MUF para el circuito en cuestión.
Una vez tenidos en cuenta todos los efectos anteriormente mencionados, vemos como nuestro principal objetivo va a ser la determinación de la frecuencia crítica para un determinado circuito, lo cual,
32 como vamos a ver a continuación, no resultará fácil dada su dependencia de múltiples factores, algunos de los cuales van a resultar a efectos prácticos casi aleatorios.
Denominaremos f0X a la frecuencia crítica de la capa X, siendo la máxima frecuencia reflejada desde esa capa. Así f0E y f0F2 son las frecuencias críticas de las capas E y F 2 respectivamente en una situación determinada, que estará relacionada con las densidades electrónicas máximas en la mismas.
La densidad electrónica crece con la altura, siendo mínima en la capa D y máxima en la capa F2 por lo que f0F2 será siempre mayor que f0E y tomándose como válida, en general y para incidencia vertical, la igualdad,
MUF = f0F2
Como ya hemos visto en la expresión (3.1), a la frecuencia de plasma fN la podemos expresar con bastante aproximación como
fN = 9 N1/2
(4.1)
siendo N la densidad electrónica en una capa determinada y fN la frecuencia en Hz.
33 Si tomamos Nm como el valor máximo de la densidad electrónica en una capa, todas las ondas con incidencia vertical y con una frecuencia menor a su frecuencia de plasma serán capaces de volver a la tierra, estando la frecuencia crítica expresada por lo tanto como
f0 = 9 Nm1/2
(4.2)
Podemos ver algunos valores habituales en la tabla de la
siguiente página, aunque
desgraciadamente estos valores sólo nos sirven como referencia, ya que para un mismo recorrido podemos observar grandes variaciones en la frecuencia crítica con el transcurrir del día, con los cambios de estación a lo largo del año y con los años dentro del ciclo de los once años, sin contar con la posible ocurrencia de variaciones en la propagación prevista, debidas a irregularidades en la radiación solar y a otros fenómenos como las esporádicas E, auroras boreales, etc.
Podemos tener una apreciación de esta variabilidad de las condiciones considerando que se han determinado valores de la f0F2 que no alcanzaban los 2 MHZ durante los años mas bajos del ciclo solar y tan altos como 15 MHz en presencia de esporádicas E, pudiéndose considerar como normal un valor de 10 MHz.
34
CAPA IONOSFÉR.
PERÍODO
CONC. ELECTR.
F. CRÍT. (MHz)
D
Mediodía
108 - 109
0.09 - 0.28
E
Mediodía
1011
2.8
F1
Día
2 1011
4.0
F2
Día
1012
9.0
F2
Noche
5 1010
2.0
Tabla 4.1
35
5 LA CALIDAD DE LA SEÑAL.
Otro factor a tener en cuenta y tan importante como la MUF para un determinado recorrido es la calidad de la señal obtenida, pues de nada nos serviría recibir una señal con una aceptable relación señal/ruido si la distorsión sufrida durante el trayecto es de tal magnitud que nos imposibilite la decodificación de la misma.
Una onda electromagnética sufre durante su recorrido desde el punto de emisión al de recepción diferentes alteraciones, siendo las mas importantes para el caso de una onda reflejada en la ionosfera las debidas a atenuación, retardo, fading o desvanecimiento, desplazamiento en frecuencia (Doppler), dispersión en frecuencia y en tiempo y distorsión de retardo.
Tomemos una señal compleja y por tanto con distintas frecuencias dentro de un ancho de banda, la denominamos E(t) y la transmitimos de un punto a otro de la superficie terrestre, realizando este paso mediante una única reflexión ionosférica. Como toda onda que cruza un medio físico sufrirá retardo. Al ser la ionosfera un medio dispersivo, las distintas frecuencias que componen nuestra onda recorrerán caminos ligeramente distintos, lo cual conducirá a retardos también distintos para las mismas. A esta nueva onda compleja, distorsionada por el retardo temporal, la denominaremos E´(t).
36 Sabemos también que nuestra onda va a sufrir atenuación y desvanecimiento13 aleatorio, el primero de estos procesos debido a que el proceso de refracción ionosférica no tiene un rendimiento total del 100 % y el segundo producido por súbitas variaciones de los valores de ionización debidas a su vez a alteraciones de la radiación solar en el punto de la ionosfera donde se produce la refracción.
Esta multiplicidad de procesos podemos incorporarla a nuestra onda E´(t) multiplicándola por una ganancia aleatoria expresada por G(A,v,s,t), donde A representa la atenuación con un valor entre 0 y 1, v y s representan al fading en términos de desplazamiento y dispersión de frecuencia respectivamente. Ahora la onda que recibimos ER(t) tendrá la siguiente expresión,
ER(t) = G(A.v,s ,t).E´(t-t )
13
Fading en lengua inglesa.
(5.1)
37 Debemos ahora tener en cuenta el hecho de que nuestra onda puede haber sido reflejada por las capas E o F 1, que puede además haberse dividido en dos haces, uno ordinario y otro extraordinario, debido al efecto del campo magnético terrestre14 y que finalmente puede haber llegado mediante un único salto o mediante varios. Todas estas posibles variaciones configuran los distintos modos de transmisión de una onda.
Para el modo j-ésimo tendremos la expresión siguiente,
ERj(t) = Gj(Aj,vj,s j,t).E´(t-t j)
(5.2)
y la señal recibida, expresada como resultado de la suma de los diferentes modos, tendrá finalmente la siguiente expresión,
ER(t) =
?
j=1
n
Gj(Aj,vj,s j,t).E´(t-t j)
(5.3)
Si además deseamos considerar la señal que nos pueda llegar a través de la onda de superficie (onda de tierra), esta sufrirá un retraso t g diferente pero no tendrá variaciones aleatorias y la nueva expresión de nuestra onda será,
Eg(t) = Ag(t-t g) + j=1?
14
n
Gj(Aj,vj,s j,t).E´(t-t j) (5.4)
Denominado habitualmente en lengua inglesa como splitting.
38
La aparente complicación de esta expresión se ve disminuida por el hecho de que la mayor parte de los distintos modos posibles sufre una fuerte atenuación, siendo útiles tan sólo unos pocos de ellos y siendo también frecuente el que no tengamos influencia alguna de la onda de superficie debido al relativo corto alcance de la misma.
Veamos ahora con detalle cada uno de los fenómenos anteriormente expuestos, su causa, magnitud, variabilidad y efecto sobre la onda transmitida [MAS90].
Dispersión temporal (t j):
La señal que obtenemos en el punto de recepción es en realidad una suma de señales que han realizado recorridos muy distintos y que por tanto han sufrido distintos retrasos, dando lugar a una dispersión en el tiempo de la onda final. Esto es lógico si tenemos en cuenta que podemos estar recibiendo simultáneamente la señal propagada a través de la denominada onda de tierra junto a la refractada en la ionosfera, refracción que se ha podido realizar en varias capas de la misma simultáneamente y que por tanto ha podido dar lugar a distinto número de saltos durante su trayecto.
Debemos de tener en cuenta también la posibilidad de estar recibiendo además señales que han realizado distintos trayectos ionosféricos debido a la posible incidencia en la ionosfera bajo
39 las denominadas trayectorias de ángulos alto y bajo, junto a la posibilidad siempre existente de que el efecto magnetoiónico en la ionosfera haya desdoblado nuestra onda en dos haces , ordinario y extraordinario, bajo la influencia del campo magnético terrestre.
Todos estos procesos pueden interferir gravemente en la transmisión de datos cuanto estos retrasos son de magnitud comparable al período de la información digital transmitida, es decir a la duración de la información que separa un estado digital del siguiente transmitido, que denominaremos duración de estado, denominando al fenómeno descrito como interferencia interestados.
Estudios recientes al respecto demuestran que existe una frecuencia por debajo de la MUF en la que la dispersión en el tiempo toma valores máximos. Valores que pueden servirnos como referencia son los siguientes [DAV66]: para un recorrido de 2.500 Km podemos llegar a tener una dispersión temporal máxima de 3 ms, para 1.000 Km de 5 ms y para 200 Km puede llegar a los 8 ms.
Vemos por tanto como una elección adecuada de la frecuencia a utilizar es algo básico para obtener elevadas frecuencias de transmisión de datos, estando limitada la elección a un estrecho intervalo de frecuencias por debajo de la MUF ya que si descendemos mucho por debajo de la misma incrementamos notablemente la posibilidad de encontrar grandes retrasos por trayectos múltiples y de que por tanto tengamos que recurrir a la disminución del ritmo de transmisión de datos para poder evitar la interferencia interestados.
40
Desvanecimiento (Gj):
Es frecuente que al analizar las señales recibidas en un receptor veamos que fluctúan en amplitud y fase, fenómeno al que hemos denominado desvanecimiento, que se aprecia como disminuciones de la intensidad de la señal recibida, con un carácter periódico y de frecuencia variable, del que son responsables los cambios que sufre la ionosfera.
Estos son básicamente cambios en la curvatura del reflector ionosférico, rotaciones en los ejes de la elipse de polarización, variaciones temporales de la absorción y cambios en la densidad electrónica de la ionosfera, todo esto en lo que se refiere a un único modo de propagación, ya que a todo lo anterior debemos añadir los fenómenos de interferencia entre dos o más modos que tengan amplitudes equivalentes.
En trayectorias de 2.000 Km el desvanecimiento más común es el producido al amanecer y al anochecer, con un ritmo típico de 10 a 40 desvanecimientos por minuto
Dispersión en frecuencia (vj): El desplazamiento en frecuencia que se produce para una trayectoria simple (de modo único) está causado por las variaciones producidas en el tiempo de la altura de la capa reflectora y de la densidad electrónica.
41
En el caso de que el transmisor y el receptor estén fijos y si ? es el ángulo de fase para un determinado haz en un tiempo t,
resulta, vj =
fd? cdt
Los mayores desplazamientos en frecuencia -debidos al efecto Doppler- ocurren durante el día, con valores positivos relativamente elevados durante el amanecer y valores negativos durante el atardecer. En días en los que no hay grandes alteraciones ionosféricas podemos obtener valores que oscilan entre 0.01 y 1 Hz para trayectos de salto único, siendo en general mayores para las trayectorias con reflexión en la capa F que para las que lo hacen en la capa D, incrementándose en mayor medida en las incidencias verticales que en las oblicuas.
No obstante, es frecuente encontrarse con desplazamientos entre 5 y 10 Hz durante la ocurrencia de grandes alteraciones ionosféricas , aunque sólo durante unos pocos minutos. Nos puede servir como referencia el hecho de que durante las llamaradas solares encontramos desplazamientos de 1 - 2 Hz.
Dispersión en el tiempo (s j):
Dado que cada modo de propagación está compuesto por un número determinado de rayos o haces con trayectorias ligeramente diferentes, cada uno de ellos sufrirá desplazamientos en frecuencia ligeramente diferentes, resultando una dispersión de las frecuencias recibidas.
42
Valores aproximados en condiciones ionosféricas de tranquilidad podría ser [MAS87] de 0.02 Hz para las reflexiones en la capa E y de 0.15 Hz para las efectuadas en la capa F.
Esta dispersión en frecuencia modula cada pulso transmitido y contribuye al desvanecimiento periódico de los pulsos recibidos, aunque con un período mayor que la duración típica de los mismos.
Distorsión por retardo (t j):
La distorsión por retardo tiene su origen en el hecho de que el retardo sufrido por una onda depende de su frecuencia y por tanto no es constante para las distintas frecuencias contenidas en un ancho de banda determinado y en que la dispersión causada por la reflexión en la capa E es muy pequeña mientras que es de mayor magnitud si la capa reflectora es la F.
En lo que se refiere a la transmisión de datos la importancia de la distorsión por retardo está relacionada con la tasa de cambio del retardo con la frecuencia y el tiempo, dado que un canal de propagación ionosférica no es estacionario ni en frecuencia ni en tiempo, aunque si limitamos el ancho de banda a unos 10 KHz y consideramos un tiempo lo suficientemente corto, alrededor de 10 minutos, podremos utilizar frecuentemente el modelo estacionario. De esta forma y considerando un número discreto de modos de propagación, podemos modelar
43 nuestro canal ionosférico mediante una línea de retardo con un numero también discreto de tomas, cada una de las cuales estará modulada en fase y amplitud por un coeficiente que varía en el tiempo.
44
6 LA ELECCIÓN DE LA FRECUENCIA.
La posibilidad de comunicación en HF a través de la ionosfera entre dos puntos geográficos determinados va indisolublemente ligada a la capacidad de determinar en cada momento cuál es la frecuencia adecuada para llevarla a cabo desde el primer momento en el que se inicia la comunicación y a todo lo largo del tiempo que dure la misma. A esta capacidad de elección de las frecuencias adecuadas en función de las condiciones existentes en cada momento se le acostumbra a denominar gestión de frecuencias.
Esta gestión de frecuencias se lleva a cabo mediante diferentes técnicas, que podemos clasificar en tres grandes grupos:
1. Predicciones ionosféricas a largo y a corto plazo.
2. Sondeos por pulsos ionosféricos y sondeos con desplazamiento de la frecuencia.
3. Evaluación en tiempo real de las condiciones de los canales de transmisión existentes.
1. Predicciones ionosféricas.
45 Ya hemos visto como las grandes variaciones en las concentraciones de las distintas capas electrónicas tienen un fiel reflejo en la MUF de cada momento -tabla 4.1-. Para establecer una comunicación de la calidad adecuada es necesario mantener la frecuencia utilizada por debajo de la MUF de cada período pero sin bajarla demasiado para no sufrir una absorción ionosférica excesiva, siendo la mejor elección en general, la FOT de cada recorrido.
Es posible en la actualidad cumplir estas condiciones con una exactitud muy adecuada a los fines para los que se pretende, gracias a diferentes programas para ordenador, que realizan el cálculo de la media mensual de la FOT para cualquier lugar del planeta, evalúan la adecuación de las posibles frecuencias utilizables en términos de relación señal-ruido probable y otorgan un factor de calidad o coeficiente de confiabilidad para un rango de las mismas y para cada recorrido estudiado, definiendo así una ventana de frecuencias utilizables.
El punto de partida de toda predicción de la MUF es la determinación de las frecuencias críticas de las capas E y F, es decir, f0E y f0F. La determinación en cualquier momento y lugar de la f0E es fácil, debido a su relación directa con el ángulo cenital solar, tiempo local y latitud, no existiendo sin embargo una relación tan directa como la anterior para la f0F, extremo éste de la máxima importancia, ya que es mucho mas frecuente el uso de esta última capa que el de ninguna otra, sobre todo en lo que a la CLD concierne.
Esta dificultad se evita realizando sondeos de incidencia vertical en unas 200 estaciones distribuidas a lo largo y ancho de todo el mundo, obteniéndose cada hora valores de f0F2 y de factores
46 relacionados con la MUF. Con las medias mensuales suavizadas obtenemos mapas mundiales de frecuencias críticas y de factores de la MUF.
Los mapas así obtenidos corresponden sólo a un determinado mes y con un determinado nivel de actividad solar, aunque como ya se han realizado mediciones durante más de un ciclo solar completo, tenemos disponibles mapas para cualquier mes y con cualquier nivel de actividad solar. A estos mapas se les denomina mapas numéricos, ya que se utiliza una función del tipo f(?,?,t), donde intervienen las tres variables implicadas en la propagación ionosférica, la latitud ?, la longitud ? y el tiempo t.
Dicha función se obtiene mediante el ajuste de series polinómicas de estas funciones a los datos ionosféricos previamente obtenidos, siendo especialmente útiles cuando deseamos efectuar predicciones para un gran número de recorridos.
Si comparamos las medianas mensuales de las predicciones obtenidas mediante el método recomendado actualmente por el CCIR [CCI90c] para las latitudes centrales europeas, con los datos obtenidos por sondeos de incidencia vertical durante el último ciclo de los 11 años, vemos que existe un acuerdo razonable entre ambos, con una variación menor del 10 % para la MUF. Ahora bien, este margen de error se duplica durante los períodos del amanecer y anochecer, pudiendo llegar hasta quintuplicarse en estas mismas situaciones durante el período estival [CCI90d].
47 La dificultad real de este tipo de predicción es que se basa en la observación estadística de períodos anteriores, por lo cual no es capaz de tener en cuenta las variaciones diarias originadas por la irregularidad de la actividad solar. Es por ello que tiene su utilidad en la predicción del comportamiento de base de la propagación ionosférica para cada período del año y en relación a la situación del año dentro del ciclo solar, debiendo ser complementada por otras técnicas de predicción para períodos más cortos junto a la realización de sondeos y utilización de balizas.
A la hora de efectuar predicciones de la LUF las dificultades aumentan, pues a la dependencia de las condiciones ionosféricas hay que añadir la dependencia de las condiciones con las que estamos trabajando, potencia de transmisión, equipos receptores, antenas, etc.
El límite inferior de la frecuencia más baja utilizable depende a su vez de la relación señal/ruido menor que admita el servicio que pretendemos utilizar. Es lógico suponer que no necesitamos la misma intensidad de señal para retransmitir complejas formas de onda para un enlace de alta velocidad de transmisión de datos que para una emisión de audio de alta fidelidad, de TV de alta definición o de un enlace telegráfico con código Morse. A todo lo anterior es necesario añadir la dificultad con la que los distintos programas de ordenador para la predicción de la fuerza relativa de la señal llevan a cabo el cálculo de la misma, obteniéndose a veces resultados dispares entre distintos programas.
Podemos decir que, en general, las pérdidas producidas a lo largo de un determinado recorrido dependen de la dispersión espacial de la energía, de la absorción ionosférica y de la existencia o no de la posibilidad de enfocar adecuadamente la energía transmitida en la dirección adecuada.
48
El primero de estos factores, las pérdidas por dispersión espacial, es de fácil apreciación mediante simples cálculos matemáticos. Sin embargo, el cálculo de la energía absorbida por la ionosfera es un proceso muy complejo que dependerá de la existencia de un buen modelo de lo que podríamos denominar atmósfera standard, para lo cual debe de tener una buena representación analítica de la variación de la concentración electrónica con la altura.
Es muy importante tener en cuenta que esta dificultad de modelado es máxima a la hora de representar el comportamiento ionosférico en situaciones como el amanecer, el anochecer, auroras boreales, etc.
El último de los factores, la capacidad de dirigir o enfocar la energía radiada en la dirección deseada, tiene una gran variabilidad, desde situaciones inmejorables entre estaciones fijas con antenas directivas y capacidad multibanda, hasta las dificultades provenientes de estaciones móviles con antenas isotrópicas, de pequeño tamaño y sin compensar adecuadamente para su uso en las distintas bandas de frecuencia.
Podemos por tanto afirmar que, para realizar cualquier predicción de la LUF, es básico tener en cuenta tanto la potencia transmitida como el rendimiento y características del sistema de antenas. Cualquier disminución de la potencia eficaz transmitida en la dirección deseada o una alteración de las características de rendimiento de las antenas utilizadas, limitará en gran manera la ventana de frecuencias utilizables en un determinado recorrido.
49
2. Sondeos.
Mediante los sondeos evaluamos propiedades del medio ionosférico tales como respuesta del canal utilizado a un impulso de corta duración, retrasos en la propagación y amplitud de la señal recibida.
A través de los sondeos medimos la respuesta de cada canal bajo prueba, transmitiendo bien un pulso electromagnético bien una señal cuya frecuencia se desplaza a lo largo del tiempo y entre unos límites determinados, estudiando luego las características de la onda reflejada.
Los sondeos mediante pulsos consisten en la emisión de un pulso de gran potencia y corta duración en frecuencias previamente seleccionadas, analizándose la señal después de su reflexión en la capa elegida.
Los sondeos mediante desplazamientos lineales de frecuencia15 se efectúan enviando una señal de baja potencia cuya frecuencia se desplaza en el tiempo entre 2 y 30 MHz. Mediante un preciso sincronismo entre el emisor y el receptor, operando este último en conjunción con un analizador de espectro, podemos determinar todas las características que nos interesan de la propagación en ese
15
Denominados como chirpsounding en la literatura inglesa.
50 recorrido, tales como retardos, desplazamientos en frecuencia, potencias recibidas en las distintas frecuencias, etc. Procesando esos datos podemos obtener estadísticas sobre la ocupación de los distintos canales, sus niveles de ruido, atenuación, etc, pudiéndose tomar decisiones respecto a cuales son las mejores frecuencias a utilizar por tener las mejores condiciones de propagación, y dentro del rango de frecuencias elegido las frecuencias específicas con los menores niveles de ruido.
Ambas técnicas se pueden utilizar con incidencia vertical u oblicua en la capa ionosférica cuyas propiedades queremos determinar. En este último caso, debemos disponer el emisor y el receptor en los extremos del trayecto a estudiar, o bien podemos tener ambos en el mismo lugar y aprovechar la reflexión irregular en el suelo de la onda reflejada en la ionosfera con incidencia oblicua -sondeo por dispersión inversa- 16.
Otra técnica de sondeo bastante utilizada es la que se concreta en la comprobación sólo de determinadas frecuencias o sondeo de canales. Para llevarla a cabo es necesario un buen sincronismo entre receptor y emisor, llevándose éste a efecto mediante relojes controlados por cristal de cuarzo. La ventaja fundamental de este último sistema consiste en que comprobamos únicamente aquellas frecuencias que sabemos podemos utilizar, debido a limitaciones administrativas o técnicas. Además
16
Denominado backscatter sounding en la literatura inglesa.
51 esta rapidez en el análisis de las frecuencias disponibles nos permitirá utilizar vías inusuales de propagación y corta duración, como esporádicas-E, etc.
3. Evaluación en tiempo real de los canales de transmisión existentes.
Las predicciones de propagación nos proporcionan ventanas de frecuencias para recorridos y períodos de tiempo determinados con una aproximación del 10 %, siendo corriente asimismo indicar la FOT prevista para cada hora. En un circuito real lo más frecuente es elegir de entre las frecuencias previstas como utilizables un conjunto de las mismas durante el día y otro durante la noche para el recorrido que nos interesa.
Este proceso puramente teórico tiene como principales dificultades las siguientes:
- No tenemos en cuenta las interferencias producidas por otros usuarios.
- El volumen de datos sobre los que se han realizado los cálculos es frecuentemente muy limitado.
- Ciertos fenómenos de ocurrencia aleatoria, como las alteraciones ionosféricas repentinas, tormentas ionosféricas y alteraciones en los casquetes polares, no pueden ser previstos, dada la propia naturaleza de esos fenómenos.
52 - Otros fenómenos transitorios, como la ocurrencia de esporádicas-E, no son siempre previsibles.
Para conseguir salvar la mayor parte de estas dificultades se acostumbra a realizar predicciones a corto plazo, que se basan en la información obtenida en tiempo real de la actividad solar, de los parámetros ionosféricos y de la propia información sobre la propagación obtenida mediante las comunicaciones que en ese momento se están llevando a cabo.
A pesar de todo, todavía seguimos observando los siguientes inconvenientes:
- Los datos correctores están basados en un muestreo realizado en tiempo real y de una forma limitada, por lo que no podemos garantizar su adecuación para todos los recorridos.
- La transmisión en tiempo real del flujo de información generado encuentra problemas logísticos y económicos para su realización.
- Las correcciones así transmitidas no delimitan en general cual es el subconjunto de frecuencias más adecuado para un determinado recorrido.
- De nuevo el ruido generado por la actividad humana no es tenido en cuenta, pues es muy variable en cada recorrido.
53 Vemos por tanto como el análisis y la predicción por ordenador de las frecuencias más adecuadas para establecer un enlace entre dos puntos determinados de la tierra y a una hora determinada pueden ser útiles, y de hecho lo son, para su utilización genérica y como punto de partida para determinaciones más específicas, pero no son suficientes cuando necesitamos disponer de vías de comunicación con alta disponibilidad y fiabilidad, máxime cuando uno o los dos puntos a enlazar están situados sobre vehículos en movimiento, aeronaves, automóviles o navíos.
Es por ello por lo que se recurre frecuentemente al análisis en tiempo real de las frecuencias a utilizar, método que denominaremos por sus iniciales anglosajonas como RTCE, proveniente de Real Time Channel Evaluation, y que según el CCIR es "el conjunto de los procesos de medida de los parámetros apropiados de un grupo de canales de comunicación en tiempo real y el empleo de los datos así obtenidos en la descripción cuantitativa de los estados de esos canales y de sus capacidades relativas para ser utilizado con unos tipos determinados de tráfico de comunicaciones".
En realidad lo que se pretende es obtener un modelo numérico para cada uno de los canales o frecuencias analizados, de manera que pueda ser utilizado como criterio diferenciador de la adecuación del canal al uso que se pretende y con el fin de controlar todo el proceso de transmisión, llegándose más allá de la mera medición de las condiciones ionosféricas al último minuto, ya que podremos tener en cuenta las interferencias producidas por los otros usuarios.
54 El término tiempo real implica el medir los parámetros deseados en el canal analizado a intervalos del mismo orden de magnitud del tiempo de respuesta del sistema a las entradas de control, pues de nada serviría tomar medidas que el sistema, por su lentitud en reaccionar, no pudiera utilizar.
Realmente esperamos algo mas que la frecuencia mas adecuada de trabajo de un sistema RTCE. Buscamos además los tiempos adecuados para iniciar la transmisión así como la velocidad de flujo de datos mas idónea.
El esquema de funcionamiento de un sistema de este tipo es básicamente el siguiente:
- Elegimos un número determinado de bloques de frecuencias en HF, los cuales vendrán determinados por ser aquéllos en los que estemos autorizados a trabajar o bien hallan sido recomendados por el organismo oficial adecuado por ser los más adecuados al fin que se pretende.
- El tamaño de estos bloques debe de ser de pocos cientos de KHz de amplitud, pues es el intervalo en el que razonablemente se conservarán las condiciones de propagación observadas, de manera que cualquier apreciación de las condiciones de propagación realizada sobre una de las frecuencias del bloque será considerada válida para todas las otras frecuencias que forman parte del mismo.
55 - Efectuaremos las pruebas de manera cíclica sobre una sóla de las frecuencias de cada bloque, en orden ascendente de frecuencia desde la menor a la más alta.
- La prueba puede consistir únicamente en el envío de una señal por parte del emisor y su posterior evaluación en el punto de recepción o puede a su vez ser enviada información posteriormente en sentido inverso hacia la estación inicialmente emisora.
- Además de recibir y analizar señales en función de sondeo, el sistema debe ser capaz de medir los niveles de interferencia en todas las frecuencias de cada bloque, determinando la adecuación o no de las mismas para el uso que se espera de las mismas.
La primera parte del proceso para cada canal a estudiar consiste en la medición del nivel de ruido de fondo en la estación que inicia la evaluación, siendo emitida esta información a la estación receptora donde se medirá además la relación señal/ruido de la emisión recibida, todo esto naturalmente si el estado de la propagación ha permitido la conexión.
Una vez se ha efectuado la evaluación de una de las frecuencias de cada uno de los bloques disponibles se ha cerrado un ciclo, que puede volver a repetirse de manera inmediata o con intervalos programados según las necesidades del sistema. La estación receptora tiene entonces una apreciación general del estado de la propagación en ese momento y puede iniciar el enlace, eligiendo la frecuencia mas adecuada en función de los parámetros recibidos de la estación transmisora y de aquellos otros que hayan sido medidos "in situ".
56
Todo este proceso exige bien la recepción simultánea en cada una de las frecuencias de referencia dentro de cada bloque, bien un adecuado sincronismo para los cambios de frecuencias entre las estaciones inicialmente emisora y receptora, o la realización de un algoritmo bien estudiado de manera que facilite el intercambio de datos que permita el sincronismo inicial.
Vemos como esta técnica puede suplir las deficiencias de todos los sistemas de predicción anteriormente estudiados, desplazando a los grandes sistemas de antenas con transmisores de gran potencia para realizar los sondeos en favor de sistemas mas pequeños y manejables, donde las posibilidades de cálculo y operación automáticos que poseemos en la actualidad toman un papel preponderante
57
7 LA AUTOMATIZACIÓN DEL ENLACE.
Es mucho y a la vez poco lo que podemos expresar sobre enlaces automatizados. Mucho porque muy elevadas son las exigencias que sobre el papel deben cubrir los equipos de conexión automatizada, HF ALE Radios -High Frecuency Automatic Link Establishment Radios- según unas denominaciones, o ALIS -Automatic Link Setup- según otras. Poco porque no es demasiado lo que en la actualidad tenemos realizado .
Veamos en primer lugar qué es lo que se le pide a un equipo capaz de establecer comunicaciones fiables y estables por sí mismo, guiándonos para ello de diversos estándares federales [ADA92,BOD85], unos ya existentes y otros solamente propuestos, en los EE.UU. de Norteamérica.
- Las señales que constituyen la información a transferir deben de pasar a través del ancho de banda de audio de los equipos actuales de HF en Banda Lateral Única o BLU17, denominados en los países anglosajones como Single Side Band Radios -SSB Radios-.
17
Límite inferior de 400 Hz y superior de 2600 Hz. Es decir un ancho de banda de paso de 2200 Hz.
58 -Deben poseer modems digitales robustos y de la mayor velocidad que sea posible para proveer transmisiones digitales con llamada selectiva.
-Seleccionarán de forma automática el mejor canal, basándose en un proceso de análisis de la calidad del enlace y cuyos datos deberán poder almacenar en su propia memoria.
-Es necesario que establezcan las conexiones y las confirmen de manera automática.
-Deben de poder transferir datos y órdenes de control, efectuar control de errores, trabajar como circuitos de comunicaciones18 y, si es posible, tener la capacidad de establecerlos de manera automática.
-Es conveniente que su diseño sea lo suficientemente abierto como para que sea posible incorporarles todas aquellas nuevas funciones que el proceso de pruebas y desarrollo por el que deben pasar haga necesarias.
18
Networks en la literatura anglosajona.
59 Durante el proceso de establecimiento del enlace, un equipo ALE debe mantener las siguientes condiciones: -Debe estar siempre a la escucha de señales provenientes de otros equipos ALE barriendo las frecuencias que tenga predeterminadas, independientemente de otras funciones que esté llevando a cabo.
-Responderá, salvo orden expresa en contra, a cualquier requerimiento de conexión.
-Nunca interferirá en aquellos canales donde se esté llevando a efecto una comunicación ALE.
-Intercambiará siempre los análisis de calidad de los enlaces -LQA19- cuando sea requerido para ello y medirá la calidad de señal de los posibles corresponsales aunque en ese momento no tenga prevista conexión alguna con ellos.
-Responderá con las pautas temporales que se le indique, con el fin de poder atender las distintas modalidades de comunicaciones, en tiempo real, circuitos de comunicaciones, llamadas especiales, etc, que se le soliciten.
19
Del inglés, Link Quality Analysis.
60 -Procurará, salvo instrucción en contra, establecer y mantener la conectividad -posibilidad de establecer un enlace cuando le sea solicitado-, siempre que le sea posible. -Buscará la utilización de todas las potencialidades con los equipos con los que conecte, es decir, optimizará la velocidad de transmisión de datos y minimizará tanto el tiempo utilizado como la potencia radiada durante el intercambio de datos.
El análisis de la calidad del enlace o LQA al que nos hemos referido con anterioridad, consiste en la medida automática de la calidad de la señal intercambiada entre las estaciones que forman el enlace, y se basa en la determinación de la relación de errores de bit -BER20- y el cociente entre los suma de los niveles de la señal más el ruido más la distorsión y la suma de los niveles de ruido más la distorsión -SINAD-.
Los datos adquiridos y procesados deben de poderse almacenar en memoria, tomándolos en cuenta a la hora de elegir el mejor canal disponible para realizar la comunicación que se pretende.
Una de las características mas poderosas de un enlace ALE consiste en la posibilidad de establecer llamadas selectivas. La estación que llama lo hará con su identificación propia y la de la estación llamada. Cuando esta llamada es oída, la estación receptora la reconoce y responde. Luego la
20
Bit Error Ratio en los países de habla inglesa.
61 estación que llamó originalmente confirma la recepción del reconocimiento y da por establecido el lazo de comunicación, transmitiendo en primer lugar los datos LQA que posee respecto a esa estación y a todas las demás con la que mantiene conectividad. Esta característica la poseen en la actualidad los equipos que trabajan en modo AX25 -radiopacket-, en AMTOR o en TOR en modo ARQ o con la última novedad Packtor, que reúne las mejores características de los dos sistemas anteriores.
Los actuales equipos presentan la característica de tener en un mismo conjunto los microprocesadores que realizan los cálculos y los equipos de transmisión y recepción encargados de la comunicación. Esto tiene la ventaja de constituir unidades muy compactas, lo cual es en general una ventaja, pero presentan al mismo tiempo el inconveniente de que, al ser equipos totalmente dedicados a un sólo y específico uso, resultan caros para una gran cantidad de aplicaciones no intensivas, ya que la capacidad de cálculo no puede ser dedicada a otras tareas, al tiempo que el número de unidades fabricada es bastante pequeño, con el consiguiente encarecimiento del precio de las mismas.
Otro de los inconvenientes de las equipos actualmente en funcionamiento es el hecho de que en realidad todo o casi todo su funcionamiento se reduce a las posibilidades inherentes al RTCE expresadas anteriormente, junto a la posibilidad de llamada y conexión automática.
Si analizamos todo lo expresado a lo largo de este trabajo vemos que se perfila la idea de que la conexión entre una o varias estaciones de HF es una operación que requiere gran pericia, un conocimiento pleno del manejo de los equipos adecuados y recurrir tanto a la experiencia previa, como
62 a los procedimientos de cálculo y pronóstico de frecuencias actualmente existentes, para poder determinar las que son más adecuadas a la distancia entre las estaciones entre las que se pretende comunicar, teniendo en cuenta la hora del día, el día del mes, la época del año, etc, factores determinantes, como ya sabemos, del éxito de la operación. Si añadimos lo escaso del número de personas que en la actualidad posee las cualidades necesarias para todo ello, surge una pregunta: ¿No son éstas las condiciones más idóneas para la utilización de un Sistema Experto?.
Veamos algunas definiciones habituales para un Sistema Experto [NEB88]:
-Bajo el término Sistema Experto -SE- se entiende un nuevo tipo de software que imita el comportamiento de un experto humano en la solución de un problema. Pueden almacenar conocimientos para un campo determinado -y muy delimitado- solucionando los problemas mediante deducción lógica de conclusiones.
-Los SE se utilizan preferentemente en problemas en los que se necesite un procedimiento de resolución basado en el conocimiento, entendiendo como tales procedimientos a los que tengan las siguientes capacidades:
-Utilización de normas u otras estructuras que contengan conocimientos y experiencia de expertos especializados.
-Deducción lógica de conclusiones.
63
-Interpretación de datos ambiguos.
-Manipulación de conocimientos vagos, es decir, conocimientos afectados por valores de probabilidad.
Una de las particularidades que hacen especialmente interesantes a los sistemas expertos es el que separan los conocimientos -reglas, hechos- del procesamiento de los mismos, por lo que es posible añadir o eliminar información sin cambiar el programa.
Un sistema experto se compone en esencia de los siguientes elementos:
-La base de conocimientos, que contiene el conocimiento de los hechos y la experiencia de los expertos en un dominio determinado. Contiene todos los hechos, las reglas y los procedimientos del dominio de la aplicación que son importantes para la solución del problema. Podemos pensar en ella [SCH88] como una lista de objetos con sus reglas y atributos listados, definiéndose un objeto como una conclusión que se define por sus reglas asociadas y siendo un atributo una cualidad específica que, junto con su regla, ayuda a definir al objeto.
-El motor de inferencia, que puede simular la estrategia de solución de un problema tal y como lo abordaría un experto humano. Es la unidad lógica con la que se extraen conclusiones
64 de la base de conocimientos , según un método fijo de resolución de problemas que está configurado para imitar el procedimiento de los expertos para solucionarlos. Se pueden establecer dos amplias categorías de mecanismos de inferencia donde se podrían encuadrar a la mayor parte de los SE existentes en la actualidad, los de carácter determinista y los de carácter probabilístico.
-El componente explicativo, cuya utilidad es la de explicar al usuario la estrategia de solución encontrada y el porqué de las decisiones tomadas. Las soluciones descubiertas por los SE deben de poder ser repetibles tanto por el ingeniero de conocimiento en la fase de comprobación como por el usuario, siendo deseable que durante el trabajo del sistema se conozca en qué grado de progreso está el procesamiento del problema. Esto es muy difícil de conseguir, no habiendo sido posible hasta ahora cumplir todos los requisitos de un buen componente explicativo.
-El interfaz de usuario, que hace que éste pueda realizar su consulta al SE en la forma más cercana al lenguaje natural posible. Establece la forma en la que se presenta al usuario, debiendo tener la posibilidad de un aprendizaje rápido de su manejo, evitar dentro de lo posible la introducción de datos erróneos y poder presentar los resultados de una manera clara e inteligible para el usuario. Es estrictamente necesario el que las preguntas, explicaciones y respuestas sean comprensibles.
65 -El componente de adquisición, que ofrece ayuda a la estructuración e incorporación del conocimiento a la base de conocimientos. Debe de tener las siguientes cualidades:
-El conocimiento, es decir, las reglas, los hechos, las relaciones, etc, deben de poderse introducir de la forma mas sencilla posible.
-Debe permitir una representación clara de todos las informaciones contenidas en la base de conocimientos, junto a una comprobación automática de la sintaxis.
-Debe de ofrecer la posibilidad de acceder de manera constante al lenguaje de programación subordinado.
La posibilidad de cumplimiento de todos estos requisitos dependerá de una manera directa tanto del lenguaje de programación elegido como del hardware asociado.
Visto todo lo anterior, la cuestión es, ¿porqué no confiar la gestión de frecuencias a un SE?.
Un SE puede utilizar los datos proporcionados por un programa de predicción de las condiciones de propagación ionosférica a medio y largo plazo, incluir en su base de conocimientos la forma de actuar y operar una estación de HF por un experto en comunicaciones en los modos en los que estemos interesados y puede finalmente controlar de forma directa los parámetros que permitan el
66 funcionamiento de un sistema de emisión-recepción, para que pueda realizar un análisis en tiempo real RTCE- del conjunto de frecuencias previamente elegidas y establecer la comunicación en el canal más adecuado.
Este SE se puede realizar mediante un programa escrito en un lenguaje de uso común, tal y como LISP o PROLOG [BEL87] y utilizarse sobre un ordenador tipo PC, con lo cual el paso de ordenes al equipo de transmisión se podría realizar a través del dispositivo de salida serie estándar RS232, siendo recibidas estas órdenes por cualquiera de los equipos transceptores en HF que en la actualidad están dotados de interfaces adecuadas que le permiten recibir ordenes y dar información por esta vía.
Las ventajas de una realización de este tipo serían múltiples:
-Tanto el ordenador como el transceptor utilizados son equipos convencionales de uso común y por consiguiente de bajo precio.
-Los lenguajes de programación LISP y PROLOG están ampliamente divulgados y profusamente documentados lo cual facilita su uso en la programación del SE. El uso de un SHELL o núcleo de SE comercial acortaría la fase de desarrollo, pero tendría a su vez el inconveniente de su elevado coste.
67 -El sistema puede ser utilizado como tal en unas determinadas condiciones, y al variar éstas seguimos teniendo disponibles de forma separada las capacidades tanto de cálculo del ordenador como las de comunicación del transceptor.
-El precio final del sistema es necesariamente bajo al utilizarse elementos no específicos sino de uso común, lo cual permitiría su empleo en aplicaciones no intensivas que por tanto no justificarían el uso de un sistema integrado de alto coste, o donde el presupuesto tenga prioridad sobre cualquier otro tipo de consideración.
Vemos pues como un sistema como el anteriormente descrito podría aunar los mejores medios de que disponemos en la actualidad, el análisis de la propagación ionosférica a medio y largo plazo con la comprobación de la posibilidad de utilización real de las frecuencias predichas junto a la automatización real de los enlaces.
68
REFERENCIAS.
[ADA92]
Adair, Robert T. & Dennis Bodson, 1992, "A Family of Federal Standards for HF Radios, QST May 1992, págs. 73-76, American Radio Relay League, Newington, CT, USA.
[ARR92]
The ARRL Handbook. American Radio Relay League. Newington, Conneticut, USA, 1992.
[BEL87]
Bell, Doug and Ian Morrey, "Ingeniería del Software aplicada a la Programación". John Pugh. Anaya Editorial. Madrid, 1987.
[BOD85]
Bodson, Dennis, 1985, "The Federal Telecommunication Standards Program", IEEE Communications Magazine January 1985, págs. 56-62, Piscataway, NJ, USA.
[CCI90a]
"CCIR Ionospheric Properties", Report 725-3 in Recommendations and Reports of the CCIR, 1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf, Alemania.
69 [CCI90b]
"CCIR Definitions of Maximum and Minimum Transmission frecuencies", Recommendation 373-6 in Recommendations and Reports of the CCIR, 1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf, Alemania.
[CCI90c]
CCIR HF Propagation Prediction Method.
Report 894-2 in Reports of the CCIR,
1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf, Alemania.. Düsseldorf, Alemania, 1990.
[CCI90d]
CCIR Short-term Forecasting of Critical Frecuencies, Operational Maximum Usable Frecuencies and Total Electron Contents. Report 888-2 in Reports of the CCIR, 1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf, Alemania.Düsseldorf, Alemania, 1990.
[CCI90e]
CCIR Real-time Evaluation of HF Ionospheric Radio Circuits. Report 889-2 in Reports of the CCIR, 1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf, Alemania. Düsseldorf, Alemania, 1990.
[CCI90f]
CCIR Short-Term Forecasting of Critical Frecuencies, Operational Maximum Usable Frecuencies and Total Electron Contents. Report 888-2 in Reports of the CCIR, 1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf, Alemania.
70
[GOO92]
Goodman, John M. "HF Communications Science and Technology". Van Nostrand Reinhold. New York, USA, 1992.
[DAV66]
Davies, K. , 1966, "Ionospheric Radio Propagación", Dover Publications, New York, USA.
[HEL91]
Helfert, H.P. & U. Strate. Pactor, Radioteletype with memory ARQ and Data Compression. QEX, October 1991. Pags. 3-6. American Radio Relay League. Newington, Conneticut, USA, 1992.
[HEN92]
Henry, Bill. Getting Started in Digital Communications. ARRL QST, June 1992. PAGS. 34- . American Radio Relay League. Newington, Conneticut, USA, 1992.
[MAS87]
Maslim, Nicholas, 1987, "HF Communications, A Systems Approach", Pitman, London, UK.
[NEB88]
Nebendahl, Dieter. "Sistemas Expertos. Introducción a la Técnica y Aplicación". Marcombo S.A. Barcelona, 1988.
71 [SAL92]
Salerno, Dennis P. & Thomas F. Washer II, "Desert Storm: Air Assault Communications", IEEE Communications Magazine January 1992, págs. 36-41, Piscataway, NJ, USA.
[SCH88]
Schildt, Herbert. "Turbo Prolog, Programación Avanzada". Osborne/McGraw-Hill. Madrid, 1988.
[WAL92]
Wallace, Michael A, "HF Radio in Southwest Asia", IEEE Communications Magazine January 1992, págs. 58-61, Piscataway, NJ, USA.
[WAT70]
Watterson, C.C. "Experimental Confirmation of an HF Channel Model". IEEE Trans. Comm. Tech. COM-18,1970. Piscataway, NJ, USA.
72 NOTAS.
73