Vielleicht gibt es hier Radioinsider, die mir da weiterhelfen können.
Jawohl, gibt es! Wie mein nick verrät, bin ich sozusagen Experte für die elektromagnetischen Wellen.
Also, unsere Atmosphäre ist kein homogenes Ausbreitungsmedium für elektromagnetische Wellen. Luftdruck, Temperatur, Feuchtigkeit etc. variieren mit der Höhe über Grund und vor allem mit dem Ort, d. h. hier und vielleicht 50 km entfernt bestehen unterschiedliche Zustände in der Atmosphäre. Man kann auch sagen, dass die Dichte der Atmosphäre schwankt. Unterschiedlich dichte Schichten brechen das elektromagnetische Signal auch unterschiedlich (das haben wir alle in der Schule gelernt – das bekannte Experiment mit dem Wasserglas und dem Stift darin, der geknickt erscheint).
Diesen sog. N-Faktor (in der Physik kriegt ja alles einen Kenner) hat man auch mit Ballonen und sog. Refraktometern gemessen und weiß deshalb auch, dass das tatsächlich so ist. In der Realität bewegt sich dieser Faktor aber nur im tausendstel-Bereich, d. h. eigentlich sind diese Instabilitäten gar nicht so groß. Trotzdem reicht es, ein Signal, welches hunderte von Kilometern entfernt abgestrahlt wird, leicht „abzulenken“ bzw. zu brechen und zwar meistens nach unten. Wenn das passiert (abhängig von der Wetterlage), dann strahlen Sender also (i. d. R. kurzzeitig) viel weiter, als sie sollten.
Treffen diese Signale nun irgendwo in ein Empfangsgebiet - auf dem gleichen Kanal oder in einem Nachbarkanal (weniger kritisch), kriegt der Empfänger neben dem gewünschten Signal eben noch dieses sog. Interferenzsignal und weiß nicht, welches er demodulieren soll. Das ist so, wie wenn zwei Leute gleichzeitig auf einen einreden.
Das Problem in Bezug auf die Senderplanung ist, dass wir nur Durchschnittswerte dieses Störszenarios kennen. Niemand kann voraussagen, wann wo wie stark diese Interferenzen auftreten. Deshalb rechnet man in der Netzplanung immer zwei Feldstärkeergebnisse der Sender, einmal das zu lt. ITU mit 50% Zeitwahrscheinlichkeit (das sog. „wanted“, also gewünschte) Signal und einmal das 1%-Signal, eben das Störsignal.
Die 1% entsprechen dabei der angenommenen Zeit dieser Tropoausbreitung. Dann werden beide Ergebnisse mit der Planungssoftware so ausgewertet, dass immer das stärkere Signal an einem Pixel (z. B. im 100 m-Raster) genommen wird. Um den Nutzsender rum ist das normalerweise das 50%-Signal, weil der Störsender sehr weit weg ist.
Gibt es nun aber einen Sender in einiger Entfernung (vor allem im Gleichkanal), der sehr stark sendet und mein Nutzsender ist vielleicht recht schwach, dann würde die Software sowieso sagen „geht nicht“. Das heißt also, die Frequenz ist ungeeignet und eine andere wird geprüft.
Das macht die Software normalerweise automatisch für das ganze Band (Frequenzscan) und zwar mit der ITU-Datenbank. Findet das Programm eine mögliche „gute“ Frequenz (also mit geringer Störbelastung), untersucht der Planer diese Frequenz genauer und teilt sie dann zu, wenn sie den Vorgaben entspricht.
Dumm nur, dass man eben die Natur nicht vorausberechnen kann, d. h. heißt niemand kann im voraus erkennen, wie stark Sender einander tatsächlich stören. Man kann immer nur sehr grobe Durchschnittswerte annehmen, die halt oft auch falsch sind. Das heißt auch, dass ich mein Netz wegen sehr kurzzeitigen Störungen für den Rest der Zeit „überdimensionieren“ muss. Das wird ja oft beklagt, die öffentlich-rechtlichen, die als erstes angefangen haben vor langer Zeit, bekamen die „guten“ Frequenzen und die, die danach kamen, mussten nun nehmen, was noch übrig blieb im Spektrum. Und das sind dann halt oft auch die Frequenzen, die höher störbelastet sind.
Ok, ich hoffe, es ist nun etwas klarer. Das Thema Ausbreitungsmodelle (wie berechnet man die Ausbreitung elektromagnetischer Signale) habe ich bewusst mal ausgespart, das ist ja auch noch so ein Thema…