Hallo,
bei folgender, bislang noch nicht praxisrelevanter Aufgabenstellung stehe ich auf den Schlauch:
Angenommen ich habe ein Signal im Zeitbereich (z.B. NF-Ton oder auch eine Zeile eines Fernsehbildes). Dieses Signal wird AM moduliert und gesendet. Spektrum etc. alles klar.
Jetzt wird dieses im Empf=E4nger demoduliert. Theoretisch ist das Signal identisch zum Ausgangssignal. Wie ver=E4ndert sich das Signal wenn der Empf=E4nger nicht perfekt eingestellt ist? Beim detektor-Empf=E4nger scheint es noch klar zu sein, das Signal wird schw=E4cher.
Aber beim Radio h=F6rt man Pfeifger=E4usche, Verzerrungen und beim Fernseher gibt's =DCberschwinger an Kanten und weniger Kontrast nebst Rauschen nat=FCrlich und Verlust der Bildsynchronisation. Es m=FCsste eine Verschiebung im Frequenzbereich sein. Kann man das analytisch im Zeitbereich berechnen ohne FFT und dann IFT zu machen? Also z.B. wenn das Ausgangssignal als PCM vorliegt eine Art Algorithmus entwerfen, was diese St=F6rungen in Echtzeit simuliert?
Spielerische Praxisanwendnung w=E4re z.B. ein VST-Plugin was diese typischen Radioeinstellger=E4usche simuliert.