Software Defined Radio

Software Defined Radio

Lösungen für analoge und digitale Funksysteme

Mit der Evolution drahtloser Kommunikationsstandards sind analoge Radiosysteme, die mehr als ein halbes Jahrhundert die Grundlage der Funktechnologie gebildet haben, zum Auslaufmodell geworden. Digitale Funksysteme befinden sich seit den frühen 90ern in Produktion. Angesichts dieses neuen Trends, der Entwicklung von digitalen Technologien und der allgemeinen Begeisterung dafür, entsteht das Bedürfnis, digitales Radio nicht nur zu verstehen, sondern auch anpassbare Lösungen bereitzustellen, die der wachsenden Nachfrage nach einer gemeinsamen Integration analoger und digitaler Domänen gerecht werden.


Um die Ansprüche von Anwendern an Infotainmentsysteme zu erfüllen, benötigt besonders die Automobilindustrie eine Lösung für die Kombination digitaler und traditioneller analoger Radiosysteme. Da aber die Fahrzeuge in alle Welt ausgeliefert werden, gibt es keine konkrete Anwendbarkeit eines einzigen Radioformats; denn unterschiedliche Länder nutzen unterschiedliche Standards. Länder oder Regionen haben sich aus ganz unterschiedlichen Gründen für einen bestimmten Standard entschieden. Daher besteht die Forderung nach einer anpassbaren Lösung, die sich per Software konfigurieren und auf einfache Weise über Nationen und Regionen hinweg portieren lässt. Dies erreicht man mit Hilfe einer Technologie die auch als Software Defined Radio (SDR) bekannt ist. Das SDR zugrunde liegende Prinzip besteht darin, dass auf einem Universalprozessor laufende Software die bisher normalerweise in Hardware realisierten Funktionen des Empfangspfades abarbeitet, bspw. die Demodulation und die Decodierung des Audiosignals. Per Software wird definiert, wie genau das von der Antenne kommende Signal verarbeitet wird. Sowohl der analoge als auch der digitale Rundfunkempfang im Auto können so mit einem Minimum an Komponenten realisiert werden.

Format verstehen, dechiffrieren, Details extrahieren

Abbildung 1 zeigt ein Blockschaltbild zur Realisierung einer SDR-Lösung auf abstrakter Ebene. Das Diagramm demonstriert externe, sich nicht auf dem Chip befindende Radiotuner, die sich entweder im Integrated Inter-chip Sound-Format (I2S) oder in einem Hochgeschwindigkeitsformat wie JESD204B anbinden lassen. Das letztere wird typischerweise für Applikationen verwendet, die eine hohe Konvertergeschwindigkeit (~1Gbit/s) und hohe Auflösung voraussetzen. Solche Tuner geben die Daten in einem seriellen Bitstrom aus, der innerhalb des SoC über LVDS- oder GPIO-Pins weitergeleitet wird, je nachdem, welches der zwei Formate zur Anwendung kommt. Für eine Hochgeschwindigkeitsübertragung nach JESD204B werden LVDS-Pads eingesetzt. Der serielle Bitstrom im I2S-Protokoll ist ein Pulse-Code- Modulated-Strom (PCM ), der von einem I2S-Controller im Chip erfasst wird. Der Controller ist für die Deserialisierung dieses Bitstroms und die Erzeugung der I-Sample (In-Phase) und Q-Sample-Ausgangswerte (Quadratur-Phase) mit variabler Länge (32Bit/16Bit/8Bit) verantwortlich. Im JESD204B-Format wird ein 10b-codierter (8b/10b-Format) Bitstrom geliefert, der in das Chip eingespeist wird. Der zugehörige JESD204B-Controller decodiert diesen Strom zurück auf gültige 8b-Daten, sammelt alle solchen 8b-Werte und generiert dann ähnliche I-Sample- und Q-Sample-Ausgangswerte mit variabler Länge. Die zugehörigen Abtastwerte, I-Sample und Q-Sample, werden dann in unterschiedlichen FIFO-Bänken gespeichert, die innerhalb des Chips zur Verfügung stehen. Im FIFO werden die von den Controllern für die weitere Verarbeitung erzeugten Detaildaten gespeichert. Wurden genügend Daten im FIFO abgelegt, dann kann die Signal Demodulating (Unit SDU) diese Daten abholen und deren Demodulation bearbeiten. Die Demodulation wird ausgeführt, um das Basisbandsignal vom Trägersignal zu separieren. Die so verarbeiteten Daten können dann im RAM abgelegt werden. Dann werden diese demodulierten Daten an die Harmonics Filtering Unit (HFU) übergeben, wo die während des Demodulationsverfahrens angefallenen hochfrequenten Oberwellen ausgefiltert werden. Die gefilterten Daten werden dann ins RAM zurückgespeichert. Anschließend werden die gefilterten Daten von einem Audio-Prozessor verarbeitet. Dies kann ein beliebiger Applikationsprozessor sein. Der Prozessor ist für die Extraktion der Audiodaten, der Sender- und Audioinformationen und vieler anderer Details verantwortlich. Die Extraktion basiert auf Software, die vorab hereingeladen wurde. Diese Software sagt dem Prozessor, wie er das Radioformat (DAB, DAB+ usw.) verstehen, die Radiodaten dechiffrieren und die anderen relevanten Details extrahieren kann. Dadurch wird das ganze System Software-konfigurierbar, und das gleiche Design kann jetzt durch eine einfache Änderung der Software die unterschiedlichen Radioformate in unterschiedlichen Ländern bedienen. Dies ist im Wesentlichen die Funktion der Lösung. Weitere Details zu den wichtigen Komponenten des Designs folgen nachstehend.

Kommaberechnung und 8b/10b-Decodierung

Rx Controller sind dafür gedacht, Daten von externen Tunern im spezifizierten Protokoll zu empfangen. In der Anwendung können I2S- oder JESD204B Rx-Controller eingesetzt werden, wobei die letzteren für eine High-Speed-Übertragung (~800MHz) genutzt werden. Beim I2S-Verfahren steuert ein externer Tuner den I2S-Controller über GPIO-Pads mit einem seriellen Bitstrom mit einem Bittakt von ~60-70MHz an. Der Controller deserialisiert diesen Strom in längenkonfigurierbare Ausgangswerte für die I- und Q-Samples. Abbildung 2 verdeutlicht diese Arbeitsweise. Der externe JESD204B-Tuner liefert ebenfalls einen seriellen Bitstrom und einen Bausteintakt über die LVDS-Pads an den internen JESD204B-Controller, wobei die Bitraten bis zu 800MHz betragen. Die seriellen Daten der Tuner auf der jeweiligen Schiene durchlaufen einen JESD204B-konformen PHY. Der PHY erledigt die Clock- und Daten-Recovery (CDR) und liefert den zurückgewonnenen Takt und die ebenfalls zurückgewonnenen 10-Bit Daten, die dann einem JESD204B-konformen Controller zugeführt werden. Die Hauptfunktion des Controllers besteht in Kommaberechnung, 8b/10b-Decodierung, De-Scrambling und De-Mapping der Tunerdaten. Die neu sortierten Daten werden dann zu den I- und Q-Sample-Ausgangswerten verarbeitet. Abbildung 3 soll helfen, den Ablauf des Verfahrens zu verstehen.

Demodulation und Filterung erfasster Daten

Signal Demodulation Unit (SDU) und Harmonic Filtering Unit (HFU) führen die Demodulation und Filterung der erfassten Daten durch. Die jeweiligen Verfahren hängen vom Radioformat ab und können daher per Software modifiziert werden. Das grundlegende Prinzip bleibt aber das Gleiche. Ein einfacher Algorithmus soll das Prinzips verdeutlichen: Bezeichnet man das Modulationssignal als m(t) und das Trägersignal als c(t), das heißt Amcosmt und Accosct, so kann man ein moduliertes Signal zurückgewinnen:

M(t) = m(t) * c(t) = AmAc (cosmt) (cosct)

Dieses modulierte Signal kann analog zu dem betrachtet werden, das von den externen Tunern an die internen Controller geliefert wird. Jetzt wird dieses Signal M(t) in der SDU demoduliert und so das Modulations- oder Basisbandsignal m(t) zurückgewonnen. Das modulierte Signal M(t) und das Trägersignal c(t) werden einem Mischer zugeführt, dessen Ausgangssignal N(t) wie folgend gezeigt zustande kommt.

N(t) = M(t) * c(t) = Am (Ac)2 (cosmt) (cosct)2

N(t) = (Am /2) (Ac )2 (cosmt) (1 + cos2ct)

N(t) = (Am /2) (Ac )2 (cosmt) + (Am /2) (Ac )2 (cosmt) (cos2ct)

N(t) = K1 Amcosmt + K2 (cosmt) (cos2ct)

N(t) = K1 m(t) + K2 (cosmt) (cos2ct)

Die SDU erzeugt auf diese Weise eine verstärkte Version des Basisbandsignals m(t), die allerdings von Rückständen höherer Harmonischer überlagert ist. Nun kommt die HFU ins Spiel, mit deren Hilfe die überschüssigen Signalanteile entfernt werden. Diese HFU Unit ist nichts anderes als ein Tiefpassfilter, das m(t) durchlässt, aber die höheren harmonischen Frequenzen ausblendet. Auf diese Art und Weise wird eine Version des Basisbandsignals zurückgewonnen, die allerdings eine andere Amplitude aufweist.

Unabhängige Audioströme in Hardware zusammenmischen

Die Audiodaten werden an eine D/A-Wandlereinheit übergeben, die das digitale Eingangssignal in ein analoges Audiosignal konvertiert, das dann über einen externen Lautsprecher abgespielt werden kann. Die anderen separierten Detaildaten können in einem externen LCD-Display dargestellt werden. Typischerweise benötigen Audio-DACs einen Mastertakt, der exakt einem Vielfachen der benutzten Abtastrate entspricht. Beträgt die Abtastrate beispielsweise 48kHz, so liegt der übliche Mastertakt bei 48kHz×256=12,288MHz. Wandler sollten Abtastraten von 8 bis 192kHz unterstützen können. Außerdem müssen sie einen hohen Störabstand gewährleisten. Viele Applikationen benötigen einen Mix aus zwei oder drei Audiosignalen, um verschiedene Effekte zu erzeugen. Insbesondere für sicherheitsrelevante Applikationen in der Automobiltechnik besteht die Notwendigkeit, zwei von einander unabhängige Audioströme in Hardware zusammenmischen zu können. Unter Sicherheitsaspekten kann eine nicht nach ASIL zertifizierte Audioquelle von einer ASIL-zertifizierten isoliert werden. Das Zusammenführen von zwei Audioströmen in einen einzigen kann mit einem Audio-Mixer (innerhalb des D/A-Wandlermoduls) erfolgen. Dieser verfügt an seinen Eingängen über zwei serielle Audioschnittstellen. Je nach Konfiguration können die Audio-Samples der zwei Eingänge auch abgeschwächt werden. Befassen wir uns abschließend mit einigen Vor- und Nachteilen des vorgeschlagenen Verfahrens.

Hohe Komplexität für einheitliche Lösung

Dieses Vorgehen bietet den Vorteil, dass Anwender in seine Applikationen entweder einen High-Speed- (JESD204B) oder einen Low-Speed-Empfang (I2S) von Radiodaten oder sogar beides bewältigen können, wodurch die Lösung in hohem Maße anpassbar und anwenderfreundlich wird. Da sich das Radioformat per Software konfigurieren lässt, können Anwender, ganz gleich in welcher Region sie sitzen, ihre Applikation ohne irgendwelche Einschränkungen entwickeln. Mit der exakt gleichen Hardware und nur einer einfachen Softwareänderung kann die Applikation von einer Region auf eine andere angepasst werden. Die Funktionen von analogem und digitalem Radio wurden damit in einer einzigen Lösung zusammengeführt. Damit gestaltet sich die Lösung äußerst wirtschaftlich: Autohersteller können jetzt mit einem einzigen Chip eine Vielzahl von Standards abdecken, anstatt dedizierte Lösungen zu entwickeln. Der logistische Aufwand, die Investitionen in Forschung und Entwicklung, die Kosten für die Validierung der Software und für die Modulherstellung sinken drastisch. Dennoch ergeben sich Herausforderungen: Die Lösung ist komplex, und so kann sie sowohl Entwicklern als auch dem Verifikationsteam Kopfzerbrechen bereiten, wenn es gilt, jeden einzelnen Aspekt des Designs sorgfältig bis ins kleinste Detail abzudecken. Und je mehr Einsatz- und Applikationsszenarien berücksichtigt werden müssen, desto größer die Komplexität, und das bedeutet mehr Aufwand. Auch JESD-Controller und D/A-Wandler weisen in ihren Pfaden analoge Blöcke auf, die nicht in einem einzigen RTL-Verifikationszyklus verifiziert werden können. Zudem stellt die Kombination von Rundfunk und Internet eine weitere Herausforderung dar und ist ein Thema, das der weiteren Untersuchung bedarf.

Freescale Semiconductor India Pvt. Ltd.
www.freescale.com

Das könnte Sie auch Interessieren