Dissertationen
Kurzbeschreibungen der Dissertationen
Efficient Globally Optimal Resource Allocation in Wireless Interference Networks
Verfasser: | Bho Matthiesen |
Abgabe: | August 2019 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
URL: | https://nbn-resolving.org/urn:nbn:de:bsz:14-qucosa2-362878 |
Radio resource allocation in communication networks is essential to achieve optimal performance and resource utilization. In modern interference networks the corresponding optimization problems are often nonconvex and their solution requires significant computational resources. Hence, practical systems usually use algorithms with no or only weak optimality guarantees for complexity reasons. Nevertheless, asserting the quality of these methods requires the knowledge of the globally optimal solution. State-of-the-art global optimization approaches mostly employ Tuy's monotonic optimization framework which has some major drawbacks, especially when dealing with fractional objectives or complicated feasible sets.
In this thesis, two novel global optimization frameworks are developed. The first is based on the successive incumbent transcending (SIT) scheme to avoid numerical problems with complicated feasible sets. It inherently differentiates between convex and nonconvex variables, preserving the low computational complexity in the number of convex variables without the need for cumbersome decomposition methods. It also treats fractional objectives directly without the need of Dinkelbach's algorithm. Benchmarks show that it is several orders of magnitude faster than state-of-the-art algorithms.
The second optimization framework is named mixed monotonic programming (MMP) and generalizes monotonic optimization. At its core is a novel bounding mechanism accompanied by an efficient BB implementation that helps exploit partial monotonicity without requiring a reformulation in terms of difference of increasing (DI) functions. While this often leads to better bounds and faster convergence, the main benefit is its versatility. Numerical experiments show that MMP can outperform monotonic programming by a few orders of magnitude, both in run time and memory consumption.
Both frameworks are applied to maximize throughput and energy efficiency (EE) in wireless interference networks. In the first application scenario, MMP is applied to evaluate the EE gain rate splitting might provide over point-to-point codes in Gaussian interference channels. In the second scenario, the SIT based algorithm is applied to study throughput and EE for multi-way relay channels with amplify-and-forward relaying. In both cases, rate splitting gains of up to 4.5% are observed, even though some limiting assumptions have been made.
Resilience of the Critical Communication Networks Against Spreading Failures
Verfasser: | Goran Murić |
Abgabe: | Juni 2017 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: |
Prof. Dr. Jesus Gomez-Gardeñes
Prof. Dr. Nataša Gospić |
Weitere Mitglieder der Promotionskommission: | Prof. Dr.-Ing. habil. Christian Georg Mayr (Vorsitz) |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-228883 |
A backbone network is the central part of the communication network, which provides connectivity within the various systems across large distances. Disruptions in a backbone network would cause severe consequences which could manifest in the service outage on a large scale. Depending on the size and the importance of the network, its failure could leave a substantial impact on the area it is associated with. The failures of the network services could lead to a significant disturbance of human activities. Therefore, making backbone communication networks more resilient directly affects the resilience of the area. Contemporary urban and regional development overwhelmingly converges with the communication infrastructure expansion and their obvious mutual interconnections become more reciprocal.
Spreading failures are of particular interest. They usually originate in a single network segment and then spread to the rest of network often causing a global collapse. Two types of spreading failures are given focus, namely: epidemics and cascading failures. How to make backbone networks more resilient against spreading failures? How to tune the topology or additionally protect nodes or links in order to mitigate an effect of the potential failure? Those are the main questions addressed in this thesis.
First, the epidemic phenomena are discussed. The subjects of epidemic modeling and identification of the most influential spreaders are addressed using a proposed Linear Time-Invariant (LTI) system approach. Throughout the years, LTI system theory has been used mostly to describe electrical circuits and networks. LTI is suitable to characterize the behavior of the system consisting of numerous interconnected components. The results presented in this thesis show that the same mathematical toolbox could be used for the complex network analysis.
Then, cascading failures are discussed. Like any system which can be modeled using an interdependence graph with limited capacity of either nodes or edges, backbone networks are prone to cascades. Numerical simulations are used to model such failures. The resilience of European National Research and Education Networks (NREN) is assessed, weak points and critical areas of the network are identified and the suggestions for its modification are proposed.
Compute-and-Forward in Multi-User Relay Networks
Verfasser: | Johannes Richter |
Abgabe: | März 2017 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: |
Prof. Dr.-Ing. Aydin Sezgin
Prof. Ing. CSc. Jan Sýkora |
Weitere Mitglieder der Promotionskommission: | Prof. Dr.-Ing. habil. Renate Merker (Vorsitz) |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-225017 |
In this thesis, we investigate physical-layer network coding in an L × M × K relay network, where L source nodes want to transmit messages to K sink nodes via M relay nodes. We focus on the information processing at the relay nodes and the compute-and-forward framework. Nested lattice codes are used, which have the property that every linear combination of codewords is a valid codeword. This property is essential for physical-layer network coding.
Because the actual network coding occurs on the physical layer, the network coding coefficients are determined by the channel realizations. Finding the optimal network coding coefficients for given channel realizations is a non-trivial optimization problem. In this thesis, we provide an algorithm to find network coding coefficients that result in the highest data rate at a chosen relay. The solution of this optimization problem is only locally optimal, i.e., it is optimal for a particular relay. If we consider a multi-hop network, each potential receiver must get enough linear independent combinations to be able to decode the individual messages. If this is not the case, outage occurs, which results in data loss. In this thesis, we propose a new strategy for choosing the network coding coefficients locally at the relays without solving the optimization problem globally.
We thereby reduce the solution space for the relays such that linear independence between their decoded linear combinations is guaranteed. Further, we discuss the influence of spatial correlation on the optimization problem. Having solved the optimization problem, we combine physical-layer network coding with physical-layer secrecy. This allows us to propose a coding scheme to exploit untrusted relays in multi-user relay networks. We show that physical-layer network coding, especially compute-and-forward, is a key technology for simultaneous and secure communication of several users over an untrusted relay. First, we derive the achievable secrecy rate for the two-way relay channel. Then, we enhance this scenario to a multi-way relay channel with multiple antennas.
We describe our implementation of the compute-and-forward framework with software-defined radio and demonstrate the practical feasibility. We show that it is possible to use the framework in real-life scenarios and demonstrate a transmission from two users to a relay. We gain valuable insights into a real transmission using the compute-and-forward framework. We discuss possible improvements of the current implementation and point out further work.
Robust Optimization of Private Communication in Multi-Antenna Systems
Verfasser: | Anne Wolf |
Abgabe: | April 2015 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: | Prof. Dr.-Ing. Ragnar Thobaben |
Weitere Mitglieder der Promotionskommission: |
Prof. Dr.-Ing. habil. Renate Merker
(Vorsitz)
Jun.-Prof. Dr.-Ing. Peter Birkholz |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-203827 |
The thesis focuses on the privacy of communication that can be ensured by means of the physical layer, i.e., by appropriately chosen coding and resource allocation schemes. The fundamentals of physical-layer security have been already formulated in the 1970s by Wyner (1975), Csiszár and Körner (1978). But only nowadays we have the technical progress such that these ideas can find their way in current and future communication systems, which has driven the growing interest in this area of research in the last years.
We analyze two physical-layer approaches that can ensure the secret transmission of private information in wireless systems in presence of an eavesdropper. One is the direct transmission of the information to the intended receiver, where the transmitter has to simultaneously ensure the reliability and the secrecy of the information. The other is a two-phase approach, where two legitimated users first agree on a common and secret key, which they use afterwards to encrypt the information before it is transmitted. In this case, the secrecy and the reliability of the transmission are managed separately in the two phases.
The secrecy of the transmitted messages mainly depends on reliable information or reasonable and justifiable assumptions about the channel to the potential eavesdropper. Perfect state information about the channel to a passive eavesdropper is not a rational assumption. Thus, we introduce a deterministic model for the uncertainty about this channel, which yields a set of possible eavesdropper channels. We consider the optimization of worst-case rates in systems with multi-antenna Gaussian channels for both approaches. We study which transmit strategy can yield a maximum rate if we assume that the eavesdropper can always observe the corresponding worst-case channel that reduces the achievable rate for the secret transmission to a minimum.
For both approaches, we show that the resulting max-min problem over the matrices that describe the multi-antenna system can be reduced to an equivalent problem over the eigenvalues of these matrices. We characterize the optimal resource allocation under a sum power constraint over all antennas and derive waterfilling solutions for the corresponding worst-case channel to the eavesdropper for a constraint on the sum of all channel gains. We show that all rates converge to finite limits for high signal-to-noise ratios (SNR), if we do not restrict the number of antennas for the eavesdropper. These limits are characterized by the quotients of the eigenvalues resulting from the Gramian matrices of both channels. For the low-SNR regime, we observe a rate increase that depends only on the differences of these eigenvalues for the direct-transmission approach. For the key generation approach, there exists no dependence from the eavesdropper channel in this regime. The comparison of both approaches shows that the superiority of an approach over the other mainly depends on the SNR and the quality of the eavesdropper channel. The direct-transmission approach is advantageous for low SNR and comparably bad eavesdropper channels, whereas the key generation approach benefits more from high SNR and comparably good eavesdropper channels. All results are discussed in combination with numerous illustrations.
Beamforming and Protection Strategies in Gaussian MISO Wiretap Systems with Partial Channel State Information
Verfasser: | Sabrina Engelmann |
Abgabe: | Februar 2015 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: | Prof. Dr.-Ing. Aydin Sezgin |
Weitere Mitglieder der Promotionskommission: |
Prof. Dr.-Ing. Dr. h.c. Frank H. P. Fitzek
(Vorsitz)
Prof. Dr.-Ing. Thorsten Strufe |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-172869 |
Within this thesis, we investigate the possibilities of physical layer secrecy for two special system models. In detail, we study beamforming and protection strategies in the Multiple-Input Single-Output (MISO) GaussianWiretap Channel (WTC) and the Gaussian two-hop relay WTC with multiple antennas at transmitter and receiver. In both system models, we examine the influence of partial Channel State Information (CSI) on the link to the eavesdropper and compare the achievable secrecy rates with the case of full CSI.
We show for the MISO WTC that in the fast fading scenario the Beamforming Vector (BV) can be optimized such that the ergodic secrecy rate is maximized with regard to the degree of channel knowledge. Further we show that the ergodic secrecy rate can be significantly increased by usage of Artificial Noise (AN), if applied in a smart way. This means that the degree of channel knowledge on the link to the eavesdropper influences the portion of power that is spent for AN at the transmitter as well as the direction, in which the AN signal is sent. In addition, we apply the same beamforming and protection strategies to the slow fading scenario and find that these techniques also reduce the secrecy outage probability.
For the two-hop relay WTC, we introduce Information Leakage Neutralization (IN) as a new protection strategy. If applied to a system model, where the transmitter has full CSI, the instantaneous secrecy rate performs almost as well as the instantaneous capacity of the peaceful system without an eavesdropper. The IN protected scheme outperforms the AN protected approach and performs much better than any beamforming scheme without additional protection mechanism. Another positive aspect of the IN protected scheme in the case of full CSI is that conventional channel codes can be applied instead of wiretap codes. For the case of partial CSI, where the transmitter has only an outdated estimate on the channel between relay and the eavesdropper, we show that the IN protected scheme can also be applied. Here, it strongly depends on the channel realizations and the delay of the estimate, whether the IN or the AN protection scheme should be applied.
Resource Allocation for MIMO Interference Networks
Verfasser: | Pan Cao |
Abgabe: | November 2014 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: | Prof. Dr. Björn Ottersten |
Weitere Mitglieder der Promotionskommission: |
Jun.-Prof. Dr.-Ing. Peter Birkholz
(Vorsitz)
Prof. Dr.-Ing. Dr. h.c. Frank H. P. Fitzek |
To meet the exponentially increasing traffic data driven by the rapidly growing mobile subscriptions, both industry and academia are exploring the potential of a new generation (5G) of wireless technologies. An important 5G goal is to achieve high data rate. Small cells with spectrum sharing and multiple-input multiple-output (MIMO) techniques are one of the most promising 5G technologies, since it enables to increase the aggregate data rate by improving the spectral efficiency, nodes density and transmission bandwidth, respectively. However, the increased interference in the densified networks will in return limit the achievable rate performance if not properly managed.
The considered setup can be modeled as MIMO interference networks, which can be classified into the K-user MIMO interference channel (IC) and the K-cell MIMO interfering broadcast channel/multiple access channel (MIMO-IBC/IMAC) according to the number of mobile stations (MSs) simultaneously served by each base station (BS). The thesis considers two physical layer (PHY) resource allocation problems that deal with the interference for both models: 1) Pareto boundary computation for the achievable rate region in a K-user single-stream MIMO IC and 2) grouping-based interference alignment (GIA) with optimized IA-Cell assignment in a MIMO- IMAC under limited feedback. In each problem, the thesis seeks to provide a deeper understanding of the system and novel mathematical results, along with supporting numerical examples. Some of the main contributions can be summarized as follows.
It is an open problem to compute the Pareto boundary of the achievable rate region for a K-user single-stream MIMO IC. The K-user single-stream MIMO IC models multiple transmitter-receiver pairs which operate over the same spectrum simultaneously. Each transmitter and each receiver is equipped with multiple antennas, and a single desired data stream is communicated in each transmitter-receiver link. The individual achievable rates of the K users form a K-dimensional achievable rate region. To find efficient operating points in the achievable rate region, the Pareto boundary computation problem, which can be formulated as a multi-objective optimization problem, needs to be solved. The thesis transforms the multi-objective optimization problem to two single-objective optimization problems: single constraint rate maximization problem and alternating rate profile optimization problem, based on the formulations of the ε-constraint optimization and the weighted Chebyshev optimization, respectively. The thesis proposes two alternating optimization algorithms to solve both single-objective optimization problems. The convergence of both algorithms is guaranteed. Also, a heuristic initialization scheme is provided for each algorithm to achieve a high-quality solution. By varying the weights in each single-objective optimization problem, numerical results show that both algorithms provide an inner bound very close to the Pareto boundary. Furthermore, the thesis also computes some key points exactly on the Pareto boundary in closed-form.
A framework for interference alignment (IA) under limited feedback is proposed for a MIMO-IMAC.
Resource Allocation in Underlay and Overlay Spectrum Sharing
Verfasser: | Jing Lv |
Abgabe: | Oktober 2014 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: | Prof. Dr.-Ing. habil. Tobias Weber |
Weitere Mitglieder der Promotionskommission: |
Prof. Dr.-Ing. habil. Leon Urbas
(Vorsitz)
Prof. Dr.-Ing. habil. Adolf Finger |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-159087 |
As the wireless communication technologies evolve and the demand of wireless services increases, spectrum scarcity becomes a bottleneck that limits the introduction of new technologies and services. Spectrum sharing between primary and secondary users has been brought up to improve spectrum efficiency.
In underlay spectrum sharing, the secondary user transmits simultaneously with the primary user, under the constraint that the interference induced at the primary receiver is below a certain threshold, or a certain primary rate requirement has to be satisfied. Specifically, in this thesis, the coexistence of a multiple-input single-output (MISO) primary link and a MISO/multiple-input multiple-output (MIMO) secondary link is studied. Three scenarios are investigated, in terms of the interference from the primary transmitter to the secondary receiver, namely, weak interference, strong interference and very strong interference, or equivalently three ranges of primary rate requirement. Rate splitting and successive decoding are deployed at the secondary transmitter and receiver, respectively, when it is feasible, and otherwise single-user decoding is deployed at the secondary receiver.
In overlay spectrum sharing, different from underlay spectrum sharing, the secondary transmitter can utilize the knowledge of the primary message, which is acquired non-causally (i.e., known in advance before transmission) or causally (i.e., acquired in the first phase of a two-phase transmission), to help transmit the primary message besides its own message. Specifically, the coexistence of a MISO primary link and a MISO/MIMO secondary link is studied. When the secondary transmitter has non-causal knowledge of the primary message, dirty-paper coding (DPC) can be deployed at the secondary transmitter to precancel the interference (when decoding the secondary message at the secondary receiver), due to the transmission of the primary message from both transmitters. Alternatively, due to the high implementation complexity of DPC, linear precoding can be deployed at the secondary transmitter. When the secondary transmitter does not have non-causal knowledge of the primary message, and still wants to help with the primary transmission in return for the access to the spectrum, it can relay the primary message in an amplify-and-forward (AF) or a decode-and-forward (DF) way in a two-phase transmission, while transmitting its own message. The primary link adapts its transmission strategy and cooperates with the secondary link to fulfill its rate requirement.
Power is another precious resource besides spectrum. Instead of spectrum efficiency, energy-efficient spectrum sharing focuses on the energy efficiency (EE) optimization of the secondary transmission. The EE of the secondary transmission is defined as the ratio of the achievable secondary rate and the secondary power consumption, which includes both the transmit power and the circuit power at the secondary transmitter. For simplicity, the circuit power is modeled as a constant. Specifically, the EE of a MIMO secondary link in underlay spectrum sharing is studied. Three transmission strategies are introduced based on the primary rate requirement and the channel conditions. Rate splitting and successive decoding are deployed at the secondary transmitter and receiver, respectively, when it is feasible, and otherwise single-user decoding is deployed at the secondary receiver. Moreover, the EE of a MIMO secondary link in overlay spectrum sharing is studied, where the secondary transmitter has non-causal knowledge of the primary message and employs DPC to obtain an interference-free secondary link.
Resource Allocation for Multiple Access and Broadcast Channels under Quality of Service Requirements Based on Strategy Proof Pricing
Verfasser: | Fei Shen |
Abgabe: | August 2014 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: | Prof. Dr. Ana Isabel Pérez-Neira |
Weitere Mitglieder der Promotionskommission: |
Prof. Dr.-Ing. habil. Leon Urbas
(Vorsitz)
Prof. Dr.-Ing. Ralf Lehnert |
Due to the high demand in data rate and the scarcity of wireless resources, the efficient allocation of power is a major concern in today’s multi‐user wireless communication systems. Game theory provides the good analytical manner for the selfish and social welfare conflict problems.
Instead of maximizing the rate, our proposed system deals with fulfilling the signal to noise‐plus-interference ratio (SINR) based quality‐of‐service (QoS) requirements of all users with efficient power allocation. We propose the framework to allocate the power with universal pricing mechanisms. Centralized and distributed power allocation are discussed separately in the thesis with different pricing schemes.
In wireless systems we have users that are rational in the game theoretic sense of maximizing their own utilities. The mobiles which share the same spectrum have incentives to misinterpret their private information for better utilities. Therefore it is important to supervise and influence the operation of the system by pricing and priority (weights) optimization.
In the centralized resource allocation, we study the general multiple access (MAC) and broadcast channel (BC) with linear and nonlinear receiver, respectively. The prices, the resulting cost terms, the optimal power allocation to achieve the QoS requirements in the feasible rate region are derived in closed form. Linear and nonlinear pricing frameworks are discussed separately. The infinite repeated game is proposed to prevent users from cheating their channel state information.
In the distributed resource allocation, the non‐cooperative game is formulated. The users allocate their transmit power by maximizing their own utilities. The individual prices are introduced and adapted such that the QoS requirements are guaranteed at the unique Nash equilibrium power allocation. Different types of user behavior are analyzed regarding misrepresentation of the utility functions and the strategy‐proof mechanism is designed using the punishment prices.
The results for MAC are applicable in the heterogeneous networks, where two novel compensation frameworks to motivate the hybrid access of femtocell networks are provided. The Stackelberg game is introduced showing that the proposed compensation frameworks result in a win‐win solution.
Coding Theorem and Memory Conditions for Abstract Channels with Time Structure
Verfasser: | Martin Mittelbach |
Abgabe: | Juli 2014 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Zweitgutachter: | Prof. Dr.-Ing. Dr. rer. nat. Holger Boche |
Weitere Mitglieder der Promotionskommission: |
Prof. Dr.-Ing. habil. Renate Merker
(Vorsitz)
Prof. Dr.-Ing. habil. Adolf Finger |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-168302 |
In the first part of this thesis we generalize a coding theorem and a converse of Kadota and Wyner (1972) to abstract channels with time structure. As a main contribution we prove the coding theorem for a significantly weaker condition on the channel output memory, called total ergodicity for block-i.i.d. inputs. We achieve this result mainly by introducing an alternative characterization of information rate capacity. We show that the ψ-mixing condition (asymptotic output-memorylessness), used by Kadota and Wyner, is quite restrictive, in particular for the important class of Gaussian channels. In fact, we prove that for Gaussian channels the ψ-mixing condition is equivalent to finite output memory. Moreover, we derive a weak converse for all stationary channels with time structure. Intersymbol interference as well as input constraints are taken into account in a flexible way. Due to the direct use of outer measures and a derivation of an adequate version of Feinstein’s lemma we are able to avoid the standard extension of the channel input σ-algebra and obtain a more transparent derivation. We aim at a presentation from an operational perspective and consider an abstract framework, which enables us to treat discrete- and continuous-time channels in a unified way.
In the second part we systematically analyze infinite output memory conditions for abstract channels with time structure. We exploit the connections to the rich field of strongly mixing random processes to derive a hierarchy for the nonequivalent infinite channel output memory conditions in terms of a sequence of implications. The ergodic-theoretic memory condition used in the proof of the coding theorem and the ψ-mixing condition employed by Kadota and Wyner (1972) are shown to be part of this taxonomy. In addition, we specify conditions for the channel under which memory properties of a random process are invariant when the process is passed through the channel.
In the last part we analyze cascade and integration channels with regard to mixing conditions as well as properties required in the context of the coding theorem. The results are useful to study many physically relevant channel models and allow a component-based analysis of the overall channel. We consider a number of examples including composed models and deterministic as well as random filter channels. Finally, an application of strong mixing conditions from statistical signal processing involving the Fourier transform of stationary random sequences is discussed and a list of further applications is given.
Hinweis: Please always use the following link for citations: http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-168302
Signal Design and Signal Processing for Indoor Location Systems
Verfasser: | Yun Lu |
Abgabe: | Juni 2012 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
In the early 1990s, Weiser introduced the concept of ubiquitous computing. Literally, it means computers everywhere. Weiser predicted that in the not-so-distant future, computing devices will be small, low-powered, and interconnected to such a degree that the majority of them can be embedded transparently and unobtrusively into most aspects of everyday life. Recently, however, there has been a trend towards devices or applications that are embedded into the environment to such an extent that there is no direct user interface; they attempt to anticipate and respond to the user’s needs, usually by sensing elements of the physical world. Common examples of such devices or applications are enhanced routing for wireless networks, computer-aided navigation, mobile desktop control, 3D mice, virtual buttons, augmented reality and other location-sensitive device behavior. The performance of those systems will be dramatically improved if the position of involved elements can be fined-grained determined.
There are a lot of indoor location systems presented in the literature. Surveys of existing implementations of indoor positioning systems targeting pervasive computing applications have been compiled e.g. by Hightower, Boriello and Tauber. The most popular and efficient techniques for location systems are the spread spectrum (SS) as well as the code-division multiple access (CDMA) principle, wherein the involved spreading codes (ranging codes) play a major role for the location accuracy and the system stability.
However, the efficiency of CDMA systems clearly depends on the SS codes that are used to code the emissions. For ranging systems, they must provide not only very low cross-correlation (CC) values but also very low auto-correlation (AC) side lobes to suppress both the multiple access interference (MAI) and the inter-symbol interference (ISI) resulting a sufficient output signal to interference noise ratio (SINR) for further interference cancellation, e.g. successive interference cancellation (SIC), with respect to high ranging accuracy. However, it is theoretically impossible to generate those sequences possessing both perfect cross-correlation function (CCF) and auto-correlation function (ACF), under limited signal bandwidth and signal duration. Besides, the traditional detection and cancellation techniques are available under the assumption that the channel is constant or at least nearly constant during the correlation integration. They will however fail if the channel is time variant, i.e. the channel coherence time is shorter than the signal duration. All these problems will be treated in this thesis. The contributions of this thesis include:
- Formulation of the general low-dimension codes (LDC)-based ranging signals, namely PN-Chirp signals, for broadband indoor location systems.
- Development of the particular recovery algorithm, regularized compressive sampling matching pursuit (RCoSaMP), for LDC-based ranging signals in time invariant channels.
- Formulation of the multi-correlation properties of Galois field based PN codes, e.g. Gold codes, cubic phase (CP) codes and Frank-Zadoff-Chu (FZC) codes, and development of the multi-correlation receiver (MCR) technique for PN-Chirp signals in time variant channels.
Berechnung und Simulation der Bitfehlerwahrscheinlichkeit von Energiedetektoren bei der Datenübertragung in ultra-breitbandigen (UWB)-Kanälen
Verfasser: | Rainer Moorfeld |
Abgabe: | März 2012 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Zweitgutachter: | Prof. Dr. rer. nat. habil. Friedrich K. Jondral |
Weitere Mitglieder der Promotionskommission: | Prof. Dr. sc. techn. habil. Frank Ellinger (Vorsitz) |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-93629 |
Die extrem große Bandbreite, die UWB-Systeme zur Übertragung von Daten nutzen können, ermöglicht theoretisch eine sehr hohe Datenrate. Eine mögliche Umsetzung der UWB-Technologie ist die sogenannte Multiband-Impuls-Radio-Architektur (MIRA). Dieses UWB-System basiert auf der Übertragung von Daten mittels kurzer Impulse parallel in mehreren Frequenzbändern. Als Empfänger kommen einfache Energiedetektoren zum Einsatz. Diese Komponenten haben entscheidenden Einfluss auf die Leistungsfähigkeit des gesamten Systems. Deshalb liegt der Schwerpunkt dieser Arbeit auf der Untersuchung der Leistungsfähigkeit und im speziellen der Herleitung der Bitfehlerwahrscheinlichkeiten für Energiedetektoren in unterschiedlichen UWB-Kanälen.
Aufgrund des sehr einfachen Aufbaus eines Energiedetektors wird dieser auch in vielen anderen Bereichen eingesetzt. So werden Energiedetektoren zur Detektion von freien Bereichen im Übertragungsspektrum bei Cognitive Radio und für weitere unterschiedliche Übertragungssysteme wie z.B. Sensorsysteme mit geringer Datenrate und Übertragungssysteme die zusätzlich Ortung ermöglichen, genutzt.
Game Theory and Microeconomic Theory for Beamforming Design in MISO Interference Channels
Verfasser: | Rami Mochaourab |
Abgabe: | März 2012 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. Eduard A. Jorswieck |
Weitere Mitglieder der Promotionskommission: |
Prof. Dr. rer. nat. habil. Hans Georg Krauthäuser
(Vorsitz)
Prof. Dr. Erik G. Larsson Prof. Dr.-Ing. Dr. h.c. Gerhard Fettweis Prof. Dr.-Ing. Ralf Lehnert |
Der Konflikt zwischen Sender-Empfängerpaaren (Verbindungen) in dem Multiple-Input Single-Output (MISO) Interferenzkanal wird mittels Modellen der Spieltheorie und Mikroökonomie analysiert. Diese Modelle liefern Lösungskonzepte für Ressourcenallokationsprobleme, die in unserem Fall mit einem gemeinsamen Beamforming-Entwurf an den Sendern korrespondieren. Unser Interesse liegt in Pareto-optimalen Lösungen. Pareto-Optimalität erfordert, dass die Performanz von einer Verbindung nicht mehr verbessert werden kann ohne die Performanz von einem anderen zu verschlechtern.
Strategische Spiele in der Spieltheorie legen die nicht kooperative Wahl der Strategien der Spieler fest. Der Ausgang eines strategischen Spiels ist ein Nash-Gleichgewicht. Das Nash-Gleichgewicht im MISO Interferenzkanal ist im Allgemeinen nicht effizient, daher betrachten wir die Kooperation zwischen den Verbindungen anhand von Koalitionsspielen ohne transferierbaren Nutzen. Zero-Forcing (ZF) Beamforming bzw. Wiener Filter Precoding werden als kooperative Beamforming Mechanismen gewählt. Strategien im Kern des Koalitionsspiels ermöglichen die Kooperation zwischen den Verbindungen in einer großen Koalition. Wir charakterisieren die Bedingungen unter denen der Kern des Koalitionsspiels mit ZF Beamforming nicht leer ist. Da die große Koalition nicht immer möglich ist und um die Dynamik der Kooperationsbildung zwischen den Verbindungen zu bestimmen, wenden wir einen Koalitionsformationsalgorithmus an, der auf dem Zusammenschluss und der Teilung von Koalitionen beruht. Diese Koalitionsformation benötigt eine direkte Kommunikation zwischen den Verbindungen um mögliche Kooperationen zu finden.
Wir modellieren die Situation zwischen zwei Verbindungen als eine Austausch-Ökonomie. Die Beamforming-Vektoren werden als Ware betrachtet, die die Verbindungen zwischen einander austauschen. In diesem Modell charakterisieren wir alle Pareto-optimalen Punkte in geschlossener Form. Ferner wurde ein Verhandlungsprozess basierend auf einer systematischen Betrachtung der Austauschmöglichkeiten in der Edgeworth-Box untersucht. Der Verhandlungsprozess erzielt einen Punkt, der beliebig nah an einem Austauschgleichgewicht liegt, wobei alle Austauschgleichgewichte Pareto-optimal sind. Für diesen Prozess wird eine direkte Kommunikation zwischen den beiden Verbindungen benötigt. Wir erweitern das Austausch-Ökonomie-Modell zu einem wettbewerblichen Markt-Modell, in dem Preise für die Waren (Beamforming-Vektoren) existieren. In diesem Modell charakterisieren wir das eindeutige Walras-Gleichgewicht, das Pareto-optimal ist und das Nash-Gleichgewicht dominiert. Um das Walras-Gleichgewicht zu implementieren, wird ein Koordinator benötigt der die Preise der Waren festlegt und den Sendern mitteilt.
Basierend auf den spieltheoretischen und mikroökonomischen Modellen, werden effiziente Beamforming-Strategien vorgestellt. Die Ergebnisse sind anwendbar auf interferenzbegrenzte Netzwerke mittels Koordination oder direkter Kooperation zwischen den Verbindungen.
Über die Modellierung und Simulation zufälliger Phasenfluktuationen
Verfasser: | Christian Scheunert |
Abgabe: | Dezember 2009 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Zweitgutachter: | Prof. Dr.-Ing. habil. Hans-Joachim Jentschel |
Weitere Mitglieder der Promotionskommission: | Prof. Dr.-Ing. habil. Leon Urbas (Vorsitz) |
URL: | http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-64272 |
Nachrichtentechnische Systeme werden stets durch unvermeidbare zufällige Störungen beeinflußt. Neben anderen Komponenten sind davon besonders Oszillatoren betroffen. Die durch die Störungen verursachten zufälligen Schwankungen in der Oszillatorausgabe können als Amplituden- und Phasenabweichungen modelliert werden. Dabei zeigt sich, daß vor allem zufällige Phasenfluktuationen von Bedeutung sind. Zufällige Phasenfluktuationen können unter Verwendung stochastischer Prozesse zweiter Ordnung mit kurzem oder langem Gedächtnis modelliert werden. Inhalt der Dissertation ist die Herleitung eines Verfahrens zur Simulation zufälliger Phasenfluktuationen von Oszillatoren mit kurzem Gedächtnis unter Berücksichtigung von Datenblattangaben.
Interference Mitigation Techniques to Support Coexistence of Ultra Wideband Systems
Verfasser: | Abdur Rahim |
Abgabe: | Dezember 2009 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Die Welt der drahtlosen Kommunikation entwickelt sich hin zu immer komplexeren Szenarien, in denen eine Reihe unterschiedlicher, möglicherweise spektral überlappender Funktechnologien gleichzeitig Verwendung finden können. Ultra-Wideband (UWB) ist eine dieser Funktechnologien, die spektrale Überschneidungen mit vielen bestehenden, teilweise konzessionierten Funktechnologien wie beispielsweise WiMax aufweist. So ist im Falle räumlicher Überlappung beider Systeme die Beeinflussung von WiMax-Systemen durch UWB-Systeme eine sehr bedeutsame Frage. Deshalb haben alle Regulierungsbehörden mit Ausnahme der USA eine Beschränkung der Nutzung der lizenzierten Teile der UWB Frequenzbänder beschlossen oder, wenn diese Frequenzbänder verwendet werden dürfen, dies nur mit einer sehr begrenzten Sendeleistung im Vergleich zur FCC-Grenze gestattet. Diese Einschränkungen verschlechtern die Chance auf eine breite Markteinführung für UWB-Systeme. Aus diesem Grunde werden DAA-Techniken (DAA - detection and avoid) vorgeschlagen, um die Sendeleistung der UWBSysteme zu erhöhen und gleichzeitig die Koexistenz mit anderen Funksystemen, z.B. WiMax, zu sichern. Dieser Themenkreis wird in der vorliegenden Dissertation bearbeitet. Dabei werden vor allem zwei Aspekte betrachtet: i) Bewertung möglicher Interferenzen zwischen UWB und WiMax-Systemen und ii) die Entwicklung und Evaluierung von DAA-Techniken.
Auswirkungen von Seitenkanalangriffen auf das Design kryptographischer Algorithmen
Verfasser: | Jens Rüdinger |
Abgabe: | November 2008 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Seit der Entdeckung von Seitenkanalangriffen Ende der 90iger Jahre können Angriffe gegen kryptographische Algorithmen auf abstrakter Ebene in drei Gruppen eingeteilt werden: mathematische Angriffe, mathematisch-physikalische Angriffe und physikalische Angriffe. Die Zeit- bzw. Berechnungskomplexität statistischer Seitenkanalangriffe setzt sich aus zwei Teilen zusammen: der Komplexität der Datenerfassung und der Komplexität der statistischen Analyse. Die vorliegende Arbeit beschäftigt sich vor allem mit den Abhängigkeiten der Seitenkanalangriffe von der mathematischen Basis. Es wurden grundsätzliche Abhängigkeiten der Komplexität statistischer Seitenkanalangriffe herausgearbeitet, z.B. die Wortbreite der Operationen, die Länge des Rundenschlüssels sowie die Anzahl der Runden in Verbindung mit der Nichtinvertierbarkeit der Rundenschlüsselerzeugung. Es existiert ein annähernd exponentieller Zusammenhang zwischen der Wortbreite der Operationen und der Berechnungskomplexität statistischer Seitenkanalangriffe. Ein Algorithmus mit nichtinvertierbarer Rundenschlüsselerzeugung hat eine um den Faktor der Anzahl seiner Runden höhere Komplexität gegenüber statistischen Seitenkanalangriffen als ein Algorithmus mit invertierbarer Rundenschlüsselerzeugung. Die Berechnungskomplexität lässt sich durch die Schlüsselabhängigkeit der Operation an sich (bspw. schlüsselabhängige S-Boxen) weiter steigern. Algorithmenspezifische Merkmale können die Anfälligkeit eines Algorithmus gegenüber Seitenkanalangriffen beeinflussen.
Es konnte gezeigt werden, daß keiner der Finalisten des AES-Auswahlprozesses optimal gegen Seitenkanalangriffe geschützt ist. Die Erkenntnisse der Arbeit können zur Bewertung und Verbesserung gegenwärtiger und zum optimalen Entwurf künftiger Kryptoalgorithmen genutzt werden.
On Spectrally Bounded Codes for Multicarrier Communications
Verfasser: | Kai-Uwe Schmidt |
Abgabe: | April 2007 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Das Sendesignal in einem Mehrträgersystem entsteht durch eine orthogonale Transformation eines Datenworts. Es folgt daraus, dass die maximale Momentanleistung des Sendesignals um ein Vielfaches höher sein kann als die mittlere Sendeleistung. Dies stellt einen hohen Anspruch an die Implementierung des Systems, was als entscheidender Nachteil von Mehrträgersystemen betrachtet wird. Das Verhältnis von maximaler und mittlerer Sendeleistung (der Spitzenwert) lässt sich allerdings durch gezielte Ausnutzung der Redundanz eines Fehlerschutzcodes reduzieren. Die vorliegende Dissertation beschäftigt sich mit der Konstruktion solcher Codes für zwei praxisrelevante Mehrträgersysteme: Orthogonales Frequenzmultiplex (OFDM) und Multicode Codemultiplex (MC-CDMA). Der erste Teil der Arbeit beinhaltet eine Analyse der maximalen Spitzenwertreduktion in einem OFDM System, die durch Drehung der Koordinaten eines bekannten binären Codes erreicht werden kann. Anhand der erzielten Ergebnisse wird gezeigt, dass aus der Literatur bekannte suboptimale Konzepte zur Bestimmung der Drehwinkel den Spitzenwert oftmals bis nahe an die theoretische Grenze reduzieren. In einem weiteren Teil werden unter Benutzung der spektralen Eigenschaften von komplementären Paaren und deren Verallgemeinerungen, wie fastkomplementäre Paare und komplementäre Mengen, obere und untere Schranken für den maximalen Spitzenwert von bestimmten Nebenklassen eines verallgemeinerten Reed-Muller Codes erster Ordnung hergeleitet. Durch Vereinigungen solcher Nebenklassen lassen sich Codes für OFDM und MC-CDMA mit Fehlerkorrektureigenschaften und strikt begrenztem Spitzenwert konstruieren. Oftmals erhält man dabei Codes, deren Parameter besser sind als die bisher bekannter Codes. Ferner liefern die erzielten Ergebnisse theoretische Erklärungen für einige Vermutungen und experimentelle Beobachtungen in der Literatur. Schließlich werden so genannte verallgemeinerte Bent-Funktionen in Verbindung mit algebraischen Codes über Z4 (verallgemeinerte Reed-Muller, Kerdock und Delsarte-Goethals Codes) genutzt, um nichtbin?are Fehlerschutzcodes für MC-CDMA zu konstruieren. Diese Codes reduzieren den Spitzenwert auf den kleinstmöglichen Wert und ergänzen vergleichbare bekannte binäre Codes.
Verlustfreie inhaltsbasierte Bilddatenkompression für Satellitenbilder unter besonderer Berücksichtigung von Grauwertbildern
Verfasser: | Ahmad Idriss |
Abgabe: | Dezember 2003 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Die Arbeit befasst sich mit Untersuchungen zur Nutzung von LEO-Satelliten für ein zeitnahes Verkehrsmonitoring. Die Menge der dabei anfallenden Bilddaten übersteigt die mögliche Datenrate für die Strecke Satellit – Erde erheblich. Da andererseits eine vollständige Verarbeitung der Bilddaten an Bord des Satelliten wegen der begrenzten Kapazität auch nicht möglich ist, wird dort nur eine Vorverarbeitung realisiert. Dabei ist zunächst ein Ausschneiden der für das Verkehrsmonitoring relevanten Bilddaten mit Hilfe von Vektordaten der Verkehrswege erforderlich. Die Dissertation befasst sich speziell mit der daran anschließenden Kompression der ausgeschnittenen Bilddaten. Für diese Kompression können einerseits übliche Verfahren für die Datenkompression auf der Basis fester, semiadaptiver und adaptiver Modelle eingesetzt werden und andererseits spezielle Verfahren für eine verlustfreie Bilddatenkompression. Für die experimentelle Untersuchung der Leistungsfähigkeit aller dieser möglichen Lösungen wurde das Programmsystem ImgComp entwickelt. Anschließend wurden umfangreiche Tests mit einer größeren Anzahl von relevanten Satellitenbildern durchgeführt und ausgewertet. Bei den Auswertungen wurden nicht nur die möglichen Kompressionsraten, der Rechen- und Speicheraufwand, sondern auch die Fehlerresistenz bewertet, um optimale Verfahren herauszuarbeiten. Als Optimum ergaben sich der Huffman-Algorithmus mit semiadaptivem Modell und der Wavelet-basierte Bildkompressionsalgorithmus.
Beiträge zur effizienten Decodierung von Turbo-Codes
Verfasser: | Jörg Vogt |
Abgabe: | November 2002 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Die Dissertation beschäftigt sich mit der effizienten Decodierung von Turbo-Codes. Turbo-Codes erlangten seit der Erfindung 1993 eine große Bedeutung. Mit diesen Codes kann eine Übertragung nahe der Kanalkapazität realisiert werden. Die Codierung erfolgt durch eine Verkettung von rekursiven systematischen Faltungscodes. Die Eingänge dieser Teilcodes werden durch einen Interleaver separiert. Dies verbessert das Distanzspektrum des Gesamtcodes und trägt dadurch wesentlich zur Leistungsfähigkeit der Turbo-Codes bei. Ein großer Vorteil der Turbo-Codes ist die Möglichkeit der aufwandsgünstigen Decodierung basierend auf den relativ simplen Teilcodes. Durch einen iterativen Austausch von Zuverlässigkeitsinformation zwischen den Decodern der Teilcodes wird dennoch annähernd eine Maximum-Likelihood-Decodierung des Gesamtcodes erreicht.
Wesentliche Aspekte, welche den Aufwand für die Decodierung bestimmen, sind der Decodieralgorithmus für die Teilcodes, die Speichergrößen für Empfangsdaten und Zuverlässigkeitsinformation und die notwendige Iterationsanzahl. Diese Aspekte werden in der Dissertation eingehend untersucht und es werden neuartige Lösungen zur Verringerung des Aufwandes dargelegt.
Im ersten Teil werden verschiedene Algorithmen zur Decodierung der Teilcodes mit Zuverlässigkeitsinformation am Eingang und am Ausgang (SISO-Decoder) untersucht und verglichen. Es zeigt sich, daß bei einer Wichtung der extrinsischen Information der suboptimale Max-Log-MAP Algorithmus nahezu optimale Leistungsfähigkeit - bei deutlich reduziertem Aufwand im Vergleich zum optimalen Log-MAP - erzielt.
Eine Auswertung des Iterationsprozesses des Turbo-Decoders offenbart, daß die maximale Iterationsanzahl bei der Decodierung nur von wenigen empfangenen Codeworten benötigt wird. Deshalb sind geeignete Verfahren zum Erkennen eines korrekten Decodierergebnisses gesucht. Damit kann der Iterationsprozeß bereits werden, sobald ein korrektes Ergebnis vorliegt. Untersucht wird die Verwendung von CRC-Codes und ein Ergebnisvergleich aufeinanderfolgender Iterationen. Beide Verfahren zeichnen sich auch durch eine einfache Implementierbarkeit aus.
Aufbauend auf dem adaptiven Iterationsprozeß wird das dynamische Decodierprinzip entwickelt. Bei Anwendung dieses neuen Decodierprinzips muß der Decoder nur für die mittlere Iterationsanzahl dimensioniert werden. Wird für ein bestimmtes Codewort eine größere Iterationsanzahl benötigt, werden die neu empfangenen Daten zwischengepuffert. Es erfolgt somit ein Austausch zwischen Rechenleistung und notwendiger Speichergröße. Es wird gezeigt, daß bei einer bestimmten Dimensionierung des Zwischenspeichers eine Leisungsfähigkeit entsprechend dem herkömmlichen Decodierprinzip erreicht wird.
Für eine effiziente Implementierung des Turbo-Decoders ist eine Festkomma-Darstellung wichtig. Durch eine Analyse des notwendigen Maximalwerts und der Auflösung der ausgetauschten Zuverlässigkeitsinformation der Teildecoder kann der Speicherbedarf für die Zuverlässigkeitsinformation deutlich reduziert werden.
Im letzten Kapitel erfolgt ein Vergleich verschiedener Turbo-Decoder-Architekturen basierend auf einem CMOS-Standardzellenentwurf. Hierzu ist der Aufwand der einzelnen Architekturen in äquivalenten Gattern dem jeweils erzielbaren Datendurchsatz gegenübergestellt. Es zeigt sich deutlich der Vorteil des dynamischen Decodierprinzips.
Beiträge zum Systementwurf für die Breitband-Funkdatenübertragung
Verfasser: | Sven Zeisberg |
Abgabe: | August 2002 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Zur breitbandigen Funkdatenübertragung werden zwei verschiedene Ansätze verfolgt. Der erste besteht in der Maximierung der spektralen Effizienz des Übertragungsverfahrens, was durch die Anwendung von OFDM für hohe Datenraten aufwandsgünstig erreicht werden kann. Der zweite beinhaltet die flexible Vergabe der Ressource Funkbandbreite. Dafür sind Ultra- Wideband (UWB) Systeme sehr gut geeignet. In der Arbeit werden beide Ansätze untersucht. Für ein OFDM basiertes System wird die Optimierung der Empfängersynchronisation beschrieben und die praktische Implementierung des gesamten Systems erläutert. Für ein impulsbasiertes UWB System wird erstmals die Übertragungskapazität durch Herleitung der optimalen Verschiebung für Pulspositionsmodulation maximiert.
Beiträge zur Kanalcodierung für OFDM-Funkübertragungssystem
Verfasser: | Frank Poegel |
Abgabe: | März 2001 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Das Ziel dieser Arbeit bestand in einer Betrachtung der Kanalcodierung für OFDM-Funkübertragungssysteme, ausgehend von theoretischen Schranken bis hin zu konkreten Aspekten der Realisierung. Ohne eine Kanalcodierung ist die Leistungsfähigkeit von OFDM-Systemen insbesondere bei einem Mehrwegekanal unbefriedigend. Ursache ist ein fehlendes Frequenz-Diversity, welches bei einigen Mehrträgerverfahren (z.B. OFDM-CDMA) bereits ohne Kanalcodierung inhärent vorhanden ist.
Die für eine Betrachtung der Kanalcodierung notwendigen Rahmenbedingungen von OFDM wurden vorgestellt. Ein Ergebnis ist die Einführung eines idealisierten OFDM-Systems, welches u.a. die Grundlage für Untersuchungen zur Kapazität mit unterschiedlichen Kanälen und Modulationsverfahren bildete. Die Analyse zeigt, daß mit Water Filling bei frequenzselektiven Übertragungskanälen nur in unteren SNR-Bereichen bzw. bei kleinen Bandbreiteneffizienzen eine nennenswerte Kapazitätserhöhung möglich ist. Eine Alternative stellt demzufolge eine leistungsfähige Kanalcodierung dar.
Als eine mögliche Codierung wurden Turbo-Codes näher untersucht. Es wurde gezeigt, daß sie über einen weiten Bereich der Blocklänge eine nahezu optimale Leistungsfähigkeit besitzen. Eine für mehrstufige Modulation sehr wichtige Eigenschaft von Turbo-Codes bzw. der suboptimalen Decodierung ist die Abhängigkeit der Fehlerrate von der Leistungsverteilung auf die Ausgaben des Coders.
Die Übertragung hoher Datenraten erfordert mehrstufige Modulationsverfahren. Nach einem Überblick wird gezeigt, daß Bit-interleavte codierte Modulation aufgrund hoher Leistungsfähigkeit bei relativ geringer Komplexität für OFDM-Systeme sehr gut geeignet ist. Die Untersuchung verschiedener Verfahren Turbo-codierter Modulation ergab keine signifikanten Vorteile.
Unter den Blockcodes sind Reed-Solomon Codes für OFDM besonders geeignet. Für eine Decodierung mit sukzessiven Auslöschungen wurden neue analytische Schranken vorgestellt, die eine angepaßte Dimensionierung dieser Soft Decision Decodierung ermöglichen.
Alle theoretisch betrachteten Codierungen - Faltungscodes, Turbo-Codes und Reed-Solomon Codes - wurden in einem 60 GHz OFDM-System praktisch eingesetzt.
Ein Beitrag zur digitalen Zusatzdatenübertragung im analogen Fernsehen
Verfasser: | Jens Schönthier |
Abgabe: | März 2001 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Die Dissertation beschäftigt sich mit der Übertragung zusätzlicher digitaler Daten in konventionellen analogen Fernsehkanälen der Normen B/PAL und G/PAL, wobei der Schwerpunkt insbesondere auf Aspekten der Signalgestaltung und Sender- sowie Empfängersynchronisation liegt. Ausgehend von den durch den Übertragungskanal und die existierenden Übertragungseinrichtungen gestellten Anforderungen werden Optimierungskriterien und als Ergebnis besonders geeignete Chipfolgen verschiedener Längen angegeben. Unter der Maßgabe einer zeitdiskreten Realisierung werden aus Sicht einer Maximierung des unterhalb einer Grenzfrequenz gelegenen Energieanteils optimale Impulse, sogenannte Eigenimpulse, berechnet. Diese werden mit Kosinus-Roll-Off-Impulsen hinsichtlich ihrer Energieverteilung und anhand von Augendiagrammen bezüglich ihrer Empfindlichkeit gegenüber Fehlabtastungen und der maximal auftretenden Signalwerte verglichen. Es wird ein Verfahren zur Bestimmung des optimalen Abtastzeitpunktes aus den Datenstrukturen heraus ohne die Notwendigkeit der Verwendung zusätzlicher Synchronsignale angegeben. Die Praxistauglichkeit des patentierten Zusatzdatenübertragungssystems Broadcast Online TV (BOT) wurde durch umfangreiche Feld- und Pilotversuche nachgewiesen. Die entworfenen Zusatzdatensignale rufen keine Störungen in existierenden TV-Sendern oder -Empfängern, d.h. keine Beeinträchtigung der Qualität der vorhandenen Dienste und Signale hervor. Realistische (Brutto-) Datenraten bei ausschließlicher Nutzung freier Zeitabschnitte in den Austastlücken auf Schwarz- bzw. Austastpegelniveau liegen bei 90 kBit/s.
Untersuchungen und Realisierungen von Turbo-Block-Codes
Verfasser: | Kalyan Koora |
Abgabe: | August 2000 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Das Gebiet der Turbo-Codes stellt eine wichtige internationale Forschungsrichtung zur optimalen fehlergeschützten Datenübertragung dar. Seitdem sie im Jahre 1993 vorgestellt wurden, wird diese Codeklasse nicht nur für die Mobilkommunikation, sondern auch für alle digitalen Datennetze favorisiert. Das Ziel dieser Arbeit war die Untersuchung dieser Codes und die praktische Realisierung. Besonderer Wert wurde auf die einfache Umsetzung und die schnelle Abarbeitung des Decodieralgorithmus gelegt. Nach einer kurzen Einführung wurden neue Verfahren zur Polynomsuche, Interleaversuche und modifizierte Turbo-Block-Codierung vorgestellt und ihre Vorteile mittels Simulationsergebnissen diskutiert. Ein optimaler Decoder für Turbo-Codes muß nach dem Soft-in- Soft-out (SISO) Prinzip arbeiten. Bei der Beschreibung lag der Schwerpunkt auf der Realisierbarkeit der SISO Algorithmen wie Soft Output Viterbi Algorithmus (SOVA), Maximum-A-Posteriori Algorithmus (MAP), Sliding Max Log MAP (SML-MAP). Die Arbeit beschreibt auch eine Vorgehensweise von der Untersuchung eines Algorithmus sowohl in seiner Idealform als auch mit Bittrue-Modellen bis zur Verwirklichung eines Prototyps. Für die durch die Untersuchungen festgelegte SOVA Decoder-Architektur wurde ein 30 Mbit/s Hardwaredesign mittels FPGAs realisiert. Mit der Hardware wurden Messungen durchgeführt und die Parametrisierbarkeit des Decoders demonstriert.
Flexibles Sicherheitsmanagement in TCP/IP-Netzen
Verfasser: | Kai Martius |
Abgabe: | Mai 1999 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
In der Arbeit werden aktuelle Protokolle und Technologien im Internet-Umfeld vorgestellt und bzgl. ihrer Sicherheit eingehend analysiert und deren Probleme herausgestellt. Neue (Protokoll)-Entwicklungen beachten diese Sicherheitsmängel und bieten unterschiedliche Ansätze der realisierten Sicherheitsfunktionen für verschiedene Einsatzgebiete. Diese neuen Protokolle werden ebenfalls eingehend betrachtet und Entscheidungskriterien zum Einsatz aufgestellt.
Eine reine Ende-zu-Ende-Sicherung reicht in heutigen, komplexen Netzstukturen nicht aus. Zum Aufbau einer Kommunikationsbeziehung sind vor der eigentlichen Kommunikation die Sicherheitsanforderungen aller beteiligten Systeme auszuloten und die benötigten Sicherheitsparameter zu etablieren. Auf der Basis der Entwicklungen des Protokolls IKE wurde ein erweiterter Protokollvorschlag E-IKE entwickelt, der das Sicherheitsmanagement effizient zwischen beliebig vielen Instanzen übernehmen kann, wobei eine Optimierung besondere in Bezug auf die notwendigen Protokollnachrichten (und damit die benötigten Netzressourcen) gelang.
Analyse von Rake-Empfängern in mobilen Code-Division-Multiple-Acess (CDMA) Systemen
Verfasser: | Heiko Erben |
Abgabe: | Oktober 1995 |
Betreuender Hochschullehrer: | Prof. Dr.-Ing. habil. Adolf Finger |
Mit dieser Arbeit wurden Techniken zur Verbesserung des Empfangs in einem DS-CDMA System auf der Grundlage des aufwandsoptimierten RAKE-Empfängers vorgestellt und Aspekte des Systemverhaltens von DS-CDMA charakterisiert. Damit konnten nach Ansicht des Autors einige ungeklärte Fragen über die Leistungsfähigkeit derartiger Systeme aufgeklärt werden.
Die nichtperfekten Korrelationseigenschaften, welche sich in Nebenzipfeln der Korrelationsfunktion äußern, verursachen bei Mehrwegeausbreitung und mehreren Teilnehmern Interferenzen, die in dieser Arbeit als Code-Interferenzen (CI) definiert wurden. Dabei wurde herausgearbeitet, daß die dominierenden CI, d.h. die schlechtesten Korrelationseigenschaften, durch die ungerade Korrelationsfunktion bedingt werden. Die Eigenschaften der Korrelationsfunktion verschiedener Code wurden untersucht.
Es konnte festgestellt werden, daß bei großer Impulsverbreiterung schon bei 10 Teilnehmern die Interferenzen derart dominierend sind, daß es zu einer großen irrreduziblen Bitfehlerrate kommt. Auch optimierte Code-Familien, welche orthogonal sind und in den Nebenzipfeln der Kreuzkorrelation Gold-Code-Eigenschaften aufweisen und in ihrer Autokorrelation die Eigenschaften der m-Sequenzen besitzen, rufen keine wesentliche Verbesserung hervor. Erst bei kleinen Impulsverbreiterungen, die insbesondere im Indoor-Bereich auftreten, führten die verbesserten Korrelationseigenschaften dieser Code-Familie zu verbesserten Bitfehlerraten gegenüber den bisher verwendeten Gold-Codes.