Among the topics to be discussed in this course are: - XML and database technology (XML modeling, XML storage, XML query languages, XML processing) - NoSQL data management (Key value stores, MapReduce, triple stores, document stores, graph stores) - Content management (Enterprise content management, information retrieval, search technologies)
Among the topics to be discussed in this course are: - XML and database technology (XML modeling, XML storage, XML query languages, XML processing) - NoSQL data management (Key value stores, MapReduce, triple stores, document stores, graph stores) - Content management (Enterprise content management, information retrieval, search technologies)
• Wave and information propagation algorithms• Termination detection• Fault tolerance in distributed systems• State machine replication• Synchronization and deadlocks
• Wave and information propagation algorithms• Termination detection• Fault tolerance in distributed systems• State machine replication• Synchronization and deadlocks
• Wie studiere ich effektiv und effizient? Wie sollte ich mein Studium aufbauen? • Was bedeutet Informatik? • Verwendung von LaTeX und Github • Grundlagen der Arbeit mit der Kommandozeile, Grundkenntnisse in Linux und SSH • Programmieren sowie die Ausführung der Programme auf entfernten Rechnern
• Wie studiere ich effektiv und effizient? Wie sollte ich mein Studium aufbauen? • Was bedeutet Informatik? • Verwendung von LaTeX und Github • Grundlagen der Arbeit mit der Kommandozeile, Grundkenntnisse in Linux und SSH • Programmieren sowie die Ausführung der Programme auf entfernten Rechnern
Software-defined networking (SDN) is a popular technology to increase the flexibility and efficiency of communication networks that caught a lot of attention and support from academia and industry (e.g., Google, Microsoft, NEC, Cisco, VMWare).SDN increases flexibility and efficiency by out-sourcing network control (e.g., routing) from network elements (switches) to a network controller running on standard servers. The network controller has a global view onto the network (logical centralization) and facilitates the implementation of network control logic “in software” using standard languages like C, Python, Java, or even declarative approaches.With OpenFlow, a first standard protocol for SDN is available that is implemented by hardware switches from several vendors and also software switches like Open vSwitch as typically used in data centers to connect virtual machines on hosts. Moreover, several open source controller implementations exist.
Software-defined networking (SDN) is a popular technology to increase the flexibility and efficiency of communication networks that caught a lot of attention and support from academia and industry (e.g., Google, Microsoft, NEC, Cisco, VMWare).SDN increases flexibility and efficiency by out-sourcing network control (e.g., routing) from network elements (switches) to a network controller running on standard servers. The network controller has a global view onto the network (logical centralization) and facilitates the implementation of network control logic “in software” using standard languages like C, Python, Java, or even declarative approaches.With OpenFlow, a first standard protocol for SDN is available that is implemented by hardware switches from several vendors and also software switches like Open vSwitch as typically used in data centers to connect virtual machines on hosts. Moreover, several open source controller implementations exist.
Many datasets and scientific problems are posed as high-dimensional problems, mapping from many inputs to target values. Learning from image data is a classic example that can map hundreds of thousands of colour values (pixel data) to the class of an object or to physical values such as temperature or energy, and simulations often depend on many input parameters. If the problems were really as high-dimensional as they are formulated, conventional algorithms would have to fail. Fortunately, the “real” dimensionality is usually much lower. But we have to identify and handle this relevant low-dimensional structure to be able to approximate/learn the underlying problem and to quantify the relevant dependencies. In this course:
• We will learn the properties of high-dimensional problems, with surprising implications.
• We will examine algorithms to analyse high-dimensional data, identify important parameters or combinations thereof (dimensional analysis, dimensionality reduction).
• We will learn how to approximate high-dimensional problems so that we can analyse them and predict in a lower-dimensional representation.
• We will understand the limitations of representative algorithms that can be suited for high-dimensional tasks, and we will implement and use them.
This course will bridge theory to practice, implementing and using selected algorithms for real-world data using Python.
Many datasets and scientific problems are posed as high-dimensional problems, mapping from many inputs to target values. Learning from image data is a classic example that can map hundreds of thousands of colour values (pixel data) to the class of an object or to physical values such as temperature or energy, and simulations often depend on many input parameters. If the problems were really as high-dimensional as they are formulated, conventional algorithms would have to fail. Fortunately, the “real” dimensionality is usually much lower. But we have to identify and handle this relevant low-dimensional structure to be able to approximate/learn the underlying problem and to quantify the relevant dependencies. In this course:
• We will learn the properties of high-dimensional problems, with surprising implications.
• We will examine algorithms to analyse high-dimensional data, identify important parameters or combinations thereof (dimensional analysis, dimensionality reduction).
• We will learn how to approximate high-dimensional problems so that we can analyse them and predict in a lower-dimensional representation.
• We will understand the limitations of representative algorithms that can be suited for high-dimensional tasks, and we will implement and use them.
This course will bridge theory to practice, implementing and using selected algorithms for real-world data using Python.
Fundamentals of wireless data transmission Media access for wireless networks Location Management Wireless wide-area networks and mobile communication systems (GSM, GPRS, UMTS) Wireless local-area and personal area networks: IEEE 802.11, Bluetooth Ad-hoc Networks: routing protocols and algorithms Mobility in IP-networks: Mobile IP Transport layer protocols for mobile systems Mobile data management concepts Android programming
Fundamentals of wireless data transmission Media access for wireless networks Location Management Wireless wide-area networks and mobile communication systems (GSM, GPRS, UMTS) Wireless local-area and personal area networks: IEEE 802.11, Bluetooth Ad-hoc Networks: routing protocols and algorithms Mobility in IP-networks: Mobile IP Transport layer protocols for mobile systems Mobile data management concepts Android programming
Diese Vorlesung bietet eine Einführung in die Grundlagen der Modellbildung und Simulation mit dem Ziel der Vorbereitung auf weiterführende Vorlesungen in diesem Bereich. Da Simulationsmethoden oft für viele verschiedene Problemklassen einsetzbar sind, ist die Vorlesung methodisch strukturiert. Den Hauptteil der Vorlesung bilden hierbei diskrete Modelle sowie deren Behandlung, aber auch kontinuierliche Modelle werden ergänzend gestreift. Ob diskrete Ereignissimulation, spieltheoretische Ansätze, Zelluläre Automaten, Räuber-Beute Modelle oder Fuzzy-Mengen: die verschiedenen Modellierungsansätze sind so vielfältig wie die Problemstellungen, auf die sie angewendet werden. Verkehrssimulation, Populationswachstum, Wahlen oder Regelung sind nur einige der Anwendungsbereiche aus den Natur- und Ingenieurwissenschaften.
Diese Vorlesung bietet eine Einführung in die Grundlagen der Modellbildung und Simulation mit dem Ziel der Vorbereitung auf weiterführende Vorlesungen in diesem Bereich. Da Simulationsmethoden oft für viele verschiedene Problemklassen einsetzbar sind, ist die Vorlesung methodisch strukturiert. Den Hauptteil der Vorlesung bilden hierbei diskrete Modelle sowie deren Behandlung, aber auch kontinuierliche Modelle werden ergänzend gestreift. Ob diskrete Ereignissimulation, spieltheoretische Ansätze, Zelluläre Automaten, Räuber-Beute Modelle oder Fuzzy-Mengen: die verschiedenen Modellierungsansätze sind so vielfältig wie die Problemstellungen, auf die sie angewendet werden. Verkehrssimulation, Populationswachstum, Wahlen oder Regelung sind nur einige der Anwendungsbereiche aus den Natur- und Ingenieurwissenschaften.
Die Vorlesung vermittelt wie wesentliche Artefakte eines IT Systems modelliert werden, den Zusammenhang und das Zusammenspiel solcher Artefakte sowie die Rolle von Metamodellen und deren Erstellung. Die Vorlesung beinhaltet folgende Themen: - Entity-Relationship Modell und komplexe Objekte - Relationenmodell und Relationenalgebra , Überblick SQL - Transformationen von ER nach Relationen, Normalisierung - XML, DTD, XML-Schema, Info-Set, Namensräume - Metamodelle und Repository - RDF, RDF-S und Ontologien - UML - Petri Netze, Workflownetze - BPMN
Die Vorlesung vermittelt wie wesentliche Artefakte eines IT Systems modelliert werden, den Zusammenhang und das Zusammenspiel solcher Artefakte sowie die Rolle von Metamodellen und deren Erstellung. Die Vorlesung beinhaltet folgende Themen: - Entity-Relationship Modell und komplexe Objekte - Relationenmodell und Relationenalgebra , Überblick SQL - Transformationen von ER nach Relationen, Normalisierung - XML, DTD, XML-Schema, Info-Set, Namensräume - Metamodelle und Repository - RDF, RDF-S und Ontologien - UML - Petri Netze, Workflownetze - BPMN
In den letzten Jahren sind, getrieben durch die Anforderungen innovativer Anwendungen und Dienste, eine Reihe neuer Technologien für vernetzte bzw. verteilte Systeme entstanden. So werden im Internet der Dinge eine Vielzahl von Geräten und Alltagsgegenständen mit Sensoren und Aktoren ausgestattet, mithilfe von meist drahtlosen Kommunikationstechnologien (z.B. BLE, ZigBee, 6LoWPAN, LoRaWAN) vernetzt und an das Internet angebunden. Ein entsprechender Trend findet sich im industriellen Internet der Dinge (IIoT, Industrie 4.0), in dem Maschinen, Werkzeuge, Logistik, usw. vernetzt werden. Ein weiterer Trend ist die Flexibilisierung und Effizienzsteigerung verteilter Systeme durch Virtualisierung (z.B. NFV) und „software-definierte“ Systeme (z.B. SDN), die flexible Anpassung und dynamische Skalierung ermöglichen. Getrieben durch die Popularität von Bitcoin wurden verschiedene Distributed Ledger-Technologien (z.B. Blockchain) und weiterführende Konzepte wie Smart Contracts entwickelt, die nicht nur als Grundlage elektronischer Währungen (z.B. Bitcoin, Ethereum) dienen, sondern allgemein Anwendungen unterstützen, in denen ein Konsens zwischen Parteien gefunden und dokumentiert werden muss. Ein weiteres Thema ist die Verringerung von Latenzen, indem beispielsweise zusätzlich zu entfernten Cloud -Ressourcen nahe Edge- und Fog-Ressourcen genutzt oder optimierte Kommunikationsprotokolle eingesetzt werden, die unter anderem einen raschen Verbindungsaufbau zwischen Client und Server ermöglichen. Neben stationären Netzen haben sich mobile (5G) Kommunikationstechnologien und Systeme rasch weiterentwickelt. So verwendet z.B. die Corona-Warn-App mobile Geräte privater Nutzer zur Kontaktverfolgung. Diese als Crowdsensing bezeichnet Methode kann allgemein zur Sammlung großer Mengen von geographisch verteilten Sensordaten verwendet werden. In diesem Seminar wird neben diesen Aspekten ein breites Spektrum aktueller Internet-Technologien, Protokolle und Standards diskutiert, welche die vernetzten und verteilten Anwendungen und Dienste ermöglichen. Mögliche weitere Themen umfassen Machine-to-Machine Communication (M2M), OPC-UA (Unified Architecture), Echtzeitkommunikation (Real-Time-Ethernet), WWW-Technologien und Protokolle (HTTP 2.0/SPDY), neue Transportprotokolle (QUIC, Multipath-TCP).
In den letzten Jahren sind, getrieben durch die Anforderungen innovativer Anwendungen und Dienste, eine Reihe neuer Technologien für vernetzte bzw. verteilte Systeme entstanden. So werden im Internet der Dinge eine Vielzahl von Geräten und Alltagsgegenständen mit Sensoren und Aktoren ausgestattet, mithilfe von meist drahtlosen Kommunikationstechnologien (z.B. BLE, ZigBee, 6LoWPAN, LoRaWAN) vernetzt und an das Internet angebunden. Ein entsprechender Trend findet sich im industriellen Internet der Dinge (IIoT, Industrie 4.0), in dem Maschinen, Werkzeuge, Logistik, usw. vernetzt werden. Ein weiterer Trend ist die Flexibilisierung und Effizienzsteigerung verteilter Systeme durch Virtualisierung (z.B. NFV) und „software-definierte“ Systeme (z.B. SDN), die flexible Anpassung und dynamische Skalierung ermöglichen. Getrieben durch die Popularität von Bitcoin wurden verschiedene Distributed Ledger-Technologien (z.B. Blockchain) und weiterführende Konzepte wie Smart Contracts entwickelt, die nicht nur als Grundlage elektronischer Währungen (z.B. Bitcoin, Ethereum) dienen, sondern allgemein Anwendungen unterstützen, in denen ein Konsens zwischen Parteien gefunden und dokumentiert werden muss. Ein weiteres Thema ist die Verringerung von Latenzen, indem beispielsweise zusätzlich zu entfernten Cloud -Ressourcen nahe Edge- und Fog-Ressourcen genutzt oder optimierte Kommunikationsprotokolle eingesetzt werden, die unter anderem einen raschen Verbindungsaufbau zwischen Client und Server ermöglichen. Neben stationären Netzen haben sich mobile (5G) Kommunikationstechnologien und Systeme rasch weiterentwickelt. So verwendet z.B. die Corona-Warn-App mobile Geräte privater Nutzer zur Kontaktverfolgung. Diese als Crowdsensing bezeichnet Methode kann allgemein zur Sammlung großer Mengen von geographisch verteilten Sensordaten verwendet werden. In diesem Seminar wird neben diesen Aspekten ein breites Spektrum aktueller Internet-Technologien, Protokolle und Standards diskutiert, welche die vernetzten und verteilten Anwendungen und Dienste ermöglichen. Mögliche weitere Themen umfassen Machine-to-Machine Communication (M2M), OPC-UA (Unified Architecture), Echtzeitkommunikation (Real-Time-Ethernet), WWW-Technologien und Protokolle (HTTP 2.0/SPDY), neue Transportprotokolle (QUIC, Multipath-TCP).
The Internet of Everything (IoE), where virtually everything can now communicate through the Internet, and the increasingly demanding performance requirements of new technologies (e.g., cryptocurrencies) have driven the emergence of new computing paradigms for distributed systems. Scalability is now offered not only by centralized cloud providers, but also by edge computing systems, where geographically distributed servers provide computational resources at the edge of the network and, therefore, close to the end devices. This can significantly reduce latency for time-critical applications like vehicular networks. The advances in edge computing have led to the emergence of edge AI, where powerful AI algorithms are deployed at the edge, without relying on a remote cloud. But distributed systems come with many challenges which requires a profound understanding of core principles in distributed computing. As pointed out by former Google Senior Vice President Urs Hölzl: “At scale, everything breaks ... Keeping things simple and yet scalable is actually the biggest challenge. It's really, really hard.“ This is especially true for dynamic and uncertain environments that we are facing, for instance, in smart buildings or smart energy systems. Self-adaptation is one of the key mechanisms for coping with increasingly large and dynamic systems, often by using machine learning techniques (GNN, reinforcement learning). Challenges that come with distributed storage systems include consistency and scalability. Another hot topic, especially in the context of 5G and the development of future 6G networks, is Time Sensitive Networking (TSN), which defines a set of standards to enable reliable, deterministic real-time communication in Ethernet networks. These standards target, among others, time synchronization and traffic shaping/scheduling approaches for both event-based and time-triggered traffic. In this seminar, we take a deep dive into specific concepts of distributed and context-aware systems that tackle the above challenges. The topics will be published on the department’s website and are assigned according to a standardized procedure as explained during the kick-off.
The Internet of Everything (IoE), where virtually everything can now communicate through the Internet, and the increasingly demanding performance requirements of new technologies (e.g., cryptocurrencies) have driven the emergence of new computing paradigms for distributed systems. Scalability is now offered not only by centralized cloud providers, but also by edge computing systems, where geographically distributed servers provide computational resources at the edge of the network and, therefore, close to the end devices. This can significantly reduce latency for time-critical applications like vehicular networks. The advances in edge computing have led to the emergence of edge AI, where powerful AI algorithms are deployed at the edge, without relying on a remote cloud. But distributed systems come with many challenges which requires a profound understanding of core principles in distributed computing. As pointed out by former Google Senior Vice President Urs Hölzl: “At scale, everything breaks ... Keeping things simple and yet scalable is actually the biggest challenge. It's really, really hard.“ This is especially true for dynamic and uncertain environments that we are facing, for instance, in smart buildings or smart energy systems. Self-adaptation is one of the key mechanisms for coping with increasingly large and dynamic systems, often by using machine learning techniques (GNN, reinforcement learning). Challenges that come with distributed storage systems include consistency and scalability. Another hot topic, especially in the context of 5G and the development of future 6G networks, is Time Sensitive Networking (TSN), which defines a set of standards to enable reliable, deterministic real-time communication in Ethernet networks. These standards target, among others, time synchronization and traffic shaping/scheduling approaches for both event-based and time-triggered traffic. In this seminar, we take a deep dive into specific concepts of distributed and context-aware systems that tackle the above challenges. The topics will be published on the department’s website and are assigned according to a standardized procedure as explained during the kick-off.