/* Das ist der Code, damit das Akkordeon geschlossen angezeigt wird. */ /* Das ist der Code, um offene Akkordeons wieder schließen zu können */

School of Computation, Information and Technology

Hier findest du die Arbeiten, die unter der School of Computation, Information and Technology seit 2022 verfasst wurden. Diese sind nach den einzelnen Lehrstühlen geordnet.

Die School of Computation, Information and Technology besteht aus den Departments Informatik, Mathematik und Elektrotechnik.

Chair for Software Engineering for Business Information Systems

Towards a Web Application to Detect and Analyze Wash Trading in NFT Collections on the Solana Blockchain (2023)
With the rise of NFTs popularity, fraudulent activities to manipulate this market also increased. One of these techniques often used by scammers is wash trading, where the asset is traded between multiple accounts by one person or a group to increase the trading volume artificially. This fake demand can be very damaging to private investors, as they invest in an asset that does not have that value. Therefore, providing a website that allows users to check wash trading activity on NFT collections would be helpful. In this work, a methodology is developed to identify wash trades in the transaction history of an NFT collection on the Solana Blockchain. In addition, the user interface of a web page described above is explained, which we developed in the course of the work. Subsequently, this website is used to analyze the wash trading activities of small NFT collections.

Sebastian Jung, OvTG

Lehrstuhl für Wirtschaftsinformatik und Geschäftsprozessmanagement

Cyber-Physical Chess Arcade (2023)
Cyber-Physical Systems (CPS) offer unique possibilities of interaction between humans and machines. We demonstrate the ways of realizing and evolving CPS by building an interactive arcade that enables humans to play chess against a computer opponent using a physical board. Cameras and a robot arm are used for interaction, which gives the human player an immersive experience. We designed the system to be realized with service-based components, that are orchestrated by an execution engine (Mediator Pattern), to allow for a maximum amount of flexibility when managing or evolving the system. By utilizing a service oriented architecture (SOA) it is possible to demonstrate how a real-world implementation can achieve high flexibility and maintainability.

Forschungsgruppe für angewandte Softwaretechnik

Automatic Correction of Programming Exercises with Artemis & GitLab CI (2023)

Artemis is a Learning Management System (LMS) that facilitates programming exercises using a Version Control System (VCS) and a Continuous Integration System (CIS). Since some VCSs include a Continuous Integration (CI) application, it is possible to reduce the effort required to maintain the servers and migrate the CIS from external applications to the integrated system.
In the existing implementation, programming exercises rely on a configuration stored in the CIS as part of build plans. These configurations are duplicated for every student participation, making it hard to update the configuration throughout the exercise lifecycle.
GitLab CI is the CIS provided by the GitLab VCS. This system supports provisioning build plans via the Artemis Application Programming Interface (API), which makes it possible to update the build plan retrospectively, as the build plan is fetched from the API on each run.
In this thesis, we show how Artemis can be extended to support an VCS with an in-built CIS. We analyze the underlying problem, formalize the requirements, and model the adapted system design. We implement the changes as part of the open-source Artemis system. We generalize the existing Jenkins Server Notification Plugin for usage with different CISs to notify Artemis. Artemis is now capable of conducting Java programming exercises with a single dependency on GitLab.

Artificial Intelligence in Healthcare and Medicine

A Multifaceted Analysis of the Correlation between Conventional Static and Ultra-High-Field Dynamic MRI Reconstruction (2022)

Deep Learning has received much attention in the past few decades and is recognized as being one of the most important methodologies for potential breakthroughs in the medical field. This work is a preliminary attempt to introduce a multifaceted view on static and dynamic learned MRI reconstruction. First, we investigate the problem of domain shift in the context of state-of-the-art Magnetic Resonance Imaging (MRI) reconstruction networks with respect to variations in training data. We provide visualization tools and support our findings with statistical analysis for the networks evaluated    on the 1.5T/3T fastMRI knee and neuro data. We observe that the signal-to-noise ratio of the examined sequences plays an essential role, and we statistically prove the hypothesis that both the type and amount of training data are less important for low acceleration factors. Finally, a visualization tool facilitating the examination of the networks’ performance on each individual subject of the fastMRI data is provided. In the second part of this research paper, we adapt existing methodologies and findings in MRI reconstruction to novel 7T MRI reconstruction of dynamic cardiac processes. Despite the less severe degradation of image quality at high acceleration factors for higher magnetic field strengths, 7T MRIs, especially those with an additional temporal dimension, have rarely been studied directly in the field of learning-based undersampled MRI reconstruction. In this context, we identify the substantial impact certain neural network architectures and configurations have on reconstruction quality. In summary, we conclude that findings on domain shift, reconstruction quality and factors impacting network performance in 1.5T and 3T MRIs can also be translated to other magnetic field strengths, facilitating the transition to ultra-high-field (7T) and low-field MRI.

Shizhe He, OvTG

Lehr- und Forschungseinheit für Nachrichtentechnik

Comparison of Straggler Mitigation Algorithms in Distributed Machine Learning Systems (2022)

We consider a distributed machine learning algorithm in the presence of stragglers. We focus on algorithms running approximate gradient decent. We compare the performance of two algorithms that aim at mitigating stragglers, which are both based on gradient cod-ing, namely ErasureHead and Stochastic Gradient Coding. Even though either approach gives theoretical guarantees for their respective performance, we compare the practical performance in the same environment using the same data and the same loss function. We run the simulations using python programming language on a single machine with parallelized worker threads. We find that ErasureHead is a faster solution for our pur-pose, as it decreases the loss function faster. However, Stochastic Gradient Coding has a smaller margin of error after the same number of iterations, the run time of which is much longer.

Leopold Thomas, OvTG

Professur für Bioanaloge Informationsverarbeitung

Nachweis der Lautheitsintegration an Nutzern eines Cochlea Implantates bei akustischer Stimulation (2024)

In dieser wissenschaftlichen Arbeit wird das Phänomen der Lautheitsintegration bei Nutzern eines Cochlea-Implantats (CI) untersucht. Bereits vorliegende Untersuchungen zeigen, dass das menschliche Gehör akustische Signale von einer Zeitdauer bis zu 200 ms integriert. Dies hat zur Folge, dass längere Töne als lauter und kürzere Töne (kleiner als 200 ms) als leiser empfunden werden. Hierfür wurden zwölf Normalhörende und sechs CI-Nutzer untersucht. Für die Messungen dieser Studie befinden sich die Testpersonen in einer schallisolierten Kammer, in welcher mithilfe der Methode des Einregelns die Ruhehörschwelle der Testpersonen bei unterschiedlicher Stimulusdauer bestimmt wird. Die Ergebnisse dieser Experimente bestätigen, dass Lautheitsintegration auch bei Nutzern eines Cochlea Implantates auftritt. Der durchschnittliche Unterschied, der Ruhehörschwelle bei einer Zunahme der Tondauer von 10 ms auf 1s, war bei den CI-Nutzern deutlich geringer als der, der normalhörenden Testpersonen. Daher ist die Lautheitsintegration bei CI-Nutzern schwächer ausgeprägt. Dies führt im Alltag dazu, dass kurze Tonimpulse, wie das Klappern von Geschirr, für CI-Nutzer lauter und dadurch als unangenehm wahrgenommen werden können. Schlussendlich stellt sich damit die Frage, ob man diese veränderte Wahrnehmung durch eine Änderung in der Programmierung bzw. Einstellung des Cochlea-Implantates ausgleichen könnte. Dies würde zu einer natürlicheren Lautheitswahrnehmung im Alltag der CI-Nutzer führen.

Hörnervenfasern unter Cochlea-Implantat-Stimulation: Visualisierung von Simulationsdaten (2022)

In vielen Fällen eines Hörverlustes kann ein Cochlea-Implantat helfen, funktionsfähiges Hören wiederherzustellen. Dieses kann Schäden in Außen- und Mittelohr umgehen und regt die Hörnervenfasern direkt durch elektrische Stimulation an. An einer Verbesserung der Funktionalität der Implantate wird dauerhaft geforscht. Dafür sind Computermodelle essenziell, da Experimente am Menschen nicht möglich sind. Ein solches Modell kann die Aktivität der einzelnen Hörnervenfasern bei verschiedenen Elektrodenpositionen und Stimulationsamplituden vorhersagen. Ziel dieser Arbeit war die Visualisierung solcher Datensätze, die durch ein Computermodell der menschlichen Cochlea generiert wurden. Die Daten basieren auf Forschungen von Rattay u. a. 2001 und Bai u. a. 2019 für ein 12-Kanal Cochlea-Implantat. Für die Umsetzung wurde MATLAB R2021a verwendet. Die Ergebnisse sind zwei verschiedene Anwendungen. Die erste Anwendung zeigt einen interaktiven Plot mit 400 rekonstruierten Nervenfasern und einem Slider für 80 verschiedene Stimulationsamplituden in mA. Wenn eine Stimulationsamplitude ausgewählt wurde, werden alle für diesen Wert aktivierten Nervenfasern eingefärbt. Der ausgewählte Wert kann ebenfalls über ein Edit-Field ausgewählt und angezeigt werden. Der zweite Plot hat dieselben Eigenschaften, zeigt jedoch zusätzlich noch die Somata der Nervenfasern an.

Rebecca Treplin, OvTG

Chair of IT Security / Sicherheit in der Informatik

Patching Exposed Variables in the Linux Kernel Core and Drivers (2022)
The Linux operating system has become increasingly important for both companies and private individuals. For that reason, the secure use of Linux has to be guaranteed at all times. This work examines exposed global variables in the Linux kernel which are writable but are never supposed to be written to. An attacker can potentially write to those instances and thus achieve malicious control flow or data flow. Given the vast Linux kernel code base, automatic approaches need to be considered to find such instances and turn them read only, preventing write access. For that reason, this work introduces a Kernel Patcher script automatically patching those exposed variables in the Linux kernel’s core and driver source code by making them constant and thus read only. The static analysis tool ICARUS is used to identify the variables which should be patched. The experiment was conducted on the Linux kernel version v5.4. Out of 6847 variables, the Kernel Patcher script successfully patched 311 variables in 58:33h. Booting the patched kernel version in a virtual machine as well as running a benchmark validated that the patches did not break functionality. The variables which are made read only by the script cannot be written to anymore at runtime and, thus, the attack surface of the Linux kernel could successfully be reduced.
Kevin Adameit, WHG
Evaluating the Capabilities of Modern Fuzzers on CVEs (2022)
Finding bugs and vulnerabilities is an important part of programming and system administration to maintain proper functionality and prevent failure. Fuzzing has become a popular method for finding bugs since it delivers good results. In detail, it utilizes relatively few resources and time by leveraging randomness to test a large part of the code for unknown bugs. Although fuzzing has a high demand, the evaluation of fuzzers on real-world bugs is sparse. Moreover, the few fuzzing benchmarks on real programs fail to compare the performance of fuzzers on new CVEs. Another problem is that current benchmarking tools do not offer the ability to easily customize and expand the set of test cases. To solve these issues, this work proposes an extendable benchmarking tool on real-world bugs. Our approach consists of the expandable benchmarking tool Pineapple, which focuses on testing fuzzers at finding CVEs. Our tool matches the results of the fuzzers against the proof-of-concept file of the CVE automatically by using stack traces to check if the bug has been found. Furthermore, Pineapple’s benchmarking process can be fully customized with JSON config files. This allows us to provide ease of use as well as expandability for Pineapple to be adaptable for new test cases and fuzzers to assist with additional data capturing. Utilizing Pineapple, this work evaluates the capabilities of modern fuzzers at detecting bugs that have been published since 2019. In 7 runs, this benchmark was able to measure a high consistency of finding recently detected bugs within 24 hours for only one of three test cases. The benchmarking tool Pineapple has been published on GitHub to encourage others can compare more fuzzers on their test cases.
Felix Gigler, WHG

Lehrstuhl für Angewandte Geometrie und Diskrete Mathematik

Optimierung eines Mathematik Masterstudienplans mithilfe ganzzahliger linearer Optimierung (2024)
In der vorliegenden Arbeit geht es um die Vereinfachung der Studienplanung für den Mathematik Masterstudiengang an der Technischen Universität München. Deshalb ist das Ziel der Arbeit ist eine Methode in Java-Code, die bei ihrer Durchführung den geeignetsten Stundenplan für den Studenten aufgrund der gegebenen Module und Parametern erzeugt. Dazu wurde ein mathematisches Modell erstellt, das das Problem der Stundenplanerzeugung leicht vereinfacht und ein integer linear program (ILP), also ein ganzzahliges lineares Optimierungsproblem darstellt. Dafür gibt es verschiedene Lösungsstrategien, von denen eine rein graphische Lösungsmethode und der umfangreichere Simplexalgorithmus erklärt, sowie die Besonderheiten der vorliegenden Ganzzahligkeit des Problems veranschaulicht werden. Der Code wird aufgrund der Lösungssoftware Gurobi geschrieben und im Anschluss von dieser gelöst, der Die Durchführung des Codes ist aufgrund von unidentifizierten Fehlern nicht möglich gewesen und es werden deshalb zusätzlich die möglichen Fehlerquellen diskutiert. Dabei erscheint ein Fehler im mathematischen Modell oder in dessen Implementierung am wahrscheinlichsten.
Mathematische Anleihen-ETF-Portfoliooptimierung mittels diverser Risikomodelle und Zielfunktionen (2024)
Die von Harry M. Markowitz entwickelte Portfoliotheorie legte den Grundstein des modernen Investmentverständnisses, das nicht auf individuellen Meinungen, sondern vielmehr auf stochastischen Zusammenhängen beruht. Ziel der Portfoliooptimierung ist es, den Gewichtsvektor und damit die Zusammensetzung eines effizienten Portfolios zu bestimmen, das ein aus Sicht des Investors ideales Verhältnis zwischen Risiko und erwartetem Return bietet. In der einfachsten Variante der Portfoliooptimierung wird ein Ausdruck für das Risiko, der sich auf die Kovarianzmatrix der Returns stützt, minimiert, wobei als Nebenbedingung ein bestimmter Mindestreturn als Erwartungswert des Portfolioreturns zu berücksichtigen ist. Darüber hinaus werden in der vorliegenden Arbeit weitere Risikomodelle und Zielfunktionen vorgestellt und anschließend untereinander hinsichtlich ihrer Einflüsse auf das optimierte Portfolio verglichen. Als Datensatz sind verschiedene Anleihen-ETFs verwendet worden, die einen Staats- oder Unternehmensanleihen abbildenen Index nachbilden. Aus dem Vergleich der Risikomodelle geht für ein Beispiel hervor, dass eine geringe Veränderung des Mindestreturns tendentiell für einen größeren Unterschied bei dem optimierten Portfolio sorgt als die Wahl eines anderen Risikomodells bei gleichbleibendem Mindestreturn. Außerdem wird mithilfe der LagrangeMultiplikatoren beispielhaft der Gewichtsvektor eines optimierten Portfolios berechnet.
The College Admission problem with Lower Quotas in the context of the TUM’s Departement of Mathematics (2023)
In this thesis I concern myself with the problem of deciding which applicant should take part in which seminar during an event. What makes this problem interesting is that we want to consider the desires of applicants and seminars, as well as certain uppercapacities and lower quotas for seminars. This issue is known as the College Admission Problem with Lower Quotas (CA-LQ). In the following thesis I discuss criteria by which we may want to evaluate how good a solution of CA-LQ is. Afterwards, I suggest an algorithm which attempts to solve said problemAdditionally, I implement this algorithm and run experiments on it to evaluate its feasibility for practical use at the TUM’s Departement of Mathematics when assigning students to seminarsand conclude that my algorithm is not useful in this context, due to its long run-time and lacking reliabality in finding.
Andreas Iskrov, OvTG
Wie gestaltet sich die optimale Verteilung von Carsharing-Wagen über eine beschränkte Anzahl an Stationen mit dem Ziel der Reduzierung von Autokäufen am Beispiel von München? (2023)
IIn dieser Forschungsarbeit geht es darum, die Verteilung von Carsharing-Wagen in München mit dem Ziel der Reduzierung der Anzahl an Autokäufen zu optimieren. Dies soll bei einer möglichst kleinen Anzahl an Stationen geschehen. Zunächst dreht sich alles um Vor- und Nachteile des Carsharings. Ziel hierbei ist es, die Perspektiven dieses Geschäftsmodells zu analysieren und mögliche Änderungen, welche die Nutzungsquote des Carsharing-Systems erhöhen würden, herauszuarbeiten. Anschließend wird die Fragestellung, nach der maximal möglichen Nutzung, in ein mathematisches Modell umgewandelt. Im Zuge dessen wird auch die Nachfragefunktion, welche bei dem Lösen des Modells eine Schlüsselrolle spielt, erstellt. Nach der Erläuterung verschiedener Optimierungsverfahren und Auswählen des geeignetsten wird das Modell mithilfe der Optimierungssoftware Gurobi implementiert. Zuletzt werden noch die von Gurobi ermittelten Ergebnisse ausgewertet und interpretiert.
Eugenio Vairo, WHG
Erstellung und Implementierung eines ganzzahligen linearen Optimierungsmodells zur Einteilung von Klausuraufsichten (2022)
The aim of this thesis is to achieve an ideal assignment of supervisors to supervision shifts for university exams and retake exams by an integer linear optimization method. Therefore, the problem is first formulated mathematically and a linear optimization model is built based on it. The optimization model is implemented in Python and then tested with real and randomly generated data. The results of the tests show that the creation and implementation of the optimization model are successful and that the program can now be used in real application situations. This work is suitable for readers interested in solving mathematical problems with practical relevance. Mathematical knowledge of the upper secondary school level is required.
Johannes Rief, WHG

Lehrstuhl für Mathematische Modellierung biologischer Systeme

Leveraging Curvature to distinguish Graph Structures (2024)

The research explores the potential of leveraging curvature, specifically Ollivier-Ricci curvature, to distinguish chemical molecules treated as graph structures. Traditional methods in graph neural networks (GNNs) have shown promise but need help with challenges, such as the need for abundant labeled data and theoretical expressivity limitations. By incorporating molecular geometry through curvature, the aim is to lay a stable mathematical foundation to characterize molecules, providing improved data for neural networks and ultimately contributing to more efficient drug discovery processes.
The analysis reveals patterns within individual molecules as well as across different molecules. Notably, the analysis of node-to-node curvature exposes analogous intramolecular patterns. Moreover, within the intermolecular context, especially when considering the Zinc Chemistry dataset, the application of manifold embeddings like UMAP showcases the clustering of similar molecular structures. These findings suggest that curvature can be effectively utilized as a feature for distinguishing molecules.

Henry Pham, WHG

Computer Vision Group

Video Object Segmentation using SIFT and SAM (2024)

We present a method for combining Scale-Invariant Feature Transformation (SIFT) and Segment Anything Model (SAM) for the purpose of Video Object Segmentation (VOS). We combine the high accuracy constituted by SAM with a feature matching algorithm. SAM is limited to segmenting single images, as it has no module for exchanging information between frames. To enable SAM’s usage in a VOS context, we utilize SIFT as a feature matching algorithm, thus transferring positional information from one image to another. Our method is comparatively simple, which might cause problems to arise; however, this enabled us to vary and adapt the method more easily, which is also an advantage for future work. We discuss this pipeline’s capabilities, limitations and potential for improvement. This is also compared to similar me for implementing SAM. We validate our approach in an extensive qualitative study in the context of traffic. Further, we evaluate the real world usecase of 3-dimensional object tracking based on VOS data. Our approach is limited by the capabilities of SIFT; however, they were identical with the limitations of triangulation used in the task of object tracking, as this is also based on SIFT. Overall our approach does not achieve the robustness of similar models; however, its adaptability enables us to improve and specialize our model in future work.