
Katharina Steuer
Ertragsteuerliche Zugriffspunkte auf datenbasierte Wertschöpfungsmodelle unter besonderer Berücksichtigung des Einflusses Künstlicher Intelligenz
Ruprecht-Karls-Universität Heidelberg
Katja Tüting
Ein mathematisches Modell des Messens
TU Braunschweig
Wer misst, misst Mist? Messungen unterliegen systematischen und zufälligen Fehlern. Zufällige Fehler bewirken bei wiederholter Messung unsystematisch abweichende Messergebnisse, und wir nennen sie die aleatorischen Fehler nach dem Lateinischen alea für Würfel. Im Grenzfall theoretisch verschwindender aleatorischer Unsicherheiten bleiben systematische Messfehler, die bei wiederholter Messung unverändert auftreten und erst im Vergleich mehrerer Messverfahren beobachtbar sind. Wir nennen sie die epistemischen, auf die Erkenntnis bezogenen Fehler. Messungen der physikalischen Grundgrößen sind heute präzise und etabliert. Für kompliziertere, mehrstufige Messverfahren oder nicht eindeutig definierte Größen, wie z. B. in den Sozialwissenschaften, ist die Frage nach der Aussagekraft von Messungen herausfordernd. In meiner Arbeit entwerfe ich einen konzeptionellen mathematischen Rahmen, der eine Definition der Größen, der Messfehler und der Kalibrierung erlaubt, und wende diesen unter anderem auf Messungen mit Sampling-Oszilloskopen an. Sampling-Oszilloskope messen kontinuierlich zeitveränderliche hochfrequente Spannungen, die das Konzept der zu messenden Größe sind. Das Ergebnis der Messung ist jedoch ein Vektor mit Spannungswerten an endlich vielen diskreten Zeitpunkten. Die Realität, die Konzept und Messwert zueinander in Beziehung setzt, wird durch die Maxwell-Gleichungen beschrieben, deren Lösung zeitveränderliche elektromagnetische Felder sind. Aber natürlich ist jede Beschreibung der Realität wieder ein Modell. Kalibrierung stellt sich der Frage, welche Unsicherheiten einer Messung quantifizierbar oder sogar korrigierbar sind. Da das Konzept der Messung eine theoretische Größe ist, auf die wir im Allgemeinen keinen vollständigen Zugriff haben, bleibt für die Praxis die Kalibrierung gegen eine Referenzmessung. Ziel der Arbeit ist die Entwicklung eines mathematischen Denkrahmens, in dem das Messproblem, die Fehler und Unsicherheiten sowie die Kalibrierung beschreibbar und analysierbar werden. Interessant ist auch die Fortpflanzung der Unsicherheiten. Unter anderem können dabei aleatorische Unsicherheiten zu epistemischen Fehlern werden.

Julia Christina Englén-Kemmerzehl
Legal Tech of Migration
Universität Regensburg
The focus of the dissertation is how to create an efficient asylum procedure with support by digital solutions. What is possible to digitize legally? What is already done in the EU member states? What can the EU member states learn from each other? Since the last migration influx 2015/2016, the EU member states are negotiating a new pact for migration and asylum. The Asylum Procedures Directive, one of the directives and regulations within the Common European Asylum System (CEAS), is suggested to become a regulation. The objective is to create harmonized and efficient decision-making as well as solidarity among the EU member states. This means that the requirements concerning efficiency and legal quality will be directly implemented in the EU member states. To be able to shed light on the parts that can be digitized, the dissertation focuses on the EU member states in the Nordics as well as Germany to show what has already been done and how this affects efficiency and remaining alternatively improving the legal quality. A case study has been performed to display how similar judicial decisions are to indicate if these decisions can be automatized. Additionally, a prototype is being made to illustrate how a digital European asylum procedure could look like with inspiration from implemented procedures in some of the EU member states. At last, the aim of the dissertation is to analyze if these digital solutions can be implemented as part of the new pact and if this would change the European asylum procedure and meet the objectives agreed by the EU member states concerning efficient decision-making to create a European Legal Tech of Migration.
Natalie Pfaff
Phänomenologie der Virtualität
Friedrich-Schiller-Universität Jena
In meinem Dissertationsprojekt soll der Begriff der Virtualität aus einer philosophischen und, im Spezifischen, einer phänomenologischen Perspektive untersucht werden. Die Relevanz der Arbeit begründet sich in einer noch ausstehenden Phänomenologie von Virtualität. Dieser Befund ist insofern bemerkenswert, da virtuelle Phänomene heute eine noch nie dagewesene Präsenz besitzen. Die Diskussionen um virtuelle Welten, virtuelle Realität, moderne Technologien wie u.a. die Apple Vision Brille, die virtuelle Objekte in das reale Sehfeld integriert, sowie computerprogrammierte Bilder sowie die Frage nach den Folgen von künstlicher Intelligenz, die virtuelle Texte, Bilder sowie Videos selbst herstellen kann, spannen das aktuelle Diskursfeld rund um Virtualität auf. Unterrepräsentiert ist dabei eine begriffsgeschichtliche Untersuchung des Begriffs "Virtualität": Entstanden im Mittelalter in Form des Wortes virtualiter wird es vielfach mit unterschiedlichen Bedeutungen verwendet, u.a. in Form der Differenzierung von Potentialität als Eigenschaft des Virtuellen und Aktualität als Opposition.
Wie ist die Geschichte des Begriffs mit dem heutigen Verständnis verknüpft? Kann man von einer Bedeutungskontinuität sprechen oder haben wir es heute mit einer genuin neuen Form von Virtualität zu tun? Die Arbeit untersucht Virtualität in der historischen Tradition im Hinblick auf die phänomenologische Tradition (1) und in einem experimentellen Ansatz in Form der Mikrophänomenologie (2).
Ziel ist es, eine neu entwickelte Methode aus der Phänomenologie anzuwenden: die Mikrophänomenologie. Es handelt sich dabei um eine empirische Methode, die auf Grundlage einer spezifischen Interviewform Erlebnisse einer Person präzise und unter Einbezug der persönlichen Assoziationen, Erinnerungen und Phantasien der Interviewperson abbildet. Diese Methode ist neu und wurde u.a. von Natalie Depraz entwickelt, Professorin für Phänomenologie an der Universität Paris-Nanterre. Diese Methode soll die theoretische Arbeit des Projektes komplettieren und unter der Betreuung von Frau Depraz entwickelt und durchgeführt werden.

Maximilian Reiter
Numerische Approximation von verallgemeinerten Lösungskonzepten im Bereich der Strömungsmechanik
Technische Universität Berlin
Die Strömungsmechanik beschäftigt sich mit dem physikalischen Verhalten von Fluiden und findet zahlreiche Anwendungen in der Wissenschaft und Industrie. Viele moderne Technologien basieren auf einer hinreichend guten Prognose des mechanischen Verhaltens von Flüssigkeiten. Physikalische Modelle dienen dabei als Instrument der Vorhersage, welche durch am Computer durchgeführte Simulationen abgeleitet wird. Um diese Prognosen erstellen zu können und um Aussagen über deren Zuverlässigkeit treffen zu können, benötigt es mathematische Theorie. Die physikalischen Gesetze lassen sich oft in gekoppelten nichtlinearen mathematischen Gleichungen fassen. Die mathematische Analysis trifft dann Aussagen über Existenz der Lösung und Eigenschaften dieser. Mithilfe der numerischen Analysis lassen sich im Anschluss Aussagen zur Approximierbarkeit des mathematisch formulierten Problems mithilfe von Computersimulationen treffen. Dazu muss im ersten Schritt aber erst einmal definiert werden, was überhaupt mit einer Lösung gemeint ist.
Das allgemeine Ziel eines gelungenen mathematischen Lösungskonzepts für partielle Differentialgleichungen liegt in der Wohlgestelltheit des Problems (nach Hadamard) – das heißt, dass eine Lösung existiert, eindeutig ist und stetig von den Anfangsdaten abhängt. Deshalb ist die sogenannte schwache Lösungstheorie, die den Differenzierungsbegriff verallgemeinert, nach wie vor sehr populär und auch geeignet, um z. B. die Existenz von Lösungen der inkompressiblen Navier-Stokes-Gleichungen zu zeigen. Allerdings konnten Tristan Buckmaster und Vlad Vicol zeigen, dass bereits bei diesen Gleichungen Mehrdeutigkeit in drei Dimensionen vorliegt. Die physikalische Relevanz von schwachen Lösungen bleibt deshalb unklar. Bei komplexeren, physikalisch relevanten Modellen lassen sich häufig sogar gar keine schwachen Lösungen herleiten. Als Konsequenz wurden diverse andere schwächere Lösungskonzepte entwickelt.
Eng verbunden mit der physikalischen Relevanz eines Lösungskonzepts ist die numerische Approximierbarkeit eines solchen. Voraussetzung dafür ist die Existenz geeigneter, stabiler und hinreichend effizienter Algorithmen. Dieselben strukturellen Eigenschaften, die zu den Schwierigkeiten bei der Wahl des Lösungskonzeptes führen, beeinträchtigen auch die numerischen Approximationseigenschaften. Deswegen lassen sich im Bereich der Strömungsmechanik oft verschiedene kontextabhängige Algorithmen mit unterschiedlichen Vor- und Nachteilen finden. In Anbetracht neuer, moderner Lösungskonzepte besteht die Schwierigkeit oft bereits im Design eines ersten praktisch implementierbaren Diskretisierungsschemas.
Als Untersuchungsobjekt und Anwendungsmodell der analytischen und numerischen Methoden interessiere ich mich vor allem für die sogenannten Ericksen-Leslie-Gleichungen, die das Strömungsverhalten von Flüssigkristallen in ihrer nematischen Phase beschreiben.