Themencluster
Alisa Sophie Bach

Alisa Sophie Bach

Innovation als Game Changer? Über die bidirektionalen Effekte zwischen Innovationen im Management Accounting und Unternehmenserfolg

Fachbereich Betriebswirtschaftslehre

WHU – Otto Beisheim School of Management


Thematisch widme mich in meinem Dissertationsvorhaben dem Bereich Management Accounting. Speziell fokussiere ich mich hier auf Innovationen und deren Auswirkungen auf das interne Rechnungswesen.
In der Forschung zu Innovationen in Systemen des internen Rechnungswesens oder Management Accounting (MAS) wurde weitgehend außer Acht gelassen, dass die Beziehung zwischen Unternehmenserfolg und MAS-Innovationen bidirektional sein könnte. Folglich sind zwei Fragen für Unternehmen essenziell: sollten sie in MAS-Innovationen investieren und wenn ja, ob und wie diese Investitionen den Unternehmenserfolg beeinflussen können. In meinem Dissertationsvorhaben untersuche ich diese bidirektionalen Effekte basierend auf einem Modell, dass auf zeitverzögerten Effekten von MAS-Innovationen und Unternehmenserfolg basiert. Mithilfe einer umfassenden Messung für MAS-Innovationen und sowie Längsschnittdaten von 101 Unternehmen zeigen meine Ergebnisse, dass Unternehmenserfolg keinen signifikanten Einfluss auf MAS-Innovationen hat. Das Gegenteil scheint der Fall zu sein: ein höheres Niveau an MAS-Innovationen hat einen positiven und signifikanten Effekt auf den Unternehmenserfolg. In zusätzlichen Analysen zeige ich außerdem, dass Unternehmen mit einem höheren Maß an MAS-Innovationen von einer verbesserten Entscheidungsfindung, einer erhöhten Effizienz in den Berichtsprozessen sowie einer verbesserten Zusammenarbeit zwischen der IT-Abteilung und dem internen Rechnungswesen profitieren.

Felix Krones

Felix Krones

Opportunities and risks of multimodal foundation models in healthcare

University of Oxford


My thesis sets out to investigate the risks and opportunities of multimodal foundation models in healthcare, with a focus on data-efficient generalisation. Foundation models are deep learners, which use transfer learning, which are pre-trained in a self-supervised way on large amounts of data, and which can be applied to various downstream tasks. Despite the attention foundation models have recently received, significant ambiguities remain regarding their true opportunities, risks, and success criteria. Claimed opportunities that make them potentially attractive to investigate for healthcare are their data-efficiency and their improvement on model generalisation. Given a recent paradigm shift in the latest AI history, my aim is to introduce philosophical and technical rigour to the problem of using foundation models for generalisation in the context of computer vision. I attempt to answer the following overall research question: What are the risks and opportunities of multimodal foundation models in healthcare, with regard to data-efficient generalisation? I am especially interested in what the benefits and risks of the unprecedented level of homogenisation in foundation models in the context of computer vision are. More actionable, whether they can help to reduce the need for expensively labelled data, and if they have the chance to increase trust in models by improving robustness and generalisability.
I am planning to write an integrative thesis with 3 main papers, supplemented through smaller conference papers. Paper I, The fast and slow uptake of computer vision in healthcare: the risks and opportunities of multimodal foundation models, will set the scope for my research. The aim is to understand where the current limitations of supervised learning in medical imaging come from and which of those limitations can be addressed by foundation models and why. Paper II, Data-efficient generalisation with foundation models and its impact on medical imaging, is motivated by the open questions as to which types of distribution shifts foundation models are effective, and how data limitations and specialisations affect the out-of-distribution performance. I will investigate whether foundation models have the chance to significantly change in the near future the AI landscape in the context of healthcare. In an experimental setup, I study the reliability of such models in comparison to supervised state-of-the-art models. Paper III, Foundation models for vision in healthcare: the role of data fusion, will focus on how data fusion can help in improving diagnosis and if foundation models can help to make a significant change in the update of AI in healthcare. It will consist of two parts. First, a review on multimodal foundation models, which sets out to contribute a terminology to classify multimodal foundation models. Then, through a series of carefully designed numerical experiments it will investigate the development needs of current multimodal foundation models and how multimodal applications must be designed which use foundation models.

Julia Christina Englén-Kemmerzehl

Julia Christina Englén-Kemmerzehl

Legal Tech of Migration

Universität Regensburg


The focus of the dissertation is how to create an efficient asylum procedure with support by digital solutions. What is possible to digitize legally? What is already done in the EU member states? What can the EU member states learn from each other? Since the last migration influx 2015/2016, the EU member states are negotiating a new pact for migration and asylum. The Asylum Procedures Directive, one of the directives and regulations within the Common European Asylum System (CEAS), is suggested to become a regulation. The objective is to create harmonized and efficient decision-making as well as solidarity among the EU member states. This means that the requirements concerning efficiency and legal quality will be directly implemented in the EU member states. To be able to shed light on the parts that can be digitized, the dissertation focuses on the EU member states in the Nordics as well as Germany to show what has already been done and how this affects efficiency and remaining alternatively improving the legal quality. A case study has been performed to display how similar judicial decisions are to indicate if these decisions can be automatized. Additionally, a prototype is being made to illustrate how a digital European asylum procedure could look like with inspiration from implemented procedures in some of the EU member states. At last, the aim of the dissertation is to analyze if these digital solutions can be implemented as part of the new pact and if this would change the European asylum procedure and meet the objectives agreed by the EU member states concerning efficient decision-making to create a European Legal Tech of Migration.

Alessandro Parrino

Alessandro Parrino

Die Proliferationsmechanik im digitalen Raum

Universität Regensburg


Bereits im Grundstudium habe ich angefangen exotische Phänomene im Bereich der Extremismus- und Terrorismusforschung zu studieren. Die Piratenpartei erzielte noch signifikante Umfrageergebnisse, ACTA bewegte mehrere tausend Menschen auf die Straße und das Hackerkollektiv Anonymous präsentierte öffentlichkeitswirksam, welchen Einfluss Hackertum und Aktivismus haben. Die Enthüllungen von Edward Snowden, Skandale um Wikileaks und staatlichen Überwachungsmaßnahmen prägten daraufhin meinen Forschungsschwerpunkt. Früh habe ich die Digitalisierung als Fluch und Segen zugleich wahrgenommen. Obwohl die Chancen der vernetzen Welt für Wohlstand und unbegrenzte Kommunikationsmöglichkeiten gesorgt haben, bestand immer die Gefahr einer dystopischen effizienzgetriebenen digitalen Welt. Dabei gehen die Risken und Nebenwirkungen einer digitalen Transformation über klassische Themen wie Datenschutz und Privatsphäre hinaus: Aktuell zeigt uns die Corona Pandemie, wie abhängig wir von dem globalen Kommunikationsnetzwerk geworden sind. Genau diese Abhängigkeit stellt sich als ambivalent heraus. Zum einen können wir Arbeit, Schule und soziale Kontakte weiterhin funktional gestalten, zum anderen ist die freiheitliche Gesellschaft selten so verwundbar gewesen. Unsere Smartphones, Accounts, Computer, Unternehmen und sogar Staaten werden gehackt. Diese Erkenntnis ist nicht neu, aber die letzten Jahre haben ein Trend offenbart: Demokratie und Zivilgesellschaft wurden Opfer eines digitalen Machtrepertoires, welches historisch seines gleichen sucht. Cambridge Analytica, WannaCry, Stuxnet, Wikileaks, Anonymous sind die Symptome von unregulierten, unbegrenzten digitalen Möglichkeiten. Die rasante Ausbreitung der virtuellen Sphäre eröffnet dabei ungeahnte Machtoptionen für starke und schwache Akteure zugleich, da analoge Machtbeschränkungen sich im digitalen Raum als nahezu wirkungslos erweisen. Zusätzlich ist die Nachverfolgung eines sog. Cyber-Vorfalls oder die Überführung von Tätern schwer bis unmöglich. Es sei denn, ein umfassendes Überwachungssystem erfasst und registriert alles und jeden. Entsprechend gilt es diesen Problemkomplex zu untersuchen, welchem mit dem Arbeitstitel: Die Proliferationsmechanik im digitalen Raum Rechnung getragen wird. Im Sinne einer Politikwissenschaftlichen Studie werden die disruptiven Veränderungen klassischer Machtkonstellationen beobachtet und ebenso demokratietheoretisch verhandelt, denn Bürgerrechte und der freiheitlich-demokratische Grundkonsens können durch den Digitalisierungsprozess erschüttert werden. Gesellschaftlich, wirtschaftlich und kulturell bedeutet dies ein notwendiges politisches Umdenken, das sowohl nationale als auch internationale Lösungen erfordert. Hier stellt sich die zentrale Forschungsfrage: Wie kann eine Demokratie auf diese Veränderung verhältnismäßig reagieren ohne ihren Kern, die Freiheit preiszugeben?

Armin Motahar

Armin Motahar

The Impact of Inequality on Economic Growth

Duisburg-Essen Universität


The relationship between income inequality and economic growth has recently emerged once again as a highly debated question in the literature and academic debates. To illustrate, Thomas Piketty’s book “Capital in the Twenty-First Century” that highlights the rising inequality in many advanced economies, reached number one on The New York Times Best Seller list for best-selling hardcover nonfiction and became the greatest sales success ever of academic publisher Harvard University Press. One reason behind this renewed interest in the understanding of the causes and consequences of this inequality is the rising income inequality in most of the developing and developed economies in recent years. In a majority of OECD countries, the income gap between the rich and the poor has increasingly widened over the last three decades. The ratio of earnings of the richest 10% of the population to that of the poorest 10% in the OECD area increased from 7:1 in the 1980s to approximately 10:1 in 2014. As economic growth is the most important goal of economic policy, investigating the effect of economic inequality on economic growth is a crucial issue. Especially, since the neoliberal economics theory suggests that income inequality in the long-run promotes economic growth through the channel of savings and investment, this impact needs to be investigated empirically and overall.
In this thesis, we are going to investigate the impact of inequality on economic growth by benefiting from the latest machine learning techniques. In our project we are about to consider more than 33 inequality indices, including three subgroups of income inequality, wealth inequality and poverty indicators in order to find out which of the inequality measures has a more meaningful relationship with economic growth. Here by benefiting from the latest machine learning techniques such as K-means, first we would cluster countries into groups. This way we have accounted for the heterogeneity of the countries and have clustered them into more homogenous groups, which would result in more precise results. Thereafter again via other Machine Learning methods such as Random Forest and XGBoost we would try to find out for each group of countries which of the above mentioned 33 inequality measures has a higher feature importance, i.e., is more important.

Anique Hadeler

Anique Hadeler

The relationship between family influence, culture and digital transformation: An inquiry into German and Chinese family firms

Universität Leipzig


In meiner Promotion beschäftige ich mich mit der digitalen Transformation in Familienunternehmen. Neue Geschäftsmodelle entwickeln sich in rasantem Tempo und zwingen Familienunternehmen dazu, sich der digitalen Transformation zu stellen, um wettbewerbsfähig zu bleiben. Es gibt jedoch nur wenig Forschung darüber, wie der Einfluss der Familie und der nationalen Kultur konventionelle digitale Transformationsmuster beeinflussen und möglicherweise verändern. Die vorliegende Arbeit soll diese Lücke füllen, indem sie auf qualitative Daten zurückgreift, die aus Interviews mit Vertretern deutscher und chinesischer Familienunternehmen stammen. Unsere vorläufigen Ergebnisse deuten darauf hin, dass sowohl der Einfluss der Familie als auch die nationale Kultur einen signifikanten Einfluss auf die digitale Transformation haben. Der Einfluss der Familie hat eine paradoxe ("Ying und Yang") Wirkung. Er erzeugt zwar Reibung und Unsicherheit, ermöglicht es dem Unternehmen aber auch, angesichts von Unklarheiten ruhig und widerstandsfähig zu bleiben. Der Einfluss der nationalen Kultur wirkt sich unterschwellig darauf aus, wie sich der digitale Transformationsprozess entfaltet.
Mich interessiert dieses Thema, da ich das Zusammenspiel zwischen der wirtschaftlichen Zielen und der Familie sowie die daraus entstehenden Dynamiken unglaublich spannend finde. So geht es bei der digitalen Transformation in Familienunternehmen nicht nur um Entscheidungen aus wirtschaftlicher Sicht, sonder auch familiäre Aspekte wie Werte, Traditionen und Emotionen mit der digitalen Welt in Einklang zu bringen.

Diclehan Karakaya

Diclehan Karakaya

Intrinsic Image Decomposition

Universität Greifswald


I am working in the field of image processing for more than seven years. In particular, I am interested in image restoration and enhancement. Therefore, I chose intrinsic image decomposition as my Ph.D. subject, since intrinsic images are low level features of images that can be used in various restoration and enhancement tasks. In my thesis, alongside creating algorithms to extract different intrinsics, I am also focusing on the shortcomings in intrinsic image decomposition datasets and evaluation strategies.
In order to decompose images into various intrinsics we need access to ground truth information, however the publicly available intrinsic image decomposition benchmarks contain a limited number of intrinsics/images and have other shortcomings. Thereupon, in the beginning of my Ph.D. we created a large-scale image decomposition dataset by using computer graphics in which we provide the ground truth information of five different intrinsics, namely reflectance, shading, depth map, surface normal vectors and light vectors. After creating a comprehensive dataset, I developed two different evaluation methods for intrinsic image decomposition tasks and moved on to the extraction of the intrinsic images.
In intrinsic image decomposition, usually only the reflectance and shading elements are considered, while it is known that extracting a high number of intrinsics from an input image is more beneficial for many applications. Therefore, I am aiming at developing several algorithms to obtain various intrinsics of a scene. Hitherto, I have created an algorithm to extract the surface normal vectors, and in the remainder of my thesis, I will be focusing on the extraction of other intrinsic images.

Diclehan Karakaya

Maximilian Reiter

Numerische Approximation von verallgemeinerten Lösungskonzepten im Bereich der Strömungsmechanik

Technische Universität Berlin


Die Strömungsmechanik beschäftigt sich mit dem physikalischen Verhalten von Fluiden und findet zahlreiche Anwendungen in der Wissenschaft und Industrie. Viele moderne Technologien basieren auf einer hinreichend guten Prognose des mechanischen Verhaltens von Flüssigkeiten. Physikalische Modelle dienen dabei als Instrument der Vorhersage, welche durch am Computer durchgeführte Simulationen abgeleitet wird. Um diese Prognosen erstellen zu können und um Aussagen über deren Zuverlässigkeit treffen zu können, benötigt es mathematische Theorie. Die physikalischen Gesetze lassen sich oft in gekoppelten nichtlinearen mathematischen Gleichungen fassen. Die mathematische Analysis trifft dann Aussagen über Existenz der Lösung und Eigenschaften dieser. Mithilfe der numerischen Analysis lassen sich im Anschluss Aussagen zur Approximierbarkeit des mathematisch formulierten Problems mithilfe von Computersimulationen treffen. Dazu muss im ersten Schritt aber erst einmal definiert werden, was überhaupt mit einer Lösung gemeint ist.
Das allgemeine Ziel eines gelungenen mathematischen Lösungskonzepts für partielle Differentialgleichungen liegt in der Wohlgestelltheit des Problems (nach Hadamard) – das heißt, dass eine Lösung existiert, eindeutig ist und stetig von den Anfangsdaten abhängt. Deshalb ist die sogenannte schwache Lösungstheorie, die den Differenzierungsbegriff verallgemeinert, nach wie vor sehr populär und auch geeignet, um z. B. die Existenz von Lösungen der inkompressiblen Navier-Stokes-Gleichungen zu zeigen. Allerdings konnten Tristan Buckmaster und Vlad Vicol zeigen, dass bereits bei diesen Gleichungen Mehrdeutigkeit in drei Dimensionen vorliegt. Die physikalische Relevanz von schwachen Lösungen bleibt deshalb unklar. Bei komplexeren, physikalisch relevanten Modellen lassen sich häufig sogar gar keine schwachen Lösungen herleiten. Als Konsequenz wurden diverse andere schwächere Lösungskonzepte entwickelt.
Eng verbunden mit der physikalischen Relevanz eines Lösungskonzepts ist die numerische Approximierbarkeit eines solchen. Voraussetzung dafür ist die Existenz geeigneter, stabiler und hinreichend effizienter Algorithmen. Dieselben strukturellen Eigenschaften, die zu den Schwierigkeiten bei der Wahl des Lösungskonzeptes führen, beeinträchtigen auch die numerischen Approximationseigenschaften. Deswegen lassen sich im Bereich der Strömungsmechanik oft verschiedene kontextabhängige Algorithmen mit unterschiedlichen Vor- und Nachteilen finden. In Anbetracht neuer, moderner Lösungskonzepte besteht die Schwierigkeit oft bereits im Design eines ersten praktisch implementierbaren Diskretisierungsschemas.
Als Untersuchungsobjekt und Anwendungsmodell der analytischen und numerischen Methoden interessiere ich mich vor allem für die sogenannten Ericksen-Leslie-Gleichungen, die das Strömungsverhalten von Flüssigkristallen in ihrer nematischen Phase beschreiben.