Logo Logo
Hilfe
Kontakt
Switch language to English
The theory of Boolean counterfactual reasoning
The theory of Boolean counterfactual reasoning
Ursache und Wirkung bilden eine Grundlage dafür, wie Menschen ihre Umwelt wahrnehmen. Wir erklären unsere Umwelt, indem wir Beobachtungen als Wirkung anderer, selbsterklärender Beobachtungen beschreiben. Angenommen, ein Haus brennt nach einem Blitzschlag. In diesem Fall können wir den Blitz als selbsterklärendes Ereignis betrachten, welches das Feuer in dem Haus verursacht. Künstliche Intelligenz hingegen basiert derzeit größtenteils auf dem Konzept der Korrelation. Dies bedeutet, dass sie ausdrücken kann, wie die Beobachtung eines Feuers die Wahrscheinlichkeit für einen Blitzschlag erhöht und umgekehrt. Eine auf Korrelation basierende künstliche Intelligenz kann jedoch den Blitz nicht als Ursache des Feuers erkennen. Während korrelationsbasierte künstliche Intelligenz nur Fragen zur Wahrheit oder Wahrscheinlichkeit von Aussagen beantworten kann, ermöglichen kausale Erklärungen die Beantwortung zweier weiterer Fragetypen: Fragen zu den Folgen externer Interventionen und kontrafaktische Fragen, also Fragen der Form: „Was wäre, wenn...?“. Man kann beispielsweise intervenieren und einen Blitzableiter installieren, um Brände zu verhindern, die durch Blitzschläge verursacht werden. Beobachten wir einen Blitzschlag, der ein Feuer in einem Haus ohne Blitzableiter verursacht, folgt aus dieser kausalen Erklärung, dass kein Feuer ausgebrochen wäre, hätte man einen Blitzableiter installiert. Menschen beschreiben ihre Umwelt nicht nur in Form kausaler Ursache-Wirkungs-Beziehungen. Oft sind wir auch mit unsicherem Wissen oder mit Beziehungen zwischen Individuen konfrontiert. Wenn wir beispielsweise eine Gruppe von Menschen betrachten, können zwei Individuen innerhalb dieser Gruppe Freunde sein, d.h., sie stehen in Beziehung zueinander. Darüber hinaus kann man annehmen, dass Freunde von Rauchern mit erhöhter Wahrscheinlichkeit ebenfalls rauchen. Wir sind uns also unsicher, ob Freunde von Rauchern zwangsläufig selbst rauchen. Schließlich nehmen wir an, dass die Wahrscheinlichkeit, Raucher zu sein, für alle Personen mit derselben Anzahl von rauchenden Freunden übereinstimmt. Die Annahme, dass Individuen mit denselben Eigenschaften sich gleich verhalten, kann Berechnungen vereinfachen oder den Raum möglicher Beschreibungen eines Datensatzes verkleinern. Das Feld der statistischen relationalen künstlichen Intelligenz kombiniert die prädikatenlogische Repräsentation von Beziehungen innerhalb eines Bereichs mit der Repräsentation von Unsicherheit durch Wahrscheinlichkeiten. Hierbei dient Prädikatenlogik als Sprache, um die Austauschbarkeit von Individuen in einem Modell oder Datensatz auszudrücken. Dieser Ansatz führte unter anderem zu Markov-Logik-Netzwerken und probabilistischer Logikprogrammierung. Diese Monographie beginnt mit einem Überblick über die zuvor genannten Formalismen und führt in Pearls Kausalitätstheorie ein. Statt jeden Formalismus einzeln um kausales Schließen zu erweitern, betrachtet diese Arbeit einen axiomatischen Ansatz. Sie erweitert Bochmans Theorie der kausalen Logik zu einer Axiomatisierung des deterministischen kausalen Schließens im Boolschen Fall. Diese Axiomatisierung führt dann zur abduktiven Logikprogrammierung als Sprache für kausales Wissen. Anschließend werden abduktive Logikprogramme mit Markov-Logik-Netzwerken zu gewichteten abduktiven Logikprogrammen kombiniert. Auf diese Weise erhält man einen allgemeinen Formalismus für kausales Schließen mit unsicherem Wissen. Die Arbeit spezifiziert die kausalen Fragentypen, d.h. Fragen zu den Folgen externer Interventionen und kontrafaktische Fragen, im Kontext der gewichteten abduktiven Logikprogrammierung. Durch Einbettung verschiedener Formalismen aus dem Feld der statistisch relationalen künstlichen Intelligenz wird das gegebene kausale Schließen übertragen und konsistentes kausales Schließen über verschiedene Formalismen hinweg garantiert. Weiter wird kontrafaktisches Schließen in azyklischen ProbLog-Programmen untersucht. Ein Resultat gibt Regularitätsbedingungen, unter denen azyklische ProbLog-Programme aus ihrer kontrafaktischen Ausgabe rekonstruiert werden können. ProbLog scheint daher als Sprache für kontrafaktisches Schließen besonders geeignet zu sein. Die Lerntheorie von ProbLog-Programmen basiert jedoch auf statistischen Tests, die keine Informationen über den der Daten zugrunde liegenden kausalen Mechanismus liefern. Somit ist es unzulässig, die resultierenden Programme für kontrafaktisches Schließen zu verwenden. Im letzten Teil wird ein Fragment beschrieben, in welchem sich ProbLog-Programme aus ihrer Verteilung rekonstruieren lassen. Weiter wird argumentiert, dass dieses Fragment einen Ansatz liefert, um ProbLog-Programme für kontrafaktisches Schließen aus Daten zu lernen., Human reasoning is heavily based on distinguishing causes from their effects. We typically understand our environment by explaining observations, i.e., effects, with the help of self-evident a priori knowledge, i.e., causes. Assume, for instance, that a lightning strike hits a house and the house burns down. In this case, we consider the lightning as self-evident, a priori knowledge, which explains the fire in the house. This leads us to the judgment: "The lightning caused the fire in the house''. Unfortunately, nowadays artificial intelligence is mostly built on the concept of correlation. In our example, this means we can express that observing a fire increases the probability of a lightning strike hitting our house, and vice versa. However, a correlation-based artificial intelligence cannot recognize the lightning as the fire's cause. While correlation-based artificial intelligence only supports queries about the truth or probabilities of statements, causal explanations allow two additional query types: queries for the effects of external interventions and counterfactual queries, i.e., queries of the form: "What if...?''. In our scenario, we can, for instance, intervene and install a conductor to prevent fires being caused, i.e. explained by lightning strikes. Furthermore, if we observe a lightning strike hitting our house followed by a fire breaking out, we may conclude from a causal explanation that the fire would not have occurred had we installed a lightning rod beforehand. Humans reason not only on causes, but also on uncertainties, represented by probabilities, and on relations between components or individuals of a given domain formalized in logic, preferably first-order logic. When, for example, given a group of people, two individuals within this group may be friends, i.e., they share a relationship. Moreover, one may assume that friends of smokers are more likely to be themselves smokers, meaning that we are uncertain about the implication whether friends of smokers necessarily smoke. Finally, we may assume that all individuals with the same number of smoking friends are equally likely to smoke themselves. The assumption that individuals with the same properties behave in the same way may speed up calculations or shrink the space of possible descriptions for a dataset. The field of statistical relational artificial intelligence combines first-order logic reasoning on relations in a domain and probabilistic reasoning on uncertainty, whereby first-order logic serves as a language for expressing the interchangeability of individuals in a probabilistic model or dataset. Among other things, this approach has so far resulted in Markov logic networks and probabilistic logic programs. The work reported in this monograph first provides a brief overview of the aforementioned formalisms and introduces Pearl's causal reasoning. Instead of continuously expanding every distinct formalism with causal reasoning, the thesis proposes an axiomatic approach to Boolean causal reasoning under uncertainty. Initially, we extend Bochman's logical theory of causality to obtain a complete axiomatization of deterministic Boolean causal reasoning, leading to abductive logic programming. We then generalize abductive logic programming to the framework of Markov logic networks, which employs a maximum entropy approach extending first-order logic to handle uncertainty. In this way, we obtain weighted abductive logic programming as a general framework tailored to Boolean causal reasoning under uncertainty. We specify the causal query types, i.e., queries for the effects of external interventions and counterfactual queries, within the context of weighted abductive logic programming. By embedding a formalism into our framework and subsequently transferring the causal reasoning there, we derive causal reasoning in widespread formalisms of statistical relational artificial intelligence. In particular, our approach guarantees consistent causal reasoning across these frameworks. Next, we focus on counterfactual reasoning in acyclic ProbLog programs, where the proposed approach is implemented in Kiesel's WhatIf solver. We show that sufficiently well-behaved ProbLog programs can be reconstructed from their counterfactual output. Hence, ProbLog is a particularly suitable framework to address counterfactual reasoning. However, learning ProbLog programs from data is usually based on statistical tests, lacking information about the underlying causal mechanism. This makes it infeasible to use the resulting programs for counterfactual reasoning. To address this issue in the last part, we propose a fragment of ProbLog that allows reconstructing a program from its induced distribution, finally enabling us to learn programs supporting counterfactual queries.
Statistical Relational Artificial Intelligence, Neuro Symbolic Artificial Intelligence, Causality, Counterfactual Reasoning
Rückschloß, Kilian
2024
Englisch
Universitätsbibliothek der Ludwig-Maximilians-Universität München
Rückschloß, Kilian (2024): The theory of Boolean counterfactual reasoning. Dissertation, LMU München: Fakultät für Mathematik, Informatik und Statistik
[thumbnail of Rueckschloss_Kilian.pdf]
Vorschau
PDF
Rueckschloss_Kilian.pdf

982kB

Abstract

Ursache und Wirkung bilden eine Grundlage dafür, wie Menschen ihre Umwelt wahrnehmen. Wir erklären unsere Umwelt, indem wir Beobachtungen als Wirkung anderer, selbsterklärender Beobachtungen beschreiben. Angenommen, ein Haus brennt nach einem Blitzschlag. In diesem Fall können wir den Blitz als selbsterklärendes Ereignis betrachten, welches das Feuer in dem Haus verursacht. Künstliche Intelligenz hingegen basiert derzeit größtenteils auf dem Konzept der Korrelation. Dies bedeutet, dass sie ausdrücken kann, wie die Beobachtung eines Feuers die Wahrscheinlichkeit für einen Blitzschlag erhöht und umgekehrt. Eine auf Korrelation basierende künstliche Intelligenz kann jedoch den Blitz nicht als Ursache des Feuers erkennen. Während korrelationsbasierte künstliche Intelligenz nur Fragen zur Wahrheit oder Wahrscheinlichkeit von Aussagen beantworten kann, ermöglichen kausale Erklärungen die Beantwortung zweier weiterer Fragetypen: Fragen zu den Folgen externer Interventionen und kontrafaktische Fragen, also Fragen der Form: „Was wäre, wenn...?“. Man kann beispielsweise intervenieren und einen Blitzableiter installieren, um Brände zu verhindern, die durch Blitzschläge verursacht werden. Beobachten wir einen Blitzschlag, der ein Feuer in einem Haus ohne Blitzableiter verursacht, folgt aus dieser kausalen Erklärung, dass kein Feuer ausgebrochen wäre, hätte man einen Blitzableiter installiert. Menschen beschreiben ihre Umwelt nicht nur in Form kausaler Ursache-Wirkungs-Beziehungen. Oft sind wir auch mit unsicherem Wissen oder mit Beziehungen zwischen Individuen konfrontiert. Wenn wir beispielsweise eine Gruppe von Menschen betrachten, können zwei Individuen innerhalb dieser Gruppe Freunde sein, d.h., sie stehen in Beziehung zueinander. Darüber hinaus kann man annehmen, dass Freunde von Rauchern mit erhöhter Wahrscheinlichkeit ebenfalls rauchen. Wir sind uns also unsicher, ob Freunde von Rauchern zwangsläufig selbst rauchen. Schließlich nehmen wir an, dass die Wahrscheinlichkeit, Raucher zu sein, für alle Personen mit derselben Anzahl von rauchenden Freunden übereinstimmt. Die Annahme, dass Individuen mit denselben Eigenschaften sich gleich verhalten, kann Berechnungen vereinfachen oder den Raum möglicher Beschreibungen eines Datensatzes verkleinern. Das Feld der statistischen relationalen künstlichen Intelligenz kombiniert die prädikatenlogische Repräsentation von Beziehungen innerhalb eines Bereichs mit der Repräsentation von Unsicherheit durch Wahrscheinlichkeiten. Hierbei dient Prädikatenlogik als Sprache, um die Austauschbarkeit von Individuen in einem Modell oder Datensatz auszudrücken. Dieser Ansatz führte unter anderem zu Markov-Logik-Netzwerken und probabilistischer Logikprogrammierung. Diese Monographie beginnt mit einem Überblick über die zuvor genannten Formalismen und führt in Pearls Kausalitätstheorie ein. Statt jeden Formalismus einzeln um kausales Schließen zu erweitern, betrachtet diese Arbeit einen axiomatischen Ansatz. Sie erweitert Bochmans Theorie der kausalen Logik zu einer Axiomatisierung des deterministischen kausalen Schließens im Boolschen Fall. Diese Axiomatisierung führt dann zur abduktiven Logikprogrammierung als Sprache für kausales Wissen. Anschließend werden abduktive Logikprogramme mit Markov-Logik-Netzwerken zu gewichteten abduktiven Logikprogrammen kombiniert. Auf diese Weise erhält man einen allgemeinen Formalismus für kausales Schließen mit unsicherem Wissen. Die Arbeit spezifiziert die kausalen Fragentypen, d.h. Fragen zu den Folgen externer Interventionen und kontrafaktische Fragen, im Kontext der gewichteten abduktiven Logikprogrammierung. Durch Einbettung verschiedener Formalismen aus dem Feld der statistisch relationalen künstlichen Intelligenz wird das gegebene kausale Schließen übertragen und konsistentes kausales Schließen über verschiedene Formalismen hinweg garantiert. Weiter wird kontrafaktisches Schließen in azyklischen ProbLog-Programmen untersucht. Ein Resultat gibt Regularitätsbedingungen, unter denen azyklische ProbLog-Programme aus ihrer kontrafaktischen Ausgabe rekonstruiert werden können. ProbLog scheint daher als Sprache für kontrafaktisches Schließen besonders geeignet zu sein. Die Lerntheorie von ProbLog-Programmen basiert jedoch auf statistischen Tests, die keine Informationen über den der Daten zugrunde liegenden kausalen Mechanismus liefern. Somit ist es unzulässig, die resultierenden Programme für kontrafaktisches Schließen zu verwenden. Im letzten Teil wird ein Fragment beschrieben, in welchem sich ProbLog-Programme aus ihrer Verteilung rekonstruieren lassen. Weiter wird argumentiert, dass dieses Fragment einen Ansatz liefert, um ProbLog-Programme für kontrafaktisches Schließen aus Daten zu lernen.

Abstract

Human reasoning is heavily based on distinguishing causes from their effects. We typically understand our environment by explaining observations, i.e., effects, with the help of self-evident a priori knowledge, i.e., causes. Assume, for instance, that a lightning strike hits a house and the house burns down. In this case, we consider the lightning as self-evident, a priori knowledge, which explains the fire in the house. This leads us to the judgment: "The lightning caused the fire in the house''. Unfortunately, nowadays artificial intelligence is mostly built on the concept of correlation. In our example, this means we can express that observing a fire increases the probability of a lightning strike hitting our house, and vice versa. However, a correlation-based artificial intelligence cannot recognize the lightning as the fire's cause. While correlation-based artificial intelligence only supports queries about the truth or probabilities of statements, causal explanations allow two additional query types: queries for the effects of external interventions and counterfactual queries, i.e., queries of the form: "What if...?''. In our scenario, we can, for instance, intervene and install a conductor to prevent fires being caused, i.e. explained by lightning strikes. Furthermore, if we observe a lightning strike hitting our house followed by a fire breaking out, we may conclude from a causal explanation that the fire would not have occurred had we installed a lightning rod beforehand. Humans reason not only on causes, but also on uncertainties, represented by probabilities, and on relations between components or individuals of a given domain formalized in logic, preferably first-order logic. When, for example, given a group of people, two individuals within this group may be friends, i.e., they share a relationship. Moreover, one may assume that friends of smokers are more likely to be themselves smokers, meaning that we are uncertain about the implication whether friends of smokers necessarily smoke. Finally, we may assume that all individuals with the same number of smoking friends are equally likely to smoke themselves. The assumption that individuals with the same properties behave in the same way may speed up calculations or shrink the space of possible descriptions for a dataset. The field of statistical relational artificial intelligence combines first-order logic reasoning on relations in a domain and probabilistic reasoning on uncertainty, whereby first-order logic serves as a language for expressing the interchangeability of individuals in a probabilistic model or dataset. Among other things, this approach has so far resulted in Markov logic networks and probabilistic logic programs. The work reported in this monograph first provides a brief overview of the aforementioned formalisms and introduces Pearl's causal reasoning. Instead of continuously expanding every distinct formalism with causal reasoning, the thesis proposes an axiomatic approach to Boolean causal reasoning under uncertainty. Initially, we extend Bochman's logical theory of causality to obtain a complete axiomatization of deterministic Boolean causal reasoning, leading to abductive logic programming. We then generalize abductive logic programming to the framework of Markov logic networks, which employs a maximum entropy approach extending first-order logic to handle uncertainty. In this way, we obtain weighted abductive logic programming as a general framework tailored to Boolean causal reasoning under uncertainty. We specify the causal query types, i.e., queries for the effects of external interventions and counterfactual queries, within the context of weighted abductive logic programming. By embedding a formalism into our framework and subsequently transferring the causal reasoning there, we derive causal reasoning in widespread formalisms of statistical relational artificial intelligence. In particular, our approach guarantees consistent causal reasoning across these frameworks. Next, we focus on counterfactual reasoning in acyclic ProbLog programs, where the proposed approach is implemented in Kiesel's WhatIf solver. We show that sufficiently well-behaved ProbLog programs can be reconstructed from their counterfactual output. Hence, ProbLog is a particularly suitable framework to address counterfactual reasoning. However, learning ProbLog programs from data is usually based on statistical tests, lacking information about the underlying causal mechanism. This makes it infeasible to use the resulting programs for counterfactual reasoning. To address this issue in the last part, we propose a fragment of ProbLog that allows reconstructing a program from its induced distribution, finally enabling us to learn programs supporting counterfactual queries.