Logo Logo
Hilfe
Kontakt
Switch language to English
Dezentrale Marktmechanismen zur Förderung kooperativen Verhaltens in selbstinteressierten Multiagentensystemen
Dezentrale Marktmechanismen zur Förderung kooperativen Verhaltens in selbstinteressierten Multiagentensystemen
Der Forschungszweig kooperative künstliche Intelligenz hat in den letzten Jahren zunehmend Aufmerksamkeit erfahren. Das liegt nicht zuletzt daran, dass KI-basierte Systeme mehr und mehr Einzug in unseren Alltag nehmen und sich somit die Frage stellt, wie sich nicht nur intelligente Verhaltensweisen erzeugen lassen, sondern auch sozialverträgliche Systeme entwickeln lassen. Die Fähigkeit zu kooperativem Handeln ist dabei von zentraler Bedeutung, da fehlende Kooperationsbereitschaft dramatische Auswirkungen haben kann. Dies gilt insbesondere für Anwendungsfälle in denen gemeinsame Ressourcen genutzt werden, wobei fehlendes kooperatives Verhalten zu ineffizienter Ressourcennutzung oder gar zur Übernutzung von Ressourcen führen kann, so dass eine nachhaltige Nutzung nicht gewährleistet ist. Eine Möglichkeit selbstlernende KI-Einheiten zu kooperativem Handeln zu incentivieren, liegt in dem Einsatz von Marktmechanismen. Dabei wird die Eigennützigkeit der Agenten genutzt, um basierend auf bilateralem Austausch Pareto-Verbesserungen zwischen den Agenten zu realisieren. Da jeder Akteur freiwilliger Teilnehmer eines Marktes sein kann, ist jeder Handel eine Verbesserung, von der mindestens zwei Seiten profitieren. Die realisierten Transaktionen zwischen den Agenten sorgen dafür, dass die geteilten Ressourcen effizienter allokiert, d.h. der Menge der Agenten zugewiesen werden. In dieser Arbeit werden unterschiedliche Marktmechanismen betrachtet, die sich in der Art und Weise unterscheiden, unter welchen Bedingungen Transaktionen abgeschlossen werden können. Zur Modellierung eines lernenden Systems werden Methoden des Reinforcement Learning eingesetzt, wobei jeder Agent als eigenständige Instanz eines Lernalgorithmus repräsentiert wird. Die Evaluationen erfolgen in unterschiedlichen Zwei- und Mehrspieler-Umgebungen, die sich auch in dem potentiellen Konfliktpotential zwischen den Agenten unterscheiden.
Reinforcement Learning, Machine Learning, Multiagentensyteme
Schmid, Kyrill
2023
Deutsch
Universitätsbibliothek der Ludwig-Maximilians-Universität München
Schmid, Kyrill (2023): Dezentrale Marktmechanismen zur Förderung kooperativen Verhaltens in selbstinteressierten Multiagentensystemen. Dissertation, LMU München: Fakultät für Mathematik, Informatik und Statistik
[thumbnail of Schmid_Kyrill.pdf]
Vorschau
PDF
Schmid_Kyrill.pdf

3MB

Abstract

Der Forschungszweig kooperative künstliche Intelligenz hat in den letzten Jahren zunehmend Aufmerksamkeit erfahren. Das liegt nicht zuletzt daran, dass KI-basierte Systeme mehr und mehr Einzug in unseren Alltag nehmen und sich somit die Frage stellt, wie sich nicht nur intelligente Verhaltensweisen erzeugen lassen, sondern auch sozialverträgliche Systeme entwickeln lassen. Die Fähigkeit zu kooperativem Handeln ist dabei von zentraler Bedeutung, da fehlende Kooperationsbereitschaft dramatische Auswirkungen haben kann. Dies gilt insbesondere für Anwendungsfälle in denen gemeinsame Ressourcen genutzt werden, wobei fehlendes kooperatives Verhalten zu ineffizienter Ressourcennutzung oder gar zur Übernutzung von Ressourcen führen kann, so dass eine nachhaltige Nutzung nicht gewährleistet ist. Eine Möglichkeit selbstlernende KI-Einheiten zu kooperativem Handeln zu incentivieren, liegt in dem Einsatz von Marktmechanismen. Dabei wird die Eigennützigkeit der Agenten genutzt, um basierend auf bilateralem Austausch Pareto-Verbesserungen zwischen den Agenten zu realisieren. Da jeder Akteur freiwilliger Teilnehmer eines Marktes sein kann, ist jeder Handel eine Verbesserung, von der mindestens zwei Seiten profitieren. Die realisierten Transaktionen zwischen den Agenten sorgen dafür, dass die geteilten Ressourcen effizienter allokiert, d.h. der Menge der Agenten zugewiesen werden. In dieser Arbeit werden unterschiedliche Marktmechanismen betrachtet, die sich in der Art und Weise unterscheiden, unter welchen Bedingungen Transaktionen abgeschlossen werden können. Zur Modellierung eines lernenden Systems werden Methoden des Reinforcement Learning eingesetzt, wobei jeder Agent als eigenständige Instanz eines Lernalgorithmus repräsentiert wird. Die Evaluationen erfolgen in unterschiedlichen Zwei- und Mehrspieler-Umgebungen, die sich auch in dem potentiellen Konfliktpotential zwischen den Agenten unterscheiden.