Loading AI tools
Aus Wikipedia, der freien Enzyklopädie
Fictitious Play (engl., wörtlich: fiktives Spiel, sinngemäß: Spielzüge im Geiste), auch Brown-Robinson learning process genannt, ist eine Analyse aus der Spieltheorie. Genauer gesagt ist Fictitious Play ein konvergentes Verfahren zur Bestimmung von Wert und optimaler Strategie.[1] Dieses Verfahren wurde 1951 von G.W. Brown (1951) als ein Algorithmus eingeführt, der den optimalen Wert in Nullsummenspielen finden soll.
Fictitious Play gehört zum Teilbereich der evolutionären Spieltheorie. Die Grundidee dieser Theorien basieren auf der Annahme, dass die Spieler auf der Suche nach optimierenden Lösungen nicht (voll) rational handeln.
Brown bezeichnete 1951 in seinem Review, Fictitious Play als eine Strategie, bei der die Spieler den fiktiven Spielablauf in ihrem Kopf durchgehen, diesen in jeder Runde aktualisieren und an die Strategie anpassen, welche von ihren Gegenspielern bereits im Vorfeld gewählt wurde.[2] Daher kommt auch die Namensgebung dieser Strategie, wobei die Strategien nicht ausschließlich im Kopf stattfinden, sondern alle gespielt werden können.
In der modernen Spieltheorie wird den Ideen Browns nicht mehr der Stellenwert entgegengebracht, den diese Theorie früher innehatte. Die neuen Darstellungen unterscheiden sich gegenüber der ursprünglichen Veröffentlichung, im Ablauf der Aktualisierung der neuen Beliefs vor jeder Spielrunde. Brown geht davon aus, dass die Beliefs der einzelnen Spieler abwechselnd, in Bezug auf die empirischen Verteilungsfunktion des Gegners, angepasst und aktualisiert werden. Im Gegensatz dazu sind moderne Spieltheoretiker der Auffassung, dass die Beliefs gleichzeitig von den Spielern aktualisiert werden.
Nach 1951 wurden Beliefs ausschließlich simultan aktualisiert, was u. a. auf die symmetrische Behandlung von Entscheidungen zurückzuführen ist.[3]
Des Weiteren wurde Fictitious Play damals zur Approximation genutzt um die optimale Strategie zu errechnen. Dies ist ebenfalls sehr veraltet und in der heutigen Zeit findet nur noch der Algorithmus des Nash-Gleichgewicht praktische Anwendung. Somit werden die optimalen Strategien nicht mehr approximiert, sondern durch den folgenden Algorithmus ermittelt:
Heute wird Fictitious Play wegen der enormen Komplexität, fast ausschließlich nur noch in der Informatik angewendet. Dort werden sehr komplexe, spieltheoretische Probleme mit zwei Personen, wie z. B. Schach oder Backgammon, mit Fictitious Play analysiert.
Fictitious Play stützt die Annahmen der evolutorischen, auch evolutionäre Spieltheorie genannt. Ihr Ansatz unterscheidet sich von der „herkömmlichen“ Spieltheorie darin, dass sie sich von den Rationalitätsargumenten der Spieler abwendet. Stattdessen wird angenommen, dass jedem Spieler genau eine mögliche Strategie zugeordnet ist, die auf Grund einer irrationalen Annahme die Auszahlung der Spieler nicht optimiert. Außerdem ist sich der Spieler in solchen Spielen nicht bewusst, dass er sich in einem Spiel befindet. Diese Strategie ist nicht auf die klaren Regeln eines Spiels beschränkt, sondern stellt eine evolutionsbiologische Entwicklung dar, in der die Spieler eine „Spezies“ symbolisieren.
Im Modell der evolutorischen Spieltheorie treffen die Spieler immer paarweise aufeinander. Die Wahrscheinlichkeit auf einen speziellen Strategietypen zu stoßen, hängt dabei vom Anteil dieser Strategie an der Gesamtheit aller möglichen Strategien ab. In diesem Modell spricht man nicht mehr von einer Gesamtheit an Strategien, sondern von einer „Population“.
Praktische Anwendung in der Ökonomik finden die Theorien der evolutorischen Spieltheorie vor allem in Feldern von Steuer- und Wahlsystemen, Verhaltensstandards und Eigentumsstrukturen.
Fictitious Play wird diesem Teilbereich der Spieltheorie zugeordnet. Diese Strategien werden nur auf sich wiederholende Spiele angewendet, da ihre besten Antworten auf Entscheidungen beruhen, die in der Vergangenheit getroffen wurden. An diese Entscheidungen in der Vergangenheit werden die Beliefs angepasst, was auch als Belief Learning bezeichnet wird.
Reinforcement Learning ist eine Verstärkung der Learning Strategies, da hierbei davon ausgegangen wird, dass Spieler Strategien häufiger spielen, die ihnen in der Vergangenheit Gewinne eingebracht haben.
Fictitious Play wurde entwickelt, um Agenten in die Lage zu versetzen, innerhalb kürzester Zeit optimale Lösungen zu approximieren. In jeder Runde spielt jeder Spieler die beste Antwort, die sich an den vergangenen, gegnerischen Spielzügen orientiert und die höchste Gewinnwahrscheinlichkeit generiert. Bei Fictitious Play nimmt jeder Spieler an, dass die anderen Spieler eine stationäre Strategie verfolgen. Eine stationäre Strategie ist durch Einzelentscheidungen, die unabhängig vom Entscheidungszeitpunkt getroffen werden, charakterisiert.[5]
In der ersten Runde bei Fictitious Play sollte eine beliebige Strategie gewählt werden, da man auf keine historischen Strategien der anderen Spieler zurückgreifen kann.
Ab der zweiten Runde nehmen die Spieler den Durchschnitt der historischen Strategien des Kontrahenten als Grundlage für dessen Handlungsprognose im nächsten Spiel. Dies geschieht aufgrund der Annahme, dass die Kontrahenten nach ihrer historischen Strategie-Frequenz auch im kommenden Spiel spielen werden. Mithilfe dieser Analyse der vergangenen Strategien spielt der Spieler die beste Strategie gegen diese.
Fictitious Play ist lediglich dann erfolgreich, wenn die Gegner tatsächlich eine stationäre Strategie verfolgen. Verfolgen die Gegner hingegen eine Strategie, die auf einer anderen Grundlage beruht (beispielsweise wenn sich der Gegenspieler jeweils nur an der zuletzt gespielten Strategie orientiert), ist Fictious Play keine erfolgreiche Strategie.
Es wird von einem sich wiederholenden Spiel mit zwei fixen Personen ausgegangen, wobei diese ihre Entscheidungen simultan treffen. Die Beliefs der Spieler werden auf Grund der in der Vergangenheit gespielten Strategien des Gegners gebildet. Beide Spieler spielen stationäre Strategien.
Es wird im Folgenden die symmetrische Bildung der Beliefs eines Spiels mit zwei Spielern betrachtet.
ist der reine Strategieraum der beiden Spieler mit
, sei ein historischer Spielverlauf.
sei die Anzahl mit der in auftritt. Also ist und
Nun werden die Startbedingungen für ermittelt. Für sei
Mit diesen Bedingungen werden nun die Durchschnitte berechnet als
Da wiederum , entspricht dies
Eine beste Antwort eines Spielers auf die Strategie des Gegenspielers mit .
Gegeben ist und , heißt ein Paar von Funktionen
, Fictitious Play, wenn in jeder Periode gilt,
dass und und rekursiv von und bestimmt sind.
Das bedeutet, dass sich ein Spieler nur dann optimal verhält, wenn sein Gegner tatsächlich oder spielt – sonst nicht!
Langfristig führt Fictitious Play nur unter speziellen Annahmen zu einem Nash-Gleichgewicht. Im Fictitious Play sind Nash-Gleichgewichte absorbierend, was bedeutet falls in einer beliebigen Runde des Spiels von allen Spielern ein Nash-Gleichgewicht gespielt wird, folgt daraus, dass für jedes nachfolgende Spiel ebenfalls das Nash-Gleichgewicht gespielt wird. Des Weiteren kann gezeigt werden, dass sich eine Korrelation zwischen Nash-Gleichgewicht und den Wahrscheinlichkeiten bildet, wenn Fictitious Play zu einer Verteilung konvergiert.
Da Fictitious Play nicht immer zu Verteilungen konvergiert, werden andere Aktualisierungs-Dynamiken angewandt um Beliefs für die kommende Runde zu bilden wie z. B. Replicator Dynamics. Diese Methode ist komplizierter als Fictitious Play, dafür kann mit Sicherheit davon ausgegangen werden, dass die Ergebnisse konvergieren.
Fictitious Play konvergiert mit Sicherheit in den folgenden Fällen:
Fictitious Play gilt zwar weiterhin nicht als allgemeines Lösungskonzept (Shapley 1964), allerdings konvergiert es prinzipiell gegen die Hälfte von approximierten Gleichgewichten (Conitzer 2009; Goldberg, Savani, Sorensen, Ventre 2011).
Wenn alle Spieler ihre Strategien nach Fictitious Play wählen, wird die Strategie durch die entstehenden Nash-Gleichgewichte abgeschwächt. Ein typisches Ergebnis dafür ist das limit-cycle Verhalten, welches mit steigender Anzahl der Spiele steigt. In manchen bestimmten Fällen konvergiert das Produkt der empirischen Verteilung gegen das Nash-Gleichgewicht, obwohl in Zyklen gespielt wird, wie bei Matching Pennies.
Den größten Zuspruch findet Fictitious Play heutzutage nur noch im Poker. Vorreiter in der Anwendung von Fictitious Play bei Poker (hierbei sprechen wir nur über die Pokervariante Texas Hold’em) war Duziak 2006. Durch Fictitious Play wird die Komplexität der Spielzustände stark vereinfacht.
Es gibt bei Poker 10^18 mögliche Spielzustände, welche mit Fictitious Play auf 10^7 reduziert werden. Diese Abstraktion kann verschiedene Algorithmen zu Grunde haben. Bei Poker wird hierbei hauptsächlich auf das sogenannte „Bucketing“ (engl., Eimer) zurückgegriffen, da hierbei die Größe des Algorithmus reduziert wird, ohne die zugrundeliegende Ursache zu abstrahieren. Dies geschieht dadurch, dass Hände (Poker) mit ähnlichem Wert in verschiedene „Buckets“ gruppiert werden. Wenn man nun das Spiel abstrahiert hat, ist es nun essentiell, wenn man Fictitious Play seine Strategie optimieren will, einen gut definierten Spielbaum zu entwickeln. Dieser Baum nimmt schnell gigantische Maße an, sodass man geringere Gewinnwahrscheinlichkeiten aussortiert und diese Pfade des Baumes abschneidet. So wird der Spielbaum immer kleiner und die pseudo-optimale Strategie lässt sich während des Spiels errechnen. Die Pseudooptimalität kommt deswegen zustande, da die Spielzustände stark vereinfacht werden und dadurch die Gewinnchancen sinken.[6][7]
In der Praxis ist Fictious Play, außer im Poker, nur kaum anzutreffen, da es für Spiele mit mehreren Personen nicht geeignet ist und keine optimalen Strategien spielt. Schon simple Spiele mit mehr als zwei Personen können auf Grund der zu hohen Anzahl an Termen nicht mehr errechnet werden, sodass dies lediglich für Computer in absehbarer Zeit möglich ist.
Für komplexere Spiele gibt es eine effizienteren Algorithmus namens Joint Strategy Fictitious Play. Dieser vereinfacht die Komplexität von Fictitious Play, da er die historischen Entscheidungen betrachtet und somit die kommenden Strategien der Kontrahenten approximiert wird. Die Vereinfachung liegt darin, dass die eigene Strategie zufällig gewählt wird und nicht an alle Spieler angepasst wird. Somit ist der Rechenaufwand wesentlich geringer, zur Lasten der Optimalität. Im Fall des 2-Personen-Spiels entspricht die Strategie von Joint Strategy Fictitious Play dem ursprünglichen Fictitious Play. Joint Strategy Fictitious Play ist jedoch im Gegensatz zu Fictitious Play bei Spielen mit einer Personenanzahl > 2 praktikabel.[8] Neben dem hohen Rechenaufwand von Fictitious Play, ist der Beobachtungsaufwand der vorherigen Strategien ein weiterer Aspekt, der diese Strategie in der Praxis kaum möglich macht.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.