Loading AI tools
heuristische Suchmethode Aus Wikipedia, der freien Enzyklopädie
Memetische Algorithmen (MA) sind eine Erweiterung von global suchenden populationsbasierten Metaheuristiken um Verfahren zur lokalen Suche, des maschinellen Lernens oder anderer Verbesserungs- oder Optimierungsverfahren.[1] Typische Vertreter erweitern einen Evolutionären Algorithmus (EA) als global suchendes Verfahren um ein oder mehrere lokale Suchverfahren oder Heuristiken, die als Mem bezeichnet werden. Sie können problemspezifisch sein, müssen es aber nicht.[2] Werden hingegen andere global suchende Metaheuristiken zu Grunde gelegt, spricht man häufig auch von Memetic Computing oder Memetic Computation. MAs sind also ein Teilgebiet des Memetic Computing.[3][4]
Häufig werden die Meme bei der Nachkommenerzeugung eines EA eingesetzt, etwa indem sie auf alle oder einen Teil der Nachkommen einer Generation mit dem Ziel einer Qualitätsverbesserung angewandt werden. Eine weitere Möglichkeit besteht darin, sie zur Erzeugung von Nachkommen ausgehend von einem Elternteil einzusetzen.
Die Grundidee der memetischen Algorithmen besteht darin, global- und lokalsuchende Verfahren vorteilhaft miteinander zu kombinieren. Von Metaheuristiken wie den EA ist bekannt, dass sie gut im Auffinden vielversprechender Regionen im Suchraum sind, aber schlecht bei der Konvergenz zu einem Optimum und sei es auch nur ein lokales. Bei lokalen Verfahren ist es genau umgekehrt: Sie bleiben auf eine Umgebung ihres Startpunktes beschränkt, finden aber vergleichsweise schnell ein sich darin befindendes (Sub)Optimum. Das Ziel der Kombination beider Verfahrensklassen ist eine Reduktion des meist in Fitnessberechnungen gemessenen Aufwands und eine Erhöhung der Zuverlässigkeit, das Optimum zu finden. Darüber hinaus wurde auch beobachtet, dass der Bereich geeigneter und für einen Erfolg erforderlicher Populationsgrößen bei der Erweiterung eines EAs zum MA deutlich sinkt.[5]
Der Anwendungsbereich memetischer Algorithmen entspricht zunächst dem Anwendungsfeld des zu Grunde liegenden global suchenden Verfahrens, kann aber durch die Wahl anwendungsspezifischer Meme eingeschränkt werden. Als Beispiel mögen die häufig zur globalen Suche verwendeten EAs dienen, die unter anderem sowohl für kombinatorische Probleme als auch für Optimierungen in kontinuierlichen oder gemischt-ganzzahligen Parameterräumen geeignet sind. Wenn ein solcher EA zum Beispiel um ein Mem zur Verbesserung von Permutationen ergänzt wird, erfolgt implizit eine Spezialisierung auf kombinatorische Aufgabenstellungen und damit eine Einschränkung des sinnvollen Einsatzfeldes.
MAs wurden unter anderem zur Bearbeitung vieler klassischer NP-Probleme eingesetzt, darunter Scheduling,[6] Graphpartitionierung,[7] minimale Graphenfärbung,[8] Travelling-Salesman-Problem,[9] mehrdimensionaler Knapsack,[10][11] quadratisches Zuordnungsproblem[12] und Bin Packing.[13]
Die Memetik ist eine Forschungsrichtung, in der evolutionäre Prozesse untersucht werden, die bei der Verbreitung und Veränderung von Ideen und anderen kulturellen Konzepten auftreten. Diese Prozesse können als natürliches Vorbild für die beschriebenen Algorithmen aufgefasst werden, daher die Bezeichnung memetisch.
MAs werden in der Literatur auch häufig als Baldwinian EAs, Lamarckian EAs, cultural algorithms oder genetic local search bezeichnet.
Da viele MA-Implementierungen auf EAs beruhen, wird nachfolgend in Anlehnung an Krasnogor der Pseudocode eines MAs angegeben,[14] der optional auch die Anpassung der Chromosome an die gefundenen Verbesserungen (Lamarcksche Evolution) enthält.
Initialisierung: ; Erzeuge eine zufällige Startpopulation ; Berechne die Fitness ; // initiale Bewertung while Abbruchkriterien sind nicht erfüllt do Partnerwahl: Wähle entsprechend eine Teilmenge von und speichere sie in ; Nachkommen: Rekombiniere und mutiere Individuen und speichere sie in ; Lernphase: Verbessere durch lokale Suche oder eine Heuristik ; Bewertung: Berechne die Fitness ; if Lamarcksche Evolution then Update: Passe das Chromosom von gemäß der jeweiligen Verbesserung an; fi Neue Generation: Erzeuge durch Auswahl von Individuen aus und ; ; end while Ergebnis: Liefere bestes Individuum als Ergebnis ab;
Es gibt einige Alternativen zu diesem MA-Schema. Zum Beispiel:
Darüber hinaus können alle oder nur einige Individuen der Startpopulation durch das oder die Meme verbessert werden. Dabei ist auf eine ausreichende genotypische Diversität der so modifizierten Startpopulation zu achten und gegebenenfalls nur ein Teil zu verbessern.
Die No-free-Lunch-Theoreme der Optimierung[15] und der Suche[16] besagen, dass alle Optimierungsstrategien bezogen auf die Menge aller Optimierungsprobleme gleich effektiv sind. Im Umkehrschluss bedeutet dies, dass man folgendes erwarten kann: Je effizienter ein Algorithmus ein Problem oder eine Problemklasse löst, desto weniger ist er allgemein anwendbar und auf desto mehr problemspezifischem Wissen baut er auf. Diese Erkenntnis führt unmittelbar zu der Empfehlung, allgemein anwendbare Metaheuristiken um anwendungsspezifische Verfahren zu ergänzen[17] und damit zum Konzept der MAs.
In diesem Abschnitt wird ohne Beschränkung der Allgemeinheit der sprachlichen Einfachheit halber von der Erweiterung eines EA zu einem MA mit lokaler Suche ausgegangen.
Beim Design eines MA sind im Wesentlichen die folgenden fünf Fragen zu klären:[18][19][20]
Eine geeignete Beantwortung vor allem der ersten beiden Fragen kann entscheidend für den Erfolg eines MA im Vergleich zu seinem Basis-EA sein.
Bei Metaheuristiken wie den EA spielt das Verhältnis zwischen Breiten- und Tiefensuche eine entscheidende Rolle und die Hinzunahme eines lokalen Verfahrens verschiebt die Gewichte zu Gunsten der Tiefensuche. In welchem Ausmaß dies geschieht, kann vor allem durch die Antwort auf die letzten beiden Fragen gesteuert werden.
Die genannten Gestaltungsmöglichkeiten können entweder ganz oder teilweise fest in den MA implementiert werden oder als Strategieparameter einer nachträglichen Änderung zugänglich gemacht werden.
Die richtige Auswahl eines für die aktuelle Anwendung geeigneten lokalen Verfahrens ist wesentlich für den Erfolg.[19][21] Geeignete Verfahren sollten in der Lage sein, vorgegebene Lösungen des Problems zu verbessern. Sie können, müssen aber nicht auf die aktuelle Aufgabenstellung zugeschnitten sein. Verwendet man z. B. allgemein anwendbare lokale Suchverfahren, wie das Gauß-Seidel-Verfahren,[22] den Complex-Algorithmus[23] oder das Rosenbrock-Verfahren,[24] so wird die generelle Anwendbarkeit des EAs lediglich auf die den lokalen Verfahren zugänglichen Probleme der kontinuierlichen oder gemischt-ganzzahligen Optimierung beschränkt.[5] Bei einer diskreten oder gemischt-ganzzahligen Optimierung werden die Werte an der Schnittstelle zwischen EA und Mem bei Bedarf gerundet.
Die oben zitierten No-free-Lunch-Theoreme empfehlen bekanntlich, anwendungsspezifische lokale Suchverfahren oder Heuristiken als Mem zu verwenden. Trotzdem sollte man gegebenenfalls prüfen, ob sie im konkreten Fall tatsächlich eine größere Verbesserung bewirken als allgemein anwendbare.
Entweder wirkt eine gefundene Verbesserung nur durch die bessere Fitness (Baldwin-Evolution) oder es wird auch das Genom entsprechend angepasst (Lamarcksche Evolution). Diese Frage wurde bereits in den 1990er Jahren kontrovers in der Literatur diskutiert, wobei festgestellt wurde, dass der konkrete Anwendungsfall eine wesentliche Rolle spielt.[25][26][27] Der Hintergrund der Debatte besteht darin, dass eine Anpassung des Genoms eine vorzeitige Konvergenz fördern kann. Dieses Risiko kann durch andere Maßnahmen zur besseren Ausgewogenheit zwischen Breiten- und Tiefensuche, wie der Verwendung strukturierter Populationen, wirksam verringert werden.[20]
Die Auswahl kann zufällig oder fitnessbasiert erfolgen. Dabei kann die gesamte Nachkommenschaft einer Generation zur Grundlage der Auswahl gemacht werden[21] oder jeweils nur die Nachkommen einer Paarung.[20] Bei Memen mit geringem Rechenaufwand kann es auch sinnvoll sein, es auf alle Nachkommen anzuwenden.[28]
Eine wesentliche Frage ist, wie oft eine Verbesserung durch ein Mem versucht werden soll. Zum Beispiel bei jeder Paarung oder nur bei einem Teil? Dieser Parameter wird auch als local search frequency bezeichnet und er beeinflusst das Suchverhalten signifikant.
Heuristiken und lokale Suchverfahren arbeiten in der Regel iterativ und brechen beim Absinken der Verbesserungen unter ein vorgegebenes Limit ab.[22][23][24] Über die Vorgabe der Abbruchschranke und/oder eines Iterationslimits kann die Intensität der lokalen Suche kontrolliert werden. Dieser Parameter ist auch als local search intensity bekannt.
Mit Hilfe der Strategieparameter local search frequency und intensity kann die Verteilung der verfügbaren Rechenleistung zwischen globaler und lokaler Suche gesteuert werden und damit auch das Verhältnis von Breiten- zu Tiefensuche. Insbesondere eine Erhöhung der Intensität der lokalen Suche vergrößert die Tiefensuche. Die Bedeutung beider Parameter wurde bereits früh beschrieben[19] und von Land für den Bereich der kombinatorischen Optimierung untersucht.[29]
Da die Auswahl eines geeigneten Mems von entscheidender Bedeutung für den Erfolg ist, bietet es sich an, mehrere geeignet erscheinende Meme zu verwenden und zu erfassen, wie häufig die durch jedes Mem bearbeiteten Individuen in die Nachfolgegeneration übernommen werden. Vor einem Ausschluss oder einer zu starken Selektion sollte man aber beachten, dass das beste Mem während des Verlaufs der Evolution zumindest bei kombinatorischen Aufgabenstellungen wechseln kann.[30] Dies wurde von Ong und Keane auch für kontinuierliche Probleme bestätigt, die eine adaptive Auswahl der Mems aus einer vorgegebenen Menge entsprechend ihrem Erfolg untersucht haben.[21] Ähnlich geht ein Kosten-Nutzen-basierter Ansatz zur adaptiven Kontrolle der oben genannten Strategieparameter vor. Er basierend auf dem Nutzen, berechnet durch den kumulierten Fitnessgewinn, und den Kosten, berechnet durch die Anzahl der dazu erforderlichen Bewertungen, die pro Strategieparameter aus den Einstellungen resultieren. Es konnte für eine Reihe von Testfunktionen und eine Schedulingaufgabe mit Nebenbedingungen gezeigt werden, dass damit Lösungen von hoher Qualität bei deutlich geringerem Aufwand als dem Basis-EA erreicht werden können.[20] Ein Überblick über selbst-adaptive und koevolutionäre Multimem Algorithmen kann im Handbook of Memetic Algorithms[31] gefunden werden.
Bei der Koevolution werden alle oder ein Teil der eingangs genannten Strategieparameter mit in das Genom codiert und unterliegen so zusammen mit den Entscheidungsvariablen der Evolution.[32] Der Grundgedanke dabei besteht in Annahme, dass durch gute Strategieparametereinstellungen auch gute Problemlösungen entstehen, die sich schließlich durchsetzen. Dass dieser Ansatz für Strategieparameter, die ohne Einfluss auf den Aufwand sind, gut funktioniert, zeigt der Erfolg der Evolutionsstrategie mit ihren derart eingestellten Mutationsschrittweiten.
Die Erfahrungen, die sich beim Lauf eines adaptiven Multimem Algorithmus in Form von Memauswahl und Einstellungen der Memparameter ergeben, können dazu genutzt werden, die Starteinstellungen für zukünftige Läufe anzupassen. Dabei ist aber zu beachten, dass anfängliche Einstellungen eines MA-Laufs an dessen Ende nicht mehr unbedingt gut geeignet sein müssen oder umgekehrt. So ist beispielsweise eine anfängliche geringe Genauigkeit bei der Bestimmung lokaler Optima meist ausreichend und es wird erst am Ende der Suche wichtig, gefundene lokale Optima genau zu bestimmen, nämlich dann, wenn ihre Unterschiede geringer werden.
Memetische Algorithmen wurden bereits auf eine Vielzahl realer Problemstellungen angewandt. Die nachfolgende Aufzählung ist exemplarisch zu sehen und erhebt keinesfalls den Anspruch auf Vollständigkeit: Lösung von Routingproblemen,[33] VLSI-Design,[34] Vorhersage von Proteinstrukturen,[35][32] Scheduling mit Nebenbedingungen,[36][20][37] automatische Zeitplanung,[38][39] Scheduling von Workflows zu heterogenen Ressourcen,[40] Bearbeitung von Designproblemen,[41][42][43] Clustering von Genexpressionsprofilen,[44] Optimierung der Ausführung paralleler Programme,[45] Business Analytics,[46] Merkmalsauswahl und -identifikation[47][48] oder Erstellung von Flugplänen.[49]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.