banner

Blog

Aug 04, 2023

Ein effizienter Planetenoptimierungsalgorithmus zur Lösung technischer Probleme

Wissenschaftliche Berichte Band 12, Artikelnummer: 8362 (2022) Diesen Artikel zitieren

2232 Zugriffe

24 Zitate

3 Altmetrisch

Details zu den Metriken

In dieser Studie wird ein metaheuristischer Algorithmus namens The Planet Optimization Algorithm (POA) vorgeschlagen, der vom Newtonschen Gravitationsgesetz inspiriert ist. POA simuliert die Bewegung von Planeten im Sonnensystem. Die Sonne spielt im Algorithmus die Schlüsselrolle als Herzstück des Suchraums. Um die Genauigkeit zu erhöhen und gleichzeitig den Suchraum zu erweitern, werden zwei Hauptphasen eingesetzt, die lokale und die globale Suche. Als Technik zur Verbesserung der Genauigkeit dieses Algorithmus wird eine Gauß-Verteilungsfunktion eingesetzt. POA wird anhand von 23 bekannten Testfunktionen, 38 IEEE CEC-Benchmark-Testfunktionen (CEC 2017, CEC 2019) und drei realen technischen Problemen bewertet. Die statistischen Ergebnisse der Benchmark-Funktionen zeigen, dass POA sehr wettbewerbsfähige und vielversprechende Ergebnisse liefern kann. POA erfordert nicht nur eine relativ kurze Rechenzeit zur Lösung von Problemen, sondern weist auch eine überlegene Genauigkeit im Hinblick auf die Ausnutzung des Optimums auf.

In den letzten Jahren wurden viele von der Natur inspirierte Optimierungsalgorithmen vorgeschlagen. Einige vom Schwarm inspirierte Algorithmen werden geschätzt, wie etwa der Particle Swarm Optimization Algorithm (PSO)1, der Firefly Algorithm (FA)2, der Dragonfly Algorithm (DA)3, der Whale Optimization Algorithm (WOA)4, der Grey Wolf Optimizer (GWO)5 und Monarch Butterfly Optimization (MBO)6, Earthworm Optimization Algorithm (EWA)7, Elephant Herding Optimization (EHO)8, Mottensuche (MS) Algorithmus9, Slime Mould Algorithm (SMA)10, Colony Predation Algorithm (CPA)10 und Harris Hawks Optimization ( HHO)11. Darüber hinaus simulieren eine ganze Reihe von physikalisch inspirierten Algorithmen physikalische Gesetze im Universum oder in der Natur, wie z. B. die gebogene Raumoptimierung (CSO)12, die Wasserwellenoptimierung (WWO)13 usw. Darüber hinaus gibt es auch einige Algorithmen, die auf mathematischen Grundlagen basieren kreative Ansätze, z. B. Runge Kutta Optimizer (RUN)14.

Andererseits simulieren einige Algorithmen menschliches Verhalten, wie etwa Teaching-Learning-Based Optimization (TLBO)15 und Human Behavior-Based Optimization (HBBO)16. Mittlerweile ist der Genetische Algorithmus (GA)17 von der Evolution inspiriert und erzielt in vielen Bereichen große Erfolge bei der Lösung von Optimierungsproblemen. Mit der wachsenden Beliebtheit von GA werden in der Literatur viele evolutionsbasierte Algorithmen vorgeschlagen, darunter Evolutionary Programming (EP)18 und Evolutionary Strategies (ES)19.

Heutzutage sind metaheuristische Algorithmen ein unverzichtbares Werkzeug zur Lösung komplexer Optimierungsprobleme in verschiedenen Bereichen. Viele Forscher verwendeten solche Algorithmen, um schwierige Probleme in der Biologie20, der Wirtschaft21, den Ingenieurwissenschaften22,23 usw. zu lösen. Daher ist die Entwicklung neuer Algorithmen zur Erfüllung solch komplexer Anforderungen von großem Nutzen.

In dieser Studie wird ein starker Algorithmus zur Lösung lokaler und globaler Optimierungsprobleme konstruiert. Die Idee basiert auf der natürlichen Bewegung der Planeten in unserem Sonnensystem und den interplanetaren Wechselwirkungen während ihres gesamten Lebenszyklus. Newtons Gravitationsgesetz spiegelt die gravitative Wechselwirkung der Sonne mit umlaufenden Planeten wider, um anhand der Eigenschaften einzelner Planeten die optimale Position zu finden. Die Merkmale dieser Planeten sind ihre Massen und Entfernungen.

In diesem Artikel schlagen wir einen Optimierungsalgorithmus vor, der das Newtonsche Gesetz der universellen Gravitation als Grundlage für seine Entwicklung verwendet. In diesem Algorithmus werden eine Reihe herausragender Funktionen berücksichtigt, wie z. B. die lokale Suche und die globale Suche, um die Fähigkeit zum Finden der genauen Lösungen zu erhöhen, die in die Simulation der Planetenbewegung im Universum integriert sind.

Diese Forschungsarbeit ist wie folgt in mehrere Abschnitte gegliedert. Im nächsten Abschnitt wird die Konstruktion eines metaheuristischen Algorithmus vorgestellt. Die strukturelle POA wird auf der Grundlage des Newtonschen Gesetzes der universellen Gravitation und astronomischer Phänomene simuliert. Anschließend wird anhand eines breiten Anwendungsspektrums verschiedener Benchmark-Probleme gezeigt, wie effektiv POA ist. Gleichzeitig stellen wir die Anwendungen des POA auf reale technische Probleme vor. Abschließend werden im letzten Abschnitt auf der Grundlage der präsentierten Ergebnisse die Schlussfolgerungen dargelegt.

Die Physik ist eine grundlegende Wissenschaft, deren Gesetze alles regeln, von den kleinsten Objektelektronen, Neutronen oder Protonen bis hin zu extrem massereichen Sternen oder Galaxien (mit einem Durchmesser von etwa hunderttausend Lichtjahren). Die Gesetze der Physik finden im täglichen Leben breite Anwendung, vom Transport bis zur Medizin, von der Landwirtschaft bis zur Industrie usw. In der Naturwissenschaft bilden sie auch die Grundlage für viele andere Wissenschaften wie Chemie, Biologie und sogar Mathematik. Im Bereich der künstlichen Intelligenz (KI) sind die Gesetze der Physik die Inspiration für viele Optimierungsalgorithmen. In der Studie stellen wir auch einen Algorithmus vor, der auf einem solchen physikalischen Gesetz basiert.

Inspiriert von den Bewegungsgesetzen im Universum wird ein Algorithmus vorgeschlagen, der auf der Wechselwirkung der gegenseitigen Gravitation zwischen den Planeten basiert. Konkret simuliert dieser Optimierungsalgorithmus die universellen Gravitationsgesetze von Isaac Newton. Der Kern dieses Algorithmus ist wie folgt angegeben:

wobei \(\overrightarrow {F}\): Die zwischen zwei Planeten wirkende Gravitationskraft; \(G\): Die Gravitationskonstante; \(R\): Der Abstand zwischen zwei Planeten; \(m_{1} ,m_{2}\): Die Masse der beiden Planeten.

Die Gravitation eines Zweiplaneten (wie in Abb. 1 gezeigt) hängt von Gl. ab. (1). In dieser Studie stellen wir jedoch fest, dass der Wert der Kraft \(\overrightarrow {F}\) weniger effektive Ergebnisse liefert, als wenn das Moment \((M)\) als Parameter im Suchprozess des Algorithmus verwendet wird.

Die Kraft F, die zwischen zwei Planeten wirkt.

Das Universum ist unendlich groß und hat keine Grenzen, und es ist ein riesiger Raum, der mit Galaxien, Sternen, Planeten und vielen, vielen interessanten astrophysikalischen Objekten gefüllt ist. Zur Vereinfachung und Erleichterung der Visualisierung verwenden wir das Sonnensystem, um die Darstellung für diese Algorithmussimulation zu erstellen.

Dabei wird zunächst ein System betrachtet, das aus Sonne, Erde und Mond besteht (wie in Abb. 2 dargestellt). Natürlich versteht jeder, dass die Sonne ihre Anziehungskraft aufrechterhält, um die Erde in Bewegung zu halten. Interessanterweise ist die Masse der Sonne 330.000 Mal größer als die der Erde. Allerdings erzeugt die Erde auch eine Gravitationskraft, die groß genug ist, um den Mond auf einer Umlaufbahn um die Erde zu halten. Dies zeigt, dass zwei Faktoren die Bewegung eines Planeten beeinflussen, nicht nur die Masse, sondern auch die Entfernung zwischen den beiden Planeten. Ein Algorithmus, der das Gesetz der universellen Gravitation simuliert, wird daher wie folgt dargestellt:

Die Sonne wird als beste Lösung dienen. Im Suchraum wird es die größte Masse haben, was bedeutet, dass es ein größeres Gravitationsmoment für die Planeten um ihn herum und in seiner Nähe hat.

Zwischen der Sonne und anderen Planeten besteht ein gravitatives Anziehungsmoment untereinander. Dieses Moment hängt jedoch von der Masse sowie dem Abstand zwischen diesen beiden Zielen ab. Dies bedeutet, dass die Sonne zwar im Vergleich zu anderen Planeten die größte Masse hat, ihr Moment auf den zu weit entfernten Planeten jedoch vernachlässigbar ist. Dies hilft dem Algorithmus, eine lokale Optimierung zu vermeiden, wie in Abb. 3 dargestellt.

Die zwischen Planeten wirkende Gravitationskraft.

Lokale und globale Optimierung: (a) 3D-Ansicht; (b) Flugzeug.

In der t-ten Iteration ist die Masse des Roten Planeten (siehe Abb. 3) am größten, er repräsentiert also die Sonne. Da sich die rosafarbenen Planeten in der Nähe der Sonne befinden, bewegen sie sich aufgrund eines gravitativen Anziehungsmoments \((M_{p}^{t} )\) zwischen der Sonne und den Planeten zum Standort der Sonne.

Dennoch hat der Rote Planet (oder die Sonne) in der t-ten Iteration nicht die gewünschte Position, die wir suchen, also ein minimales Optimum. Mit anderen Worten: Wenn sich alle Planeten zum Roten Planeten bewegen, bleibt der Algorithmus im lokalen Raum stecken. Im Gegensatz dazu ist der blaue Planet ein potenzieller Standort und weit von der Sonne entfernt. Die Wechselwirkung der Sonne mit dem blauen Planeten \((M_{b}^{t} )\) ist gering, da er in der t-ten Iteration weit von der Sonne entfernt ist. Somit steht es dem blauen Planeten völlig frei, in den nächsten Iterationen einen besseren Standort zu suchen.

Der Hauptkern des Algorithmus basiert auf den beiden oben genannten Prinzipien. Außerdem ist die Sonne das wahre Ziel der Suche, und natürlich haben wir ihren genauen Standort nicht. In diesem Fall würde der Planet mit der höchsten Masse in der t-ten Iteration gleichzeitig als Sonne fungieren.

Die Implementierung des Algorithmus ist wie folgt:

Im Idealfall ist ein guter Algorithmus derjenige, bei dem die endgültige beste Lösung unabhängig von den Anfangspositionen sein sollte. Dennoch ist die Realität bei fast allen stochastischen Algorithmen genau umgekehrt. Wenn die Zielregion hügelig ist und das globale Optimum in einem isolierten Kleingebiet liegt, spielt eine Anfangspopulation eine wichtige Rolle. Wenn eine anfängliche Zufallspopulation keine Lösung in der Nähe des globalen Suchniveaus der Originalpopulation schafft, kann die Wahrscheinlichkeit, dass sich die Population auf das wahre Optimum konzentriert, sehr gering sein.

Im Gegensatz dazu ist die Wahrscheinlichkeit der Konvergenz der Population zum optimalen Standort sehr hoch, wenn anfängliche Lösungen in der Nähe der globalen optimalen Position erstellt werden. Die Globalisierung ist in der Tat sehr hoch und daher spielt die Initialisierung der Bevölkerung eine entscheidende Rolle. Idealerweise sollte die Einleitung die Methode der kritischen Stichprobe verwenden, beispielsweise Techniken, die auf die Monte-Carlo-Methode angewendet werden, um die Lösungen für einen objektiven Kontext zu prüfen. Dies erfordert jedoch ein ausreichendes Verständnis des Problems und kann für die meisten Algorithmen nicht erfüllt werden.

Ähnlich wie bei der Auswahl der Anfangspopulation ist es wichtig, in der Originalpopulation die beste Lösung für die Rolle der Sonne im Hinblick auf alle anderen Planeten zu wählen, die sich an diese Position bewegen. Diese Auswahl bestimmt in Zukunft die Konvergenzgeschwindigkeit sowie die Genauigkeit des Algorithmus.

Daher besteht der erste Schritt des Algorithmus darin, eine effektive Lösung zu finden, um eine Rolle als beste Lösung zu spielen und die Konvergenz und Genauigkeit des Suchproblems in den ersten Iterationen zu erhöhen.

In Gl. (3) werden folgende Parameter definiert:

Die Masse der Planeten:

wobei \(a = 2\) ein konstanter Parameter ist und \(\alpha = \left| {\max (obj) - obj_{sun} } \right|\) . Das heißt, wenn der Zielfunktionswert eines Planeten kleiner ist, ist die Masse dieses Planeten größer. \(obj_{i,j} ,\max (obj),obj_{sun}\) sind die Werte der Zielfunktion des i-ten oder j-ten Planeten, des schlechtesten Planeten bzw. der Sonne.

Der Abstand zwischen zwei beliebigen Objekten i und j mit „Dim“ als Dimension, kartesischer Abstand, wird durch Gleichung berechnet. (5):

G ist ein Parameter und in diesem Algorithmus gleich Eins.

Aus dem Obigen geht hervor, dass eine Formel zur Simulation der globalen Suche durch Gleichung angegeben ist. (6)

Die linke Seite der Formel veranschaulicht die aktuelle Position eines Planeten ith in der (t + 1)-Iteration, während die rechte Seite aus den folgenden Hauptelementen besteht:

\(\overrightarrow {{X_{i}^{t} }}\) ist die aktuelle Position eines Planeten ith in der Iteration tth.

\(\beta = M_{i}^{t} /M_{{_{\max } }}^{t}\),\(r_{1} = rand(0,1),b\) ist a konstanter Parameter.

\(\overrightarrow {{X_{Sun}^{t} }}\) ist die aktuelle Position der Sonne in der Iteration tth.

wobei \(\beta\) ein Koeffizient ist, der von M abhängt, wie in Gleichung gezeigt. (3), wobei \(M_{i}^{t}\) die Schwerkraft der Sonne auf einem Planeten ith bei t-Iteration ist und \(M_{\max }^{t}\) der Wert von \( \max (M_{i}^{t} )\) bei t-Iteration. Daher enthält der \(\beta\)-Koeffizient Werte im Intervall (0, 1).

Bei der Suche ist immer der wahre Standort das gesuchte Ziel. Allerdings wird dieses Ziel in diesem Prozess je nach Komplexität des Problems schwer oder leicht zu erreichen sein. In den meisten Fällen ist es nur möglich, einen ungefähren Wert zu finden, der zur ursprünglichen Anforderung passt. Das heißt, der wahre Standort der Sonne liegt noch im Raum zwischen den gefundenen Lösungen.

Obwohl Jupiter der massereichste Planet im Sonnensystem ist, ist Merkur interessanterweise der Planet, dessen Standort der Sonne am nächsten liegt. Dies bedeutet, dass die Position der besten Lösung zum wahren Standort der Sonne bei der Iteration möglicherweise nicht näher liegt als der Standort einiger anderer Lösungen zum tatsächlichen Standort der Sonne.

Wenn der Abstand zwischen Sonne und Planeten gering ist, wird der lokale Suchvorgang ausgeführt. Wie oben erwähnt, fungiert der Planet mit der größten Masse als Sonne, und in diesem Fall ist es Jupiter. Planeten in der Nähe der Sonne bewegen sich zum Standort der Sonne. Mit anderen Worten: Die Planeten bewegen sich bei der Iteration eine kleine Distanz zwischen ihm und der Sonne, anstatt direkt auf die Sonne zuzulaufen. Das Ziel dieses Schrittes besteht darin, die Genauigkeit in einem engen Bereich des Suchraums zu erhöhen. Gl. (7) gibt den Prozess für die lokale Suche wie folgt an:

wobei \(c = c_{0} - t/T\), t die t-te Iteration ist, T die maximale Anzahl von Iterationen ist und c0 = 2. \(r_{2}\) ist die durch Gleichung veranschaulichte Gauß-Verteilungsfunktion . (8).

Viele evolutionäre Algorithmen werden auch durch die Anwendung gängiger stochastischer Prozesse wie der Potenzgesetzverteilung und der Lévy-Verteilung randomisiert. Allerdings ist die Gaußsche Verteilung oder Normalverteilung am beliebtesten, da die große Anzahl physikalischer Variablen (siehe Abb. 4), darunter Lichtintensität, Fehler/Unsicherheit bei Messungen und viele andere Prozesse, dieser Verteilung gehorchen.

Gauß-Verteilung.

Der Koeffizient \(r_{2}\) ist die Gaußsche Verteilung mit Mittelwert \(\mu = 0,5\) und Standardabweichung \(\sigma = 0,2\). Das bedeutet, dass 68,2 % von \(r_{2}\) in Zone 1 etwa \((\mu - \sigma ) = 0,3\) bis \((\mu + \sigma ) = 0,7\) liegen und 27,2 % seiner Werte liegt in Zone 2 von \((\mu \pm 2\sigma )\) bis \((\mu \pm \sigma )\). Mit anderen Worten, POA wird sich um die Sonne bewegen, ohne mögliche Lösungen bei der lokalen Suche zu ignorieren.

Bei der Ausbeutung werden alle aus dem interessierenden Problem gewonnenen Daten verwendet, um neue Lösungen zu schaffen, die besser sind als bestehende Lösungen. Dieser Prozess und diese Informationen (z. B. Gradient) sind jedoch normalerweise lokal. Daher ist dieses Suchverfahren lokal. Das Ergebnis des Suchprozesses führt typischerweise zu hohen Konvergenzraten und ist die Stärke der Ausnutzung (oder lokalen Suche). Die Schwäche der lokalen Suche besteht jedoch darin, dass sie normalerweise im lokalen Modus hängen bleibt.

Im Gegensatz dazu ist die Exploration in der Lage, den Suchraum effektiv zu erkunden, und erzeugt typischerweise viele unterschiedliche Lösungen, die weit von den aktuellen Lösungen entfernt sind. Daher erfolgt die Erkundung (oder globale Suche) normalerweise auf globaler Ebene. Die große Stärke der globalen Suche besteht darin, dass sie selten in einem lokalen Raum hängen bleibt. Die Schwäche der globalen Suche liegt jedoch in den langsamen Konvergenzraten. Außerdem verschwendet es in vielen Fällen Aufwand und Zeit, da viele neue Lösungen weit von der Gesamtlösung entfernt sein können.

Abbildung 5 zeigt die Funktionsweise dieses Algorithmus, bei dem zwei lokale und globale Suchprozesse durch den Distanzparameter Rmin gesteuert werden. Das bedeutet, dass ein Planet, der weit von der Sonne entfernt ist, sich nach dem Newtonschen Gesetz bewegt. Im Gegensatz dazu ist die Wirkung der Newtonkraft bei Planeten sehr nahe an der Sonne sehr groß. Sie bewegen sich daher nur um die Sonne. Ein sonnennaher Planet unterstützt die Sonne bei der Erkundung eines lokalen Suchraums, wie in Gl. (7), während die Bewegung der von der Sonne entfernten Planeten gleichzeitig von diesem Stern weniger beeinflusst wird. Das bedeutet, dass sie die Chance haben, neue potenzielle Stars zu finden. Die Suche nach lokalen und globalen Räumen wird gleichzeitig ausgeführt. Dies garantiert eine Verbesserung der Genauigkeit des Suchvorgangs, aber dieser Algorithmus lässt die potenziellen Standorte nicht außer Acht.

Flussdiagramm der vorgeschlagenen POA.

Der Parameter Rmin muss die folgenden zwei Bedingungen erfüllen:

Wenn Rmin zu groß ist, konzentriert sich der Algorithmus in den ersten Iterationen auf die lokale Suche. Daher ist die Wahrscheinlichkeit, einen potenziellen Standort weit entfernt vom aktuellen Standort zu finden, schwierig.

Ist Rmin dagegen zu klein, konzentriert sich der Algorithmus auf die globale Suche. Mit anderen Worten: Die Erforschung von POA in der Zone um die Sonne ist nicht gründlich. Folglich erfüllt der beste Wert des Suchprozesses die Bedingung möglicherweise nicht.

In dieser Studie wird Rmin ausgewählt, indem der Suchraum in 1000 (R0 = 1000) Zonen unterteilt wird. Wobei „niedrig“ und „oben“ die Unter- bzw. Obergrenze jedes Problems sind. Mit einer expliziten Struktur, die aus zwei lokalen und globalen Suchprozessen besteht, hat POA die beiden oben genannten Probleme gelöst und verspricht, bei der Lösung komplexer Probleme effektiv zu sein und Zeit zu sparen.

In diesem Abschnitt wird POA mit einer Reihe von Algorithmen verglichen, die bekannte Probleme verwenden. Die Untersuchungen laufen auf dem Betriebssystem Windows 11. Generation Intel(R) Core(TM) i7-1185G7 @ 3,00 GHz 1,80 GHz mit RAM 16,0 GB.

In diesem Unterabschnitt wird POA eingesetzt, um ein breites Anwendungsspektrum verschiedener Benchmark-Probleme zu bewältigen. Zur Validierung der Wirksamkeit der Algorithmen wird üblicherweise eine Reihe mathematischer Funktionen mit bekannten globalen Optima verwendet. Derselbe Prozess wird ebenfalls befolgt und für diesen Vergleich wird ein Satz von 23 Benchmark-Funktionen aus der Literatur als Testumgebungen verwendet24,25,26. Diese Testfunktionen bestehen aus drei Gruppen, nämlich unimodalen (F1–F7), multimodalen (F8–F13) und multimodalen Benchmark-Funktionen mit fester Dimension (F14–F23). POA wird mit sieben Algorithmen, nämlich PSO1, GWO5, GSA27, FA2 und ASO28, HHO11, HSG29, anhand eines Satzes von 23 Benchmark-Funktionen verglichen, wie in Tabelle 1 gezeigt.

Jede Benchmark-Funktion wird vom POA-Algorithmus 30 Mal ausgeführt. Für die Durchführung von 500 Iterationen wird eine Stichprobengröße von POA mit 30 Planeten ausgewählt. Die statistischen Ergebnisse (Durchschnitt – Durchschnitt und Standardabweichung – Standard) sind in den Tabellen 2, 3 und 4 zusammengefasst.

Die Ergebnisse aus dem Vergleich zu F5 und F6 sind für POA im Vergleich zu den anderen recht gut. Die Funktionen F1 bis F4 und F7 zeigen, dass die Genauigkeit des POA-Algorithmus im Vergleich zu allen anderen Algorithmen am höchsten ist.

Im Vergleich zu 7-unimodalen Funktionen bestehen die meisten multimodalen Funktionen aus vielen lokalen Optimierungsbereichen, deren Anzahl exponentiell mit der Dimension zunimmt. Dies macht sie zu guten Voraussetzungen, um die explorative Fähigkeit eines metaheuristischen Optimierungsalgorithmus zu bewerten.

Tabelle 3 zeigt, dass POA in den F10- und F11-Funktionen überlegen ist und mit den anderen durchaus konkurrenzfähig ist.

Ähnlich wie die unimodalen Funktionen beweisen die multimodalen und multimodalen Funktionen mit fester Dimension erneut die Wettbewerbsfähigkeit von POA gegenüber anderen Algorithmen und zeigen, dass die erzielten Ergebnisse von F14 bis F23 vielversprechend sind.

Abbildung 6 zeigt die Konvergenz der POA nach 100 Iterationen von 100 Planeten. Die ersten beiden Metriken sind qualitative Metriken, die die Geschichte der Planeten im Laufe der Generationen veranschaulichen. Während des gesamten Optimierungsprozesses werden die Planeten durch rote Punkte dargestellt, wie in Abb. 6 dargestellt. Der Planetentrend erkundet potenzielle Zonen des Suchraums und nutzt das globale Optimum ziemlich genau aus. Diese Untersuchungen zeigen, dass POA eine hohe Effektivität bei der Annäherung an das globale Optimum von Optimierungsproblemen erzielen kann.

Konvergenzgrad der POA nach 100 Iterationen.

Die dritte Metrik stellt die Bewegung des 1. Planeten in der ersten Dimension während der Optimierung dar. Diese Metrik hilft uns zu überwachen, ob der erste Planet, der alle Planeten repräsentiert, in den ersten Generationen plötzlichen Bewegungen ausgesetzt ist und in den letzten Generationen mehr Stabilität aufweist. Diese Bewegung ist in der Lage, die Erkundung des Suchgebiets zu gewährleisten. Schließlich ist die Bewegung der Planeten sehr kurz, was zu einer Ausbeutung der Suchregion führt. Offensichtlich zeigt POA, dass es sich um einen Algorithmus handelt, der die Anforderungen an Genauigkeit und ein hohes Maß an Konvergenz erfüllt.

Die letzte quantitative Metrik ist das Konvergenzniveau des POA-Algorithmus. Der beste Wert aller Planeten in jeder Generation wird gespeichert und die Konvergenzkurven sind in Abb. 6 dargestellt. Die abnehmende Fitness über die Generationen hinweg zeigt die Konvergenz des POA-Algorithmus.

Um die Leistung von POA in Bezug auf hochdimensionale Optimierungsprobleme zu validieren, werden die ersten 13 klassischen Benchmark-Funktionen der oben genannten mit Dim = 1000 zur Untersuchung von POA verwendet. Für einen fairen Vergleich werden sieben der oben genannten metaheuristischen Optimierungsalgorithmen und POA mit einer Populationsgröße N = 30 unabhängig voneinander 30 Mal ausgeführt. Darüber hinaus ist die maximale Anzahl der Iterationen für alle Testfunktionen auf 500 festgelegt.

Der in diesem Unterabschnitt besprochene Test zeigt, dass POA für die Bewältigung von 13 klassischen Benchmark-Problemen vielversprechend ist. Von den getesteten 23 Benchmark-Funktionen hatten 13 Funktionen Dim = 1000, wie in Tabelle 5 und Abb. 7 dargestellt. Dieser Unterabschnitt bestätigte die Fähigkeit von POA, mit hochdimensionalen Problemen umzugehen, da die Dimension dieser 13 klassischen Benchmarks erhöht wurde 30 bis 1000.

Leistungsvergleich von Algorithmen.

In diesem Experiment wird ein Vergleich zwischen POA und den anderen sieben Algorithmen in den zeitaufwändigen Berechnungsexperimenten der 13 Funktionen durchgeführt. Die zeitaufwändige Berechnungsmethode besteht darin, dass jede Benchmark-Funktion alle Algorithmen 30-mal unabhängig implementiert und dann die Werte der 30-maligen Ausführung in Tabelle 6 gespeichert werden. Für Dim = 30 übertrifft nicht nur die POA-Berechnung einige Algorithmen, sondern auch Es nimmt weniger Zeit in Anspruch, wie GSA, ASO und FA, ist aber manchmal auch GWO weit überlegen, sogar der zeitaufwändigen Berechnung von PSO. Für Dim = 1000 steht POA hinsichtlich der Rechenzeit immer an erster Stelle. Diese Ergebnisse zeigen, dass die POA für Optimierungsprobleme bei hochdimensionalen Problemen geeignet ist.

Um die Effizienz des vorgeschlagenen Algorithmus weiter zu klären, wird POA anhand der komplexen Herausforderungen getestet, nämlich der Bewertungskriterien für CEC 201730 und CEC 201931. Seine Ergebnisse werden mit denen bekannter und moderner metaheuristischer Algorithmen verglichen: DA, WOA und der arithmetische Optimierungsalgorithmus (AOA)32. Diese Algorithmen wurden aus folgenden Gründen ausgewählt:

Alle basieren auf dem Prinzip des PSO wie auch des POA.

Alle Algorithmen sind in der Literatur ausführlich zitiert, und AOA ist eine kürzlich veröffentlichte Studie.

Es wurde nachgewiesen, dass diese Algorithmen sowohl bei Benchmark-Testfunktionen als auch bei realen Problemen eine überlegene Leistung erbringen.

Sie werden von ihren Autoren öffentlich zur Verfügung gestellt.

Wie die 23 klassischen Benchmark-Funktionen wird jede Funktion der CEC Benchmark Suite 30 Mal ausgeführt, und jeder Algorithmus durfte die Landschaft nach 500 Iterationen mit 30 Agenten durchsuchen.

In diesem Unterabschnitt werden die IEEE CEC 2017-Probleme verwendet, um die Leistung von POA zu testen. Der CEC'17-Standardsatz besteht aus 28 wirklich anspruchsvollen Benchmark-Problemen. Die erste ist eine unimodale Funktion, 2–7 sind multimodale. Während die nächsten zehn Funktionen Hybrid sind, handelt es sich beim Rest von CEC 2017 um zehn Kompositionsfunktionen. Tabelle 7 enthält eine kurze Beschreibung des CEC 2017.

Wie in Tabelle 8 gezeigt, ist POA hocheffizient, da es im Vergleich zu WOA, DA und AOA alle Algorithmen in 21/28 des CEC 2017-Standardsatzes übertrifft. Darüber hinaus ist in Tabelle 9 der Wilcoxon-Signifikanztest mit einem Signifikanzniveau von α = 0,05 aufgeführt, um die signifikanten Unterschiede zwischen den Ergebnissen von POA und anderen Algorithmen zu analysieren. Diese Ergebnisse haben gezeigt, dass POA hinsichtlich der Lösungsqualität bei der Handhabung der Funktionen von CEC 2017 eine hervorragende Leistung erbringt.

Tabelle 10 enthält eine kurze Beschreibung von CEC 2019. Aus Tabelle 11 ist ersichtlich, dass POA andere Optimierungsalgorithmen in allen CEC 2019-Funktionen übertrifft. Tatsächlich zeigen Ergebnisse in vielen Testfunktionen (z. B. F52, F53, F56), dass POA nicht nur beim Durchschnittswert von 30 Durchläufen, sondern auch bei den anderen statistischen Werten, wie dem besten, schlechtesten und dem Standardwert, leistungsfähiger ist als andere . Der von Wilcoxon unterzeichnete Rangtest (siehe Tabelle 12) zeigte erneut die überlegene Leistung von POA bei der Lösung von CEC 2019-Problemen.

Im nächsten Abschnitt werden einige klassische technische Designprobleme herangezogen, um die Leistung des POA weiter zu bewerten. Darüber hinaus wird POA auch mit anderen bekannten Techniken verglichen, um die Ergebnisse zu bestätigen.

In dieser Studie werden drei eingeschränkte Konstruktionsprobleme, nämlich Zug-/Druckfedern, geschweißte Balken und Druckbehälterkonstruktionen, verwendet, um die Anwendbarkeit von POA zu untersuchen. Die Probleme unterliegen einigen Gleichheits- und Ungleichheitsbeschränkungen. Der POA sollte daher mit einer Technik zur Lösung von Einschränkungen ausgestattet sein. Mittlerweile kann POA gleichzeitig auch eingeschränkte Probleme optimieren. Es ist zu beachten, dass die Populationsgröße und die Anzahl der Iterationen für 50 Durchläufe auf 30 bzw. 500 festgelegt werden, um die Ergebnisse für alle Probleme in diesem Abschnitt zu ermitteln.

Das Hauptziel dieses Problems besteht darin, das Gewicht einer Zug-/Druckfeder zu minimieren. Das Designproblem unterliegt drei Einschränkungen, nämlich Stoßfrequenz, Scherspannung und minimaler Durchbiegung. Dieses Problem besteht aus drei Variablen: Drahtdurchmesser (d), mittlerer Spulendurchmesser (D) und der Anzahl der aktiven Spulen (N).

Das Problem der Zug-/Druckfederkonstruktion wurde sowohl von Mathematikern als auch von heuristischen Techniken gelöst. Einige Forscher haben Anstrengungen unternommen, um mehrere Methoden zur Minimierung des Gewichts einer Zug-/Druckfeder einzusetzen (Ha und Wang: PSO33; Coello und Montes: The Evolution Strategy (ES)34 und GA35; Mahdavi et al.: Harmony Search (HS) 36; Belegundu: Mathematische Optimierung37 und Arora: Constraint-Korrektur38; Huang et al.: Differential Evolution (DE)39). Darüber hinaus wurden GWO5-Algorithmen und HHO11 auch als heuristische Optimierer für dieses Problem eingesetzt. Der Vergleich der Ergebnisse dieser Methoden und der POA ist in Tabelle 13 dargestellt.

Das Ziel des Problems der geschweißten Trägerkonstruktion besteht darin, die Herstellungskosten zu minimieren. Die Randbedingungen des Problems sind Scherspannung \((\tau )\), Biegespannung im Balken \((\theta )\), Knicklast des Balkens \((P_{c} )\), Enddurchbiegung von die Strahl-\((\delta)\) und Seitenbeschränkungen. Das Problem der geschweißten Trägerkonstruktion hat vier Variablen, nämlich die Dicke der Schweißnaht \((h)\), die Länge des befestigten Teils des Stabes \((l)\), die Höhe des Stabes \((t)\) und die Dicke von der Balken \((b)\). Dieses Problem wird in der Literatur5,40,41 veranschaulicht.

Lee und Geem40 verwendeten HS, um dieses Problem zu lösen, während Deb42,43 und Coello44 GA verwendeten. Seyedali Mirjalili wendete GWO5 an, um dieses Problem zu lösen. Richardsons Zufallsansatz, Davidon-Fletcher-Powell, Simplex-Technik, Griffiths und Stewarts sukzessive lineare Approximation sind die mathematischen Methoden, die Ragsdell und Philips41 für dieses Problem übernommen haben. In jüngerer Zeit verwendeten Heidari et al.11 und Yang et al.29 HHO bzw. HGS, um das Problem zu lösen. Tabelle 14 zeigt einen Vergleich zwischen den verschiedenen Methoden. Die Ergebnisse zeigen, dass POA im Vergleich zu anderen Optimierungen ein Design mit minimalen Kosten erreicht. Das beste Ergebnis der vom POA erhaltenen Kostenfunktion ist 1,72564.

Es ist ein bekanntes Problem bei der Konstruktion von Druckbehältern, bei dem die Herstellungskosten der Gesamtkosten bestehend aus Material, Formgebung und Schweißen eines zylindrischen Behälters minimiert werden sollten. Es gibt vier Variablen, nämlich die Dicke der Schale \((T_{s} )\), die Dicke des Kopfes \((T_{h} )\), den Innenradius \((R)\) und die Länge des Zylinders Abschnitt ohne Berücksichtigung des Kopfes \((L)\) und vier Einschränkungen.

Das Problem der Konstruktion von Druckbehältern ist auch bei Optimierungsstudien in verschiedenen Forschungen beliebt. Zur Optimierung dieses Problems wurden mehrere heuristische Techniken eingesetzt, nämlich DE39, PSO33, GA35,45,46, ACO47, ES [59], GWO5, MFO48, HHO11 und SMA10. Die verwendeten mathematischen Ansätze sind Augmented Lagrange Multiplier49 und Branch-and-Bound50. Wir können sehen, dass POA erneut in der Lage ist, ein Design mit den minimalen Kosten zu suchen, wie in Tabelle 15 gezeigt.

In der Arbeit wird ein metaheuristischer Algorithmus vorgeschlagen, der vom Gravitationsgesetz von Newton inspiriert ist. Die Struktur von POA in Suchprozessen besteht aus zwei Phasen, die auf ein ausgewogenes Verhältnis zwischen Erkundung und Ausbeutung abzielen. Anhand der Genauigkeit von 23 klassischen Benchmark-Funktionen und 38 IEEE-CEC-Testfunktionen (CEC2017, CEC 2019) werden mehrere Outperformance-Funktionen nachgewiesen. In vielen Funktionen hat POA gezeigt, dass die erhaltenen Ergebnisse um ein Vielfaches genauer sind als die anderen.

Im abschließenden Bewertungsabschnitt wird eine Reihe bekannter Testfälle, darunter drei technische Testprobleme, gründlich untersucht, um den Betrieb von POA in der Praxis zu untersuchen. Jedes Problem ist eine Art unterschiedlicher Technik, einschließlich sehr unterschiedlicher Suchräume. Daher werden diese technischen Probleme genutzt, um den POA gründlich zu testen. Die erhaltenen Ergebnisse zeigen, dass POA in der Lage ist, tatsächlich herausfordernde Probleme mit unbekannten Suchräumen und einer großen Anzahl von Einschränkungen effektiv zu lösen. Die Ergebnisse im Vergleich zu GSA, GWO, PSO, DE, ACO, MFO, SOS, CS, HHO, SMA, HGS usw. legen nahe, dass POA überlegen ist.

Die Struktur von POA ist einfach und eindeutig, sehr effektiv und sogar schnell. Experimente zeigten kurze Rechenzeiten für die Bearbeitung komplexer Optimierungsprobleme. Daher sind wir fest davon überzeugt, dass POA ein leistungsstarker Algorithmus zur Lösung von Optimierungsproblemen ist.

Alle während dieser Studie generierten oder analysierten Daten sind in diesem veröffentlichten Artikel enthalten.

Kennedy, J. & Eberhart, R. In Proceedings of ICNN'95 – Internationale Konferenz über neuronale Netze. 1942–1948 Bd. 1944.

Yang, X.-S. In stochastischen Algorithmen: Grundlagen und Anwendungen. (Hrsg. Osamu Watanabe & Thomas Zeugmann) 169–178 (Springer, Berlin) (2009).

Mirjalili, S. Dragonfly-Algorithmus: eine neue metaheuristische Optimierungstechnik zur Lösung einobjektiver, diskreter und mehrobjektiver Probleme. Neuronale Berechnung. Appl. 27, 1053–1073 (2016).

Artikel Google Scholar

Mirjalili, S. & Lewis, A. Der Waloptimierungsalgorithmus. Adv. Ing. Softw. Rev. 95, 51–67 (2016).

Artikel Google Scholar

Mirjalili, S., Mirjalili, SM & Lewis, A. Der Grey-Wolf-Optimierer. Adv. Ing. Softw. 69, 46–6 https://doi.org/10.1016/j.advengsoft.2013.12.007 (2014).

Artikel Google Scholar

Wang, G.-G., Deb, S. & Cui, Z. Optimierung des Monarchfalters. Neuronale Berechnung. Appl. 31, 1995–2014 (2019).

Artikel Google Scholar

Wang, G.-G., Deb, S. & Coelho, LDS Regenwurm-Optimierungsalgorithmus: ein bioinspirierter metaheuristischer Algorithmus für globale Optimierungsprobleme. Int. J. Bioinspirierter Computer. 12, 1–22 (2018).

Artikel Google Scholar

Wang, G.-G., Deb, S. & Coelho, LDS 2015 3. Internationales Symposium zu Computational and Business Intelligence (ISCBI). 1–5 (IEEE).

Wang, G.-G. Mottensuchalgorithmus: ein bioinspirierter metaheuristischer Algorithmus für globale Optimierungsprobleme. Memetischer Computer. 10, 151–164 (2018).

Artikel Google Scholar

Li, S., Chen, H., Wang, M., Heidari, AA & Mirjalili, S. Schleimpilzalgorithmus: eine neue Methode zur stochastischen Optimierung. Zukunft. Gener. Berechnen. Syst. 111, 300–323 (2020).

Artikel Google Scholar

Heidari, AA et al. Harris Hawks-Optimierung: Algorithmus und Anwendungen. Zukunft. Gener. Berechnen. Syst. 97, 849–872 (2019).

Artikel Google Scholar

Moghaddam, FF, Moghaddam, RF & Cheriet, M. Optimierung des gekrümmten Raums: eine Zufallssuche basierend auf der allgemeinen Relativitätstheorie. arXiv-Vorabdruck arXiv:1208.2214 (2012).

Zheng, Y.-J. Wasserwellenoptimierung: eine neue, von der Natur inspirierte Metaheuristik. Berechnen. Oper. Res. 55, 1–11 (2015).

Artikel MathSciNet Google Scholar

Ahmadianfar, I., Heidari, AA, Gandomi, AH, Chu, X. & Chen, H. RUN beyond the metapher: ein effizienter Optimierungsalgorithmus basierend auf der Runge-Kutta-Methode. Expertensystem. Appl. 181, 115079 (2021).

Artikel Google Scholar

Rao, RV, Savsani, VJ & Vakharia, D. Lehr-lernbasierte Optimierung: eine neuartige Methode für eingeschränkte mechanische Designoptimierungsprobleme. Berechnen. Unterstützte Des. 43, 303–315 (2011).

Artikel Google Scholar

Ahmadi, S.-A. Auf menschlichem Verhalten basierende Optimierung: ein neuartiger metaheuristischer Ansatz zur Lösung komplexer Optimierungsprobleme. Neuronale Berechnung. Appl. 28, 233–244 (2017).

Artikel Google Scholar

Goldberg, DE Genetische Algorithmen in der Suche. Optimierung und maschinelles Lernen (1989).

Juste, K., Kita, H., Tanaka, E. & Hasegawa, J. Eine evolutionäre Programmierlösung für das Unit-Commitment-Problem. IEEE Trans. Stromversorgungssystem. 14, 1452–1459 (1999).

Artikel ADS Google Scholar

Holland, JH Entwurf für eine logische Theorie adaptiver Systeme. J. ACM 9, 297–314 (1962).

Artikel Google Scholar

Patro, SP, Nayak, GS & Padhy, N. Vorhersage von Herzerkrankungen mithilfe eines neuartigen Optimierungsalgorithmus: eine Perspektive für überwachtes Lernen. Informieren. Med. Freigeschaltet 26, 100696, doi:https://doi.org/10.1016/j.imu.2021.100696 (2021)

Li, X. & Sun, Y. Intelligente Anlagestrategie für Aktien basierend auf dem Algorithmus zur Optimierung von Support-Vektor-Maschinenparametern. Neuronale Berechnung. Appl. 32, 1765–1775 (2020).

Artikel Google Scholar

Sang-To, T. et al. Kombination aus intermittierender Suchstrategie und einem verbesserten Partikelschwarmoptimierungsalgorithmus (IPSO) zur Modellaktualisierung. Frattura ed Integrità Strutturale 59, 141–152 (2022).

Google Scholar

Minh, H.-L. et al. In Vorträgen der 2. Internationalen Konferenz zur Modellierung und Bewertung von Strukturschäden. 13–26 (Springer).

Yao, X., Liu, Y. & Lin, G. Evolutionäre Programmierung schneller gemacht. IEEE Trans. Entwicklung Berechnen. 3, 82–102, doi:https://doi.org/10.1109/4235.771163 (1999).

Digalakis, JG & Margaritis, KG Über Benchmarking-Funktionen für genetische Algorithmen. Int. J. Comput. Mathematik. 77, 481–506 (2001).

Artikel MathSciNet Google Scholar

Yang, X.-S. Testprobleme in der Optimierung. arXiv-Vorabdruck arXiv:1008.0549 (2010).

Rashedi, E., Nezamabadi-Pour, H. & Saryazdi, S. GSA: ein Gravitationssuchalgorithmus. Inf. Wissenschaft. 179, 2232–2248 (2009).

Artikel Google Scholar

Zhao, W., Wang, L. & Zhang, Z. Optimierung der Atomsuche und ihre Anwendung zur Lösung eines hydrogeologischen Parameterschätzungsproblems. Wissensbasiertes Syst. 163, 283–304. https://doi.org/10.1016/j.knosys.2018.08.030 (2019).

Artikel Google Scholar

Yang, Y., Chen, H., Heidari, AA & Gandomi, AH Suche nach Hungerspielen: Visionen, Konzeption, Umsetzung, tiefgreifende Analyse, Perspektiven und hin zu Leistungsverschiebungen. Expertensystem. Appl. 177, 114864 (2021).

Artikel Google Scholar

Wu, G., R. Mallipeddi und PN Suganthan. Problemdefinitionen und Bewertungskriterien für den CEC 2017-Wettbewerb zur eingeschränkten Realparameteroptimierung. (Researchgate, 2017).

Price, K., Awad, N., Ali, M. & Suganthan, P. Die 100-stellige Herausforderung: Problemdefinitionen und Bewertungskriterien für die Sondersitzung und den Wettbewerb zur 100-stelligen Herausforderung zur numerischen Optimierung mit einem einzigen Ziel. Nanyang Technol. Univ. (2018).

Abualigah, L., Diabat, A., Mirjalili, S., Abd Elaziz, M. & Gandomi, AH Der arithmetische Optimierungsalgorithmus. Berechnen. Methoden Appl. Mech. Ing. 376, 113609 (2021).

Artikel MathSciNet ADS Google Scholar

He, Q. & Wang, L. Eine effektive koevolutionäre Partikelschwarmoptimierung für eingeschränkte technische Designprobleme. Ing. Appl. Artif. Intel. 20, 89–99 (2007).

Artikel Google Scholar

Mezura-Montes, E. & Coello, CAC Eine empirische Studie über den Nutzen von Evolutionsstrategien zur Lösung eingeschränkter Optimierungsprobleme. Int. J. Gen Syst 37, 443–473 (2008).

Artikel MathSciNet Google Scholar

Coello, CAC Verwendung eines selbstadaptiven Strafansatzes für technische Optimierungsprobleme. Berechnen. Ind. 41, 113–127 (2000).

Artikel Google Scholar

Mahdavi, M., Fesanghary, M. & Damangir, E. Ein verbesserter Harmonie-Suchalgorithmus zur Lösung von Optimierungsproblemen. Appl. Mathematik. Berechnen. 188, 1567–1579 (2007).

Artikel MathSciNet Google Scholar

Belegundu, AD & Arora, JS Eine Studie über mathematische Programmiermethoden zur Strukturoptimierung. Teil I: Theorie. Int. J. Numer. Methoden Eng. 21, 1583–1599, doi:https://doi.org/10.1002/nme.1620210904 (1985).

Arora, J. Einführung in optimales Design mit MATLAB. Einführung in optimales Design, 413–432 (2004).

Huang, F.-Z., Wang, L. & He, Q. Eine effektive koevolutionäre Differentialentwicklung zur eingeschränkten Optimierung. Appl. Mathematik. Berechnen. 186, 340–356 (2007).

Artikel MathSciNet Google Scholar

Lee, KS & Geem, ZW Ein neuer metaheuristischer Algorithmus für die kontinuierliche technische Optimierung: Theorie und Praxis der Harmoniesuche. Berechnen. Methoden Appl. Mech. Ing. 194, 3902–3933 (2005).

Artikel ADS Google Scholar

Ragsdell, KM & Phillips, DT Optimaler Entwurf einer Klasse von Schweißkonstruktionen mithilfe geometrischer Programmierung. J. Eng. Ind. 98, 1021–1025. https://doi.org/10.1115/1.3438995 (1976).

Artikel Google Scholar

Deb, K. Optimales Design eines geschweißten Trägers mithilfe genetischer Algorithmen. AIAA J. 29, 2013–2015 (1991).

Artikel ADS Google Scholar

Deb, K. Eine effiziente Methode zur Einschränkungsbehandlung für genetische Algorithmen. Berechnen. Methods Appl Mech Eng 186, 311–338 (2000).

Artikel ADS Google Scholar

Coello Coello, CA Constraint-Handling unter Verwendung einer evolutionären multiobjektiven Optimierungstechnik. Zivil. Ing. Syst. 17, 319–346 (2000).

Artikel Google Scholar

Coello, CAC & Montes, EM Umgang mit Einschränkungen in genetischen Algorithmen durch die Verwendung dominanzbasierter Turnierauswahl. Adv. Ing. Informieren. 16, 193–203 (2002).

Artikel Google Scholar

Deb, K. In Evolutionary Algorithms in Engineering Applications 497–514 (Springer, 1997).

Kaveh, A. & Talatahari, S. Eine verbesserte Ameisenkolonie-Optimierung für eingeschränkte technische Designprobleme. Ing. Berechnen. (2010).

Mirjalili, S. Mottenflammen-Optimierungsalgorithmus: ein neuartiges, von der Natur inspiriertes heuristisches Paradigma. Wissensbasiertes Syst. 89, 228–249 (2015).

Artikel Google Scholar

Kannan, BK & Kramer, SN Eine auf einem erweiterten Lagrange-Multiplikator basierende Methode zur gemischt-ganzzahligen diskreten kontinuierlichen Optimierung und ihre Anwendung auf das mechanische Design. J. Mech. Des. 116, 405–411. https://doi.org/10.1115/1.2919393 (1994).

Artikel Google Scholar

Sandgren, E. Nichtlineare ganzzahlige und diskrete Programmierung in der mechanischen Designoptimierung. J. Mech. Des. 112, 223–229. https://doi.org/10.1115/1.2912596 (1990).

Artikel Google Scholar

Referenzen herunterladen

Die Autoren danken für die finanzielle Unterstützung des VLIR-UOS TEAM-Projekts, VN2018TEA479A103, „Damage Assessment Tools for Structural Health Monitoring of Vietnamese Infrastructures“, finanziert von der flämischen Regierung. Die Autoren bedanken sich für die Unterstützung der Ho Chi Minh City Open University im Rahmen des Grundlagenforschungsfonds (Nr. E2021.06.1). Die Autoren möchten der Van Lang University, Vietnam, für die finanzielle Unterstützung dieser Forschung danken.

Laboratory Soete, Abteilung für Elektromechanik, Systeme und Metalltechnik, Universität Gent, Technologiepark Zwijnaarde 903, 9052, Zwijnaarde, Belgien

Thanh Sang-To & Minh Hoang-Le

Fakultät für Bauingenieurwesen, Ho-Chi-Minh-Stadt-Offene Universität, Ho-Chi-Minh-Stadt, Vietnam

Thanh Sang-To, Minh Hoang-Le und Thanh Cuong-Le

Fakultät für Maschinenbau – Elektrotechnik und Informationstechnik, Fakultät für Ingenieurwesen und Technologie, Van-Lang-Universität, Ho-Chi-Minh-Stadt, Vietnam

Magd Abdel Wahab

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

TST-, MAW- und TCL-Konzeptualisierung, Software, Methodik, Validierung, Schreiben – Originalentwurf; ML-Schreiben, formale Analyse und Datenkuratierung; MAW- und TCL-Überwachung.

Korrespondenz mit Magd Abdel Wahab oder Thanh Cuong-Le.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Sang-To, T., Hoang-Le, M., Wahab, MA et al. Ein effizienter Planetenoptimierungsalgorithmus zur Lösung technischer Probleme. Sci Rep 12, 8362 (2022). https://doi.org/10.1038/s41598-022-12030-w

Zitat herunterladen

Eingegangen: 23. März 2022

Angenommen: 04. Mai 2022

Veröffentlicht: 19. Mai 2022

DOI: https://doi.org/10.1038/s41598-022-12030-w

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Wissenschaftliche Berichte (2023)

Grenzen des Hoch- und Tiefbaus (2023)

Soft Computing (2023)

International Journal of Mechanics and Materials in Design (2023)

Nichtlineare Dynamik (2023)

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.

AKTIE