banner
Heim / Blog / Erlernen entstehender partieller Differentialgleichungen in einem erlernten entstehenden Raum
Blog

Erlernen entstehender partieller Differentialgleichungen in einem erlernten entstehenden Raum

Dec 20, 2023Dec 20, 2023

Nature Communications Band 13, Artikelnummer: 3318 (2022) Diesen Artikel zitieren

3496 Zugriffe

6 Zitate

1 Altmetrisch

Details zu den Metriken

Wir schlagen einen Ansatz zum Erlernen effektiver Evolutionsgleichungen für große Systeme interagierender Agenten vor. Dies wird an zwei Beispielen demonstriert, einem gut untersuchten System gekoppelter Normalformoszillatoren und einem biologisch motivierten Beispiel gekoppelter Hodgkin-Huxley-ähnlicher Neuronen. Für solche Systeme gibt es keine offensichtliche Raumkoordinate, in der man effektive Evolutionsgesetze in Form partieller Differentialgleichungen lernen könnte. In unserem Ansatz erreichen wir dies, indem wir als ersten Schritt Einbettungskoordinaten aus den Zeitreihendaten des Systems lernen und dabei vielfältiges Lernen nutzen. In diesen entstehenden Koordinaten zeigen wir dann, wie man mithilfe neuronaler Netze effektive partielle Differentialgleichungen lernen kann, die nicht nur die Dynamik des Oszillatorensembles reproduzieren, sondern auch die kollektiven Bifurkationen erfassen, wenn sich Systemparameter ändern. Der vorgeschlagene Ansatz integriert somit die automatische, datengesteuerte Extraktion entstehender Raumkoordinaten, die die Agentendynamik parametrisieren, mit der durch maschinelles Lernen unterstützten Identifizierung einer entstehenden PDE-Beschreibung der Dynamik in dieser Parametrisierung.

Die Modellierung des dynamischen Verhaltens großer Systeme interagierender Agenten bleibt ein herausforderndes Problem bei der Analyse komplexer Systeme. Aufgrund der großen Zustandsraumdimension solcher Systeme war es in der Vergangenheit ein fortlaufendes Forschungsziel, nützliche Modelle reduzierter Ordnung zu konstruieren, mit denen sich die grobkörnige Dynamik von Agentenensembles kollektiv beschreiben lässt. Solche grobkörnigen, kollektiven Beschreibungen kommen in vielen Zusammenhängen vor, z. B. in der Thermodynamik, wo wechselwirkende Teilchen effektiv auf makroskopischer Ebene durch Temperatur, Druck und Dichte beschrieben werden können; oder in der kinetischen Theorie, wo Kollisionen in der Boltzmann-Gleichung zu Kontinuumsbeschreibungen wie den Navier-Stokes-Gleichungen führen können – aber auch in Zusammenhängen wie Chemotaxis oder granularen Strömungen. Ein wichtiges Problem bei dieser Grobkörnung besteht darin, grobkörnige Observablen (Dichtefelder, Impulsfelder, Konzentrationsfelder, Hohlraumanteilfelder) zu finden, die die Entwicklung des kollektiven Verhaltens im physischen Raum beschreiben. Makroskopische, effektive Modelle werden dann häufig als partielle Differentialgleichungen (PDEs) für diese Felder angenähert: Ihre zeitlichen Ableitungen werden lokal durch die lokalen räumlichen Ableitungen des Feldes bzw. der Felder an jedem Punkt ausgedrückt. Die zur Ableitung von Vorhersagemodellen erforderlichen Abschlüsse können entweder mathematisch (mit geeigneten Annahmen) und/oder semiempirisch durch experimentelle oder rechnerische Beobachtungen ermittelt werden.

Wenn es sich bei den interagierenden Agenten um gekoppelte Oszillatorsysteme handelt, kann ihre beobachtete niedrigdimensionale Dynamik manchmal als ein konzentriertes System einiger gewöhnlicher Differentialgleichungen (ODEs) anhand sogenannter Ordnungsparameter beschrieben werden1,2,3. Für große heterogene Systeme interagierender Oszillatoren beobachten wir zu jedem Zeitpunkt eine Verteilung der Oszillatorzustände; Die Fähigkeit, diese Entwicklung durch einige ODEs für geeignete Ordnungsparameter sinnvoll zu beschreiben, entspricht konzeptionell der Beschreibung der Verteilungsentwicklung durch einen endlichen, geschlossenen Satz einiger Momentengleichungen für die Verteilung. Die wenigen guten Ordnungsparameter werden hier durch die wenigen Leitmomente bereitgestellt, anhand derer ein geschlossener Satz von Modell-ODEs (oder sogar stochastische Differentialgleichungen) geschrieben werden kann. Und während in einigen Fällen eine solche reduzierte Beschreibung recht erfolgreich sein kann, gibt es andere Fälle, in denen ein paar ODEs nicht ausreichen und in denen man Entwicklungsgleichungen (z. B. PDEs) für sich entwickelnde Felder des momentanen Oszillatorverhaltens schreiben muss( S).

Dann stellt sich natürlich die Frage: Wie lässt sich die räumliche Unterstützung dieser sich entwickelnden Verhaltensverteilung gut parametrisieren? Welche (und wie viele) sind die wenigen unabhängigen räumlichen Variablen, in deren Raum wir versuchen werden, evolutionäre PDE-Modelle für die kollektive Verhaltensentwicklung abzuleiten? Mit anderen Worten: Wenn sich das Problem nicht im physischen Raum entwickelt (z. B. wenn die Oszillatoren Knoten in einem interagierenden Netzwerk sind), gibt es dann einen nützlichen Kontinuum-Einbettungsraum, in dem wir das Verhalten beobachten können, das sich als raumzeitliches Feld entwickelt? Und wenn ja, wie können wir diesen entstehenden Raum und seine parametrisierenden unabhängigen Koordinaten auf datengesteuerte Weise erkennen, basierend auf Beobachtungen der Sammlung der Dynamik einzelner gekoppelter Agenten? Unsere Aufgabe besteht somit aus zwei Komponenten, die hier beide auf datengesteuerte Weise gelöst werden: (a) entstehende räumliche Koordinaten finden, in denen das Oszillatorverhalten als glatte räumlich-zeitliche Feldentwicklung (eingebettet und) beobachtet werden kann; und (b) sobald diese entstehenden Koordinaten ermittelt wurden, lernen Sie ein Modell der sich entwickelnden Dynamik, wenn möglich in Form einer partiellen Differentialgleichung, die dieses Feld regelt; Das heißt, die (punktweise) zeitliche(n) Ableitung(en) des Feldes/der Felder anhand einiger lokaler räumlicher Ableitungen des Feldes in den entstehenden unabhängigen Variablen approximieren.

Die datengesteuerte Approximation solcher Evolutionsoperatoren für die raumzeitliche Dynamik mithilfe maschineller Lernwerkzeuge (neuronale Netze, Gaußsche Prozesse, vielfältiges Lernen...) ist ein langjähriges Forschungsvorhaben – wir haben unter anderem an der neuronalen netzbasierten Identifizierung gearbeitet von nichtlinearen verteilten Systemen4,5,6; Das Thema boomt derzeit in der Literatur zum maschinellen Lernen, z. B.7,8. Der Clou an unserer Arbeit hier besteht darin, dass der Raum, in dem der Evolutionsoperator (d. h. die PDE) gelernt wird (die unabhängigen Variablen, in denen die räumlichen Ableitungen geschätzt werden), nicht a priori bekannt ist, sondern vielmehr identifiziert wird ein erster Schritt, durch Data Mining/Manifold Learning9,10. Wenn ein solcher Ansatz erfolgreich ist, kann er zu einer drastischen Reduzierung des Rechenaufwands für die Simulation/Vorhersage der kollektiven, grobkörnigen Dynamik führen (im Vergleich zur individuellen Entwicklung jedes Oszillators/Agenten im Ensemble). Dies ist der Fall, wenn das Agentenensemble groß ist, die Menge der Agenten jedoch mit nur wenigen emergenten Parametern parametrisiert werden kann. Diese reduzierte Beschreibung ermöglicht auch Aufgaben (effektive Stabilitäts- und Bifurkationsanalyse, sogar Steuerung und Optimierung), die mit dem feinskaligen Modell nur schwer oder gar nicht durchführbar wären. Noch wichtiger ist, dass diese alternative Beschreibung in Form von Feld-PDEs in aufstrebenden Variablen, sofern sie erfolgreich und verallgemeinerbar genug ist und durch die rechnerische Hin- und Herabbildung zwischen feinen und groben Beschreibungen unterstützt wird, zu einer neuen, grobkörnigeren Interpretation und sogar zu einem besseren Verständnis führen kann Systemdynamik.

Es scheint ein Widerspruch zu bestehen zwischen der Feinskalendynamik, von der wir wissen, dass sie weitreichende Wechselwirkungen beinhaltet (hier eine All-zu-Alle-Kopplung), und dem Erlernen eines Modells, das auf lokalen Wechselwirkungen basiert (hier die Kopplung mit Oszillatoren, die sich in der Nähe verhalten). , durch lokale Verhaltensableitungen in unserem entstehenden Raum). Wir werden in der folgenden Diskussion wiederholt auf dieses Thema zurückkommen, erwähnen jedoch, dass die erlernten Operatoren selbst nicht die wahre Physik sind; Sie sind lediglich eine besondere, sparsame Parametrisierung der Langzeitdynamik (nach anfänglichen Transienten) auf einer viel niedrigerdimensionalen langsamen Mannigfaltigkeit, auf der sich das kollektive Verhalten entwickelt. Es ist die geringe Dimensionalität dieser Mannigfaltigkeit und die Leistungsfähigkeit der Einbettung von Theoremen wie denen von Whitney11 und Takens12, die datengesteuerte Parametrisierungen (im Gegensatz zu physikalisch sinnvollen mechanistischen Interpretationen) der langfristigen Dynamik ermöglichen. Die vielen gekoppelten lokalen Gitterpunkte, die einer Finite-Differenzen-Diskretisierung einer PDE zugrunde liegen, werden hier die Rolle der vielen generischen Beobachter spielen, die die relativ niedrigdimensionale Mannigfaltigkeit parametrisieren, auf der die grobkörnige Langzeitdynamik und die Attraktoren des Systems erwartet werden Leben.

Dieser Ansatz unterscheidet sich grundlegend von neueren Ansätzen, bei denen die Dynamik in einem latenten Raum abhängiger Variablen gelernt wird, typischerweise als Systeme von ODEs (aber auch PDEs mit bekannten unabhängigen Variablen). Beispiele für diese latenten Räume mit abhängigen Variablen sind das Erlernen der Dynamik räumlicher Hauptkomponentenkoeffizienten auf einer Trägheitsmannigfaltigkeit13 oder das Erlernen einer ODE in einem latenten Raum eines Autoencoders unter Verwendung von Wörterbüchern und Sparsity, die die Regularisierung fördern14. Seit frühen Arbeiten (z. B. siehe15 zur Mackey-Glass-Gleichung, auch Refs. 5,6,16) hat das Lernen dynamischer Systeme aus Daten in den letzten Jahren wieder zunehmende Aufmerksamkeit erlangt. Beliebte Beispiele sind (in einer umfangreichen Literatur) die spärliche Identifizierung nichtlinearer dynamischer Systeme mithilfe von Wörterbüchern17, DeepXDE18, neuronalen ODEs19, neuronalen LSTM-Netzwerken20 und PDE-net21. Wie im letzteren wird die entstehende PDE hier aus diskreten Zeitdaten mithilfe eines expliziten Vorwärts-Euler-Zeitintegrationsschritts gelernt (im Endeffekt wird ein ResNet trainiert); Viele andere Ansätze sind ebenfalls möglich (für ein ResNet-ähnliches Runge-Kutta-rekurrentes Netzwerk siehe Ref. 6).

Um Koordinaten zu finden, in denen die PDE-Beschreibung gelernt werden kann, folgen wir der aktuellen Arbeit9,22 und verwenden Diffusionskarten23,24, eine nichtlineare Mannigfaltigkeits-Lerntechnik. In unserem agentenbasierten Beispiel veranschaulichen wir zunächst unseren Ansatz an gekoppelten Stuart-Landau-Oszillatoren.

Jeder Oszillator k = 1, …, N wird durch eine komplexe Variable Wk dargestellt und über den Ensemble-Durchschnitt mit allen anderen Oszillatoren gekoppelt. Die Fernwechselwirkung ist tatsächlich global, da die Kopplung von allen an alle erfolgt. Wenn jeder Agent entkoppelt ist, erfährt er eine periodische Bewegung mit seiner eigenen intrinsischen Frequenz ωk, die von Agent zu Agent unterschiedlich ist, wodurch das Ensemble heterogen wird.

Angenommen, wir initialisieren ein Ensemble von N = 256 Oszillatoren mit Werten Wk auf einem regelmäßigen Gitter, wie in Abb. 1(a) gezeigt. Die Farbkodierung korreliert dabei mit dem Imaginärteil von Wk. Integriert man diese Anfangsbedingung mit Gl. (1) mit der Kopplungskonstanten K = 1,2 und intrinsischen Frequenzen ωk, die gleichmäßig innerhalb des Intervalls \(\left[-1,5,1,9\right]\) verteilt sind, ergibt die Dynamik in Abb. 1(b): obwohl das Verhalten recht unregelmäßig erscheint Am Anfang bildet es schnell eine zylinderartige Struktur. Beachten Sie, dass die Farbcodierung immer noch dieselbe ist. Nach dem Abklingen der Transienten erscheinen die Agenten auf dieser Struktur unregelmäßig angeordnet, wenn sie entsprechend ihrer Initialisierung gefärbt sind. Siehe die Vergrößerung des oberen Teils, wie in Abb. 1(c) dargestellt. Mithilfe vielfältigen Lernens werden wir zeigen, dass es möglich ist, eine Parametrisierung der Agenten (eine andere Färbung) zu finden, bei der die Dynamik geordneter und regelmäßiger erscheint. Dies wird durch die neue Farbcodierung des letzten Schnappschusses in Abb. 1(c) und den neu eingefärbten Attraktor in Abb. 1(d) gezeigt. Wenn wir die Zeitreihen der Agenten in der ursprünglichen Farbkodierung i (Abb. 1(e)) und der neuen Farbkodierung ϕi (Abb. 1(f)) gegenüberstellen, argumentieren wir tatsächlich, dass die Dynamik in einem Raum regelmäßiger erscheint parametrisiert durch ϕi, was die Möglichkeit nahelegt, dass die Lösung durch eine PDE mit ϕi und Zeit als unabhängigen Variablen beschrieben werden kann.

a Anfangszustand des Stuart-Landau-Ensembles, Gl. (1), gefärbt mit aufsteigendem Imaginärteil von Wk. b Trajektorien, die durch Integration der Anfangsbedingungen von (a) mit derselben Farbcodierung wie in (a) erhalten wurden. Der letzte Schnappschuss ist durch schwarze Punkte markiert. c Vergrößern Sie den oberen Teil von (b), wobei der letzte Schnappschuss durch schwarze Punkte markiert ist. Darüber ist der letzte Schnappschuss farblich gekennzeichnet, basierend auf der Reihenfolge der Oszillatoren entlang der Kurve zu diesem Zeitpunkt. d Vergrößern Sie den oberen Teil von (b), jetzt jedoch mit der neuen Farbcodierung. e Trajektorien des Realteils des Wk, geordnet nach ihren Anfangswerten \({{{{{{\rm{Im}}}}}}}}W\). f Trajektorien des Realteils des Wk, geordnet nach der neuen Farbkodierung ϕi wie in (d). (Das Finden von ϕi wird im Text besprochen).

Der Rest dieses Artikels ist wie folgt aufgebaut: Zunächst veranschaulichen wir unseren Ansatz durch eine Karikatur, wobei wir mit einer bekannten PDE in einer vordefinierten räumlichen Variablen beginnen. Wir beobachten die Dynamik an einer Reihe von Netzpunkten in diesem bekannten Raum, verschlüsseln dann aber absichtlich die Zeitreihen selbst und verbergen so die räumlichen Koordinaten des Ortes, an dem das Verhalten beobachtet wurde. Wir erhalten eine prädiktive PDE-Beschreibung in einer erlernten auftauchenden räumlichen oder Heterogenitätskoordinate \(\tilde{x}\), die durch Data Mining dieser verschlüsselten Verhaltensweisen entdeckt wurde. Wir bestätigen dann, dass diese entstehende Koordinate eins zu eins mit dem (verworfenen) physischen Ort x der ursprünglichen Netzpunkte ist.

Zurück zu unserem global gekoppelten Oszillatorensemble zeigen wir, wie man eine intrinsische Raumkoordinate extrahiert und lernen eine PDE-Beschreibung in dieser Parametrisierung und Zeit. Anschließend untersuchen wir parametrische Abhängigkeiten dieser PDE: Wir untersuchen die Dynamik bei Parameterwerten, die eine (kollektive) Hopf-Bifurkation einschließen. Anhand dieser Daten zeigen wir, dass das Erlernen einer PDE mit einer zusätzlichen Eingabe für einen Parameter den Ort und die Art von Bifurkationen in diesem Parameter erfassen kann.

Dann gehen wir über eine einzelne Emergenzraumdimension hinaus: Für ein biologisch motiviertes mathematisches Modell gekoppelter Neuronen vom Hodgkin-Huxley-Typ, das zur Beschreibung der Dynamik im Prä-Bötzinger-Komplex des Gehirns verwendet wird, entdeckt Data Mining, dass die Beschreibung des Agentenverhaltens erfolgt ist nun zweidimensional. Wir lernen erneut eine PDE, die die Agentendynamik beschreibt – jetzt in zwei entstehenden Raumkoordinaten und Zeit.

Wir schließen mit einer Diskussion des Ansatzes und seiner Mängel sowie der unserer Meinung nach offenen Fragen und Richtungen für zukünftige Forschung. Wir diskutieren auch die Erklärbarkeit der gelernten Emergenzkoordinate(n) für solche agentenbasierten Systeme. Details zu den Algorithmen und numerischen Methoden sind im Abschnitt Methoden zusammengefasst. Der Code zur Reproduktion der Ergebnisse ist unter https://github.com/fkemeth/emergent_pdes verfügbar.

Für eine anschauliche Karikatur verwenden wir eine PDE mit einer bekannten unabhängigen Raumvariablen, bevor wir zu unserem Beispiel für gekoppelte Agenten zurückkehren. In diesem Fall haben wir eine bekannte unabhängige Raumkoordinate x, aber wir werden sie selbst zufällig verschlüsseln, um zu überprüfen, ob unsere Algorithmen sie auf sinnvolle Weise wiederherstellen können. Betrachten Sie die komplexe 1D-Ginzburg-Landau-Gleichung, eine PDE für die Entwicklung eines komplexen Feldes W(x, t) in einer räumlichen Dimension \(x\in \left[0,L\right]\), definiert durch

mit reellen Parametern c1 = 0, c2 = −3, L = 80 und hier periodischen Randbedingungen. Wir integrieren dieses System mithilfe einer pseudospektralen Methode mit exponentiellem Zeitschritt25. Dies führt zu einer räumlich-zeitlichen chaotischen Dynamik, der sogenannten räumlich-zeitlichen Intermittenz, wobei die räumlich-zeitliche Entwicklung in Abb. 2(a) dargestellt ist. Ein weiteres Beispiel mit c1 = 1, c2 = 2 und No-Flux-Randbedingungen (Neumann) mit periodischer Dynamik finden Sie im Abschnitt „Methoden“.

a Der Realteil des komplexen Feldes W(x, t), erhalten aus der Simulation von Gl. (2) mit N = 256 Maschenpunkten nach Abklingen der anfänglichen Transienten. b Das Entfernen der räumlichen Beschriftung ergibt eine Sammlung von N Zeitreihen, die hier in zufälliger Reihenfolge dargestellt werden. c Unter Verwendung mannigfaltigen Lernens (hier Diffusionskarten) stellt man fest, dass es zwei Modi ϕ1 und ϕ2 gibt, die diese Zeitreihen parametrisieren. Jeder Punkt entspricht einer der N Zeitreihen und ist durch seinen verschlüsselten räumlichen Ort x gefärbt. d Nachdem wir die Einbettung erhalten haben, können wir eine emergente Koordinate \(\tilde{x}\) einführen, die den von ϕ1 und ϕ2 aufgespannten Kreis parametrisiert. e Die Realteile der durch \(\tilde{x}\) parametrisierten Zeitreihe. f Realteil von Simulationsvorhersagen für die komplexe Variable W ausgehend von einer Anfangsbedingung in unserem Testsatz unter Verwendung des partiellen Differentialgleichungsmodells, das mit \(\tilde{x}\) als räumlicher Variable und einem periodischen Bereich gelernt wurde.

Zur Integration wird die Raumkoordinate x in N = 256 äquidistante Punkte xk diskretisiert. Gl. (2) ergibt somit N (hier komplexe) Zeitreihen Wk(t) an jedem Maschenpunkt xk. Wir können uns das Verhalten an jedem Netzpunkt als das Verhalten eines Agenten in einem Ensemble interagierender Agenten vorstellen. Angenommen, die xk-Beschriftung jedes Agenten ist nicht verfügbar (vgl. Abb. 2(b), wo die Agenten durch einen Zufallsindex i parametrisiert sind); Ist es möglich, eine kollektive Beschreibung der Dynamik in diesen Zeitreihen auf der Grundlage einer datengesteuerten, entstehenden räumlichen Variablen und in Form einer partiellen Differentialgleichung zu finden, die partielle Ableitungen dieser Variablen beinhaltet?

Dies erreichen wir, indem wir eine intrinsische unabhängige Koordinate aus den Zeitreihendaten extrahieren. Wie in Ref. vorgeschlagen. 9 verwenden wir Diffusionskarten (jede der verschlüsselten Zeitreihen ist ein Datenpunkt), um Koordinaten zu extrahieren, die das Ensemble der Zeitreihen parametrisieren, siehe Methoden. Es kann qualitativ hilfreich sein (auch wenn wir einen nichtlinearen Mannigfaltigkeitslernalgorithmus verwenden), sich dies so vorzustellen, als würde man eine Hauptkomponentenanalyse (PCA) für das Ensemble von Zeitreihen durchführen (jede davon ist ein Datenpunkt) und dann die führende PCA-Komponente beibehalten als entstehende Raumkoordinate. Diese entstehende Koordinate wird verwendet, um einen nützlichen Einbettungsraum zu parametrisieren, in dem eine PDE gelernt werden kann.

Für die Zeitreihendaten in Abb. 2(b) finden wir zwei unabhängige Diffusionsmodi ϕ1 und ϕ2, die einen Kreis im Diffusionskartenraum aufspannen, der in Abb. 2(c) dargestellt ist. Dieser Kreis ist eins zu eins mit dem ursprünglichen periodischen Bereich. Durch die Verwürfelung befinden sich die Zeitreihen Wk jedoch an zufälligen Positionen entlang dieses Kreises (siehe Farbcodierung in Abb. 2 (c)). Auch ohne Kenntnis der räumlichen Lage der Netzpunkte können wir eine datengesteuerte Koordinate \(\tilde{x}\) extrahieren, die den Kreis parametrisiert (siehe Farbcodierung in Abb. 2(d)) und loslegen Lernen Sie eine PDE mit dieser Koordinate als räumlicher Dimension. Die auf diese Weise parametrisierten Daten sind in Abb. 2 (e) dargestellt. Beachten Sie, dass \(\tilde{x}\) eins zu eins mit x ist, aber nicht mit diesem identisch ist. Insbesondere ist es aufgrund der Nichteindeutigkeit der Parametrisierung des periodischen Bereichs verschoben (siehe die Verschiebungen in Abb. 2(a) und (e)). Wir machen uns nun daran, eine PDE-Beschreibung zu lernen, die auf partiellen Ableitungen in \(\tilde{x}\) basiert.

wobei f durch ein vollständig verbundenes neuronales Netzwerk dargestellt wird. Einzelheiten zur Architektur des neuronalen Netzwerks und zur Datenerfassung finden Sie unter Methoden. Beim Erlernen einer solchen PDE in \(\tilde{x}\) treten eine Reihe von Problemen auf:

Da \(\tilde{x}\) im Allgemeinen nicht identisch mit x ist, haben die Trajektorien Wk nicht den gleichen Abstand. Um eine Finite-Differenzen-Approximation von \({\partial }^{n}W/\partial {\phi }_{1}^{n}\) zu berechnen, interpolieren wir die \(\tilde{x}\)-parametrisierten Werte Daten unter Verwendung kubischer Splines und Stichprobe W an N = 256 äquidistanten Punkten im Intervall \(\left[-\pi ,\pi \right]\).

PDEs definieren Eigenschaften von Funktionen in unendlichdimensionalen Räumen; Wir können nicht den gesamten Zustandsraum abtasten, und daher kennt unsere erlernte Ersatz-PDE nicht die Dynamik in allen Richtungen des Zustandsraums. Verschiedene in den letzten Jahren vorgeschlagene Techniken (insbesondere beim Nachahmungslernen) versuchen, dynamische Ersatzsysteme zu regulieren. Dazu gehören die Kontraktionstheorie26,27,28,29 und konvexe neuronale Netze30,31. Sie beruhen auf der Existenz einer Lyapunov-Funktion; Andere Ansätze umfassen die Jacobi-Regularisierung32,33. Allerdings sind sie meist mit zusätzlichen Verlusttermen verbunden oder rechenintensiv.

Hier erfassen wir mehrere Transienten in Richtung des Attraktors als Trainingsdaten und regulieren bei Bedarf die Ausgabe der erlernten PDE wie folgt: Mithilfe der Simulationsdaten erstellen wir eine verkürzte Singularwertzerlegung (SVD) basierend auf allen erfassten Transienten. Während der Inferenz filtern wir den durch die Integration des neuronalen Netzwerkausgangs erhaltenen Zustand, indem wir ihn auf diesen verkürzten SVD-Unterraum zurückprojizieren und so die vorhergesagten Trajektorien dort beibehalten.

Die Integration aus einem anfänglichen Schnappschuss unter Verwendung der gelernten PDE f in die entstehende Variable \(\tilde{x}\) ist in Abb. 2(f) dargestellt. Beachten Sie die enge Übereinstimmung zwischen vorhergesagter und tatsächlicher Dynamik, vgl. Abb. 2(e).

Im nächsten Abschnitt werden wir den gleichen Ansatz verfolgen, aber jetzt für ein System, bei dem keine ursprüngliche Raumkoordinate wiederhergestellt werden kann.

Erinnern Sie sich an das ursprüngliche Problem, Gl. (1) eines Ensembles mittelwertgekoppelter Stuart-Landau-Oszillatoren,

mit k = 1, …, N und der realen Kopplungskonstante K. Die Eigenfrequenzen ωk werden linear im Intervall \(\left[-\gamma +{\omega }_{0},\gamma +{\omega }_{0}\right]\). Abhängig von den Parametern K und γ ist bekannt, dass eine Vielzahl unterschiedlicher dynamischer Phänomene auftreten. Beispiele reichen von frequenzstarren Schwingungen und quasiperiodischer Dynamik bis hin zu Chaos und Oszillatortod. Siehe Ref. 34 für eine detailliertere Diskussion. Hier legen wir K = 1,2, γ = 1,7 und ω0 = 0,2 fest – was zu periodischen, synchronisierten Schwingungen führt: Die Oszillatoren im Ensemble schwingen mit einer gemeinsamen Frequenz und behalten eine konstante gegenseitige Phasendifferenz bei. Der reale Teil dieser Dynamik ist in Abb. 3 (a) dargestellt, parametrisiert durch ϕ1, den ersten unabhängigen Diffusionskartenmodus. Was die komplexe Ginzburg-Landau-Gleichung betrifft, erfassen wir nicht nur Daten zum Attraktor, sondern auch zu Transienten in seiner Nachbarschaft, die sich ihm nähern. Man kann sich vorstellen, dass diese langfristige Dynamik auf einer anziehenden langsamen Mannigfaltigkeit liegt; siehe Methoden.

a Realteil der komplexen Variablen W für ein System von N = 512 Oszillatoren, parametrisiert durch den ersten emergenten Diffusionsmodus ϕ1. b Dynamik, die aus dem erlernten Modell durch Integration ausgehend von demselben anfänglichen Schnappschuss wie in (a) erhalten wird. c Kleinster euklidischer Abstand d in \({{\mathbb{C}}}^{N}\) bei jedem Zeitschritt zwischen den Transienten und dem wahren Attraktor für die wahre PDE (blau) und die gelernte PDE (orange). d Die erste Diffusionsmode ϕ1 als Funktion der Eigenfrequenzen ω des Oszillatorensembles.

Die Vorhersagen aus einer Anfangsbedingung für den Grenzzyklus unter Verwendung des erlernten PDE-Modells sind in Abb. 3(b) dargestellt und ähneln stark der tatsächlichen Dynamik, wie in Abb. 3(a) dargestellt. Beachten Sie hierbei, dass aufgrund der Verformung der Raumkoordinate die Randbedingungen in der transformierten Variablen möglicherweise nicht mehr offensichtlich sind. Wir lernen f daher nur im Inneren des ϕ1-Gebiets. Wenn wir die erlernte PDE simulieren, stellen wir (als Randbedingungen) nach Bedarf einen schmalen Raum-Zeit-Datenkorridor bereit. Die Einführung solcher endlichen Korridorrandbedingungen ist besonders wichtig für solche agentenbasierten Systeme wie hier betrachtet, bei denen die Form effektiver Randbedingungsformeln (wie Dirichlet, Neumann oder Robin) im entstehenden Raum nicht a priori bekannt ist. Das Modell erfasst auch die Dynamik, die sich dem Grenzzyklus nähert. Dies lässt sich veranschaulichen, indem man die Anfangsbedingungen auf der langsamen Mannigfaltigkeit, aber außerhalb des anziehenden Grenzzyklus integriert. Wir haben eine solche Anfangsbedingung aus unserem Testsatz mithilfe von Forward Euler und dem vollständigen ODE-System, Gl., integriert. (1) sowie das gelernte Emergenz-PDE-Modell. Der kleinste euklidische Abstand in \({{\mathbb{C}}}^{N}\) zwischen diesen Transienten und dem wahren Attraktor zu jedem Zeitschritt ist in Abb. 3(c) dargestellt. Beachten Sie, dass sowohl die wahren als auch die erlernten Transienten mit einer ähnlichen Geschwindigkeit zum Grenzzyklus konvergieren und die erlernte PDE-Trajektorie das Verhalten des gesamten ODE-Systems gut annähert. Um eine physikalische Bedeutung der Emergenzkoordinate ϕ1 zu erhalten, zeichnen wir sie als Funktion der Eigenfrequenz ω der Oszillatoren in Abb. 3(d) auf. Es wird deutlich, dass die beiden Größen eins zu eins sind, analog zum (\(\tilde{x}\), x)-Paar im obigen komplexen Ginzburg-Landau-Beispiel: Unser Data Mining hat die Heterogenität des Ensembles entdeckt und verwendet es zur Parametrisierung der Dynamik. Wenn man die Gleichungen kennt und weiß, wie ωk in sie eingeht, könnte man analytisch versuchen, Ott-Antonsen-Gleichungen (für Phasenoszillatoren) im ω-Raum3 abzuleiten. Wir kennen weder die Gleichungen noch das ωk (und die Oszillatoren sind obendrein keine Phasenoszillatoren); Hier ist alles datengesteuert.

Nachdem es gelungen ist, den Attraktor und seine benachbarte Dynamik für einen einzelnen Parameterwert zu erfassen, liegt es nahe, zu untersuchen, ob die erlernte PDE auch Bifurkationen erfassen kann: qualitative Änderungen in der Dynamik bei der Änderung von Systemparametern. Insbesondere für γ = γH ≈ 1,75 erfährt das Stuart-Landau-Ensemble eine kollektive Hopf-Verzweigung, bei der die Amplitude der in Abb. 3 gezeigten Schwingungen verschwindet. Für γ > γH ergibt sich ein stabiler Fixpunkt, in dem alle Einzelamplituden der jeweiligen Oszillatoren Null sind, was auch Oszillatortod genannt wird35. Wir sammeln nun Daten für das Training bei mehreren γ-Werten, die linear im Intervall \(\left[1.7,1.8\right]\) auf beiden Seiten der Hopf-Verzweigung verteilt sind; Der γ-Wert wurde als zusätzliche Eingabe für das Modell bereitgestellt. Wir haben erneut entlang der langsamen stabilen Eigenrichtungen jedes Attraktors gestört (siehe Methoden) und Transienten gesammelt, die das Modell über die Dynamik in der Nähe informieren. Wir haben dann eine PDE der Form gelernt

Die gelernte Dynamik, ausgehend von einem anfänglichen Oszillator-Ensemble-Profil und integriert unter Verwendung des gelernten Modells, ist in Abb. 4 für γ < γH (linker Einschub) und für γ > γH (rechter Einschub) dargestellt. Wir beobachten die transiente Dynamik, die sich dem Fixpunkt W = 0 ∀ ω für γ = 1,8 nähert.

Insbesondere integrieren wir aus zufälligen Anfangsbedingungen nahe dem für T = 10000 dimensionslosen Zeiteinheiten festgelegten Grenzwert für das Stuart-Landau-Ensemble (blaue Kreise) und die erlernte PDE (orangefarbene Kreuze). Eine mittlere Amplitude nahe Null zeigt Konvergenz zum Fixpunkt W = 0 ∀ ω an, wohingegen ein 〈∣Wlimit∣〉 ungleich Null auf Schwingungen mit endlicher Amplitude hinweist. Die Farbkodierungen der Einschübe zeigen den Realteil der komplexen Variablen W, der durch Integration einer Anfangsbedingung nahe dem Fixpunkt Wk = 0 mit γ = 1,8 (rechter Einschub) und nahe dem Grenzzyklus mit γ = 1,7 (linker Einschub) erhalten wird ) unter Verwendung des erlernten Modells und unter Verwendung expliziter Vorwärts-Euler für γ = 1,8 > γH.

Um den Ansatz weiter zu validieren, beginnen wir mit zufälligen Anfangsbedingungen im langsamen Eigenraum des Attraktors bei verschiedenen γ-Werten unter Verwendung des Stuart-Landau-Systems, Gl. (1) sowie das erlernte PDE-Modell. Für beide Modelle zeichnen wir einen Schnappschuss nach T = 10000 dimensionslosen Zeiteinheiten auf und berechnen dessen durchschnittliche Amplitude 〈∣Wlimit∣〉. Eine durchschnittliche Amplitude gleich Null zeigt dann an, dass die Anfangsbedingung unter dem jeweiligen Modell zum Fixpunkt W = 0 ∀ ω konvergiert, wohingegen eine Amplitude ungleich Null eine Konvergenz zum (kollektiven/räumlich-zeitlichen) Grenzzyklus anzeigt. Die resultierenden 〈∣Wlimit∣〉-Werte für verschiedene γ sind in Abb. 4 dargestellt, mit blauen Kreisen für die ursprüngliche Dynamik und orangefarbenen Kreuzen für die erlernte Dynamik. Die Hopf-Verzweigung äußert sich in einem plötzlichen Anstieg der Amplitude bei Variation von γ. Beachten Sie die enge Übereinstimmung zwischen dem erlernten Modell und dem ursprünglichen Oszillatorsystem: Beide konvergieren zu einem festen Punkt für γ > γH ≈ 1,75 und zum Grenzzyklus für γ < γH ≈ 1,75.

Der Ansatz lässt sich leicht auf Situationen mit mehr als einer auftauchenden räumlichen Dimension erweitern, d. h. auf Probleme, bei denen mehr als eine Diffusionskartenkomponente erforderlich ist, um die inhärente Heterogenität des Agentenverhaltens zu parametrisieren. Als Beispiel betrachten wir ein System gekoppelter Neuronen vom Hodgkin-Huxley-Typ, eine Karikatur zur Modellierung der Dynamik im Prä-Bötzinger-Komplex36,37,38. Der Zustand des k-ten Neurons (von insgesamt 1024 Neuronen) wird durch eine Kanalvariable hk und eine Spannungsvariable Vk angegeben. Darüber hinaus sind die Neuronen so gekoppelt, dass sie ein zufälliges Netzwerk vom Chung-Lu-Typ bilden. Das bedeutet, dass die Anzahl der Verbindungen jedes Neurons von Neuron zu Neuron unterschiedlich ist. Darüber hinaus unterscheiden sich die Neuronen im Wert des kinetischen Parameters \({I}_{{{{{{{{\rm{app}}}}}}}}}^{k}\) in den Gleichungen. Somit weist das Modell zwei heterogene Parameter auf: eine strukturelle Heterogenität, die sich aus der Netzwerktopologie ergibt, und eine intrinsische Heterogenität durch den angelegten Strom \({I}_{{{{{{{{\rm{app}}}}}}} }}^{k}\). Einzelheiten zu den dynamischen Gleichungen des Modells finden Sie im Abschnitt „Methoden“.

Abb. 5 (a) zeigt die Dynamik des Modells für N = 1024 Neuronen. Die schwarzen Linien zeigen die Flugbahnen einer Teilmenge dieser Neuronen an, während die farbigen Punkte Schnappschüsse markieren. Beachten Sie, dass das System zeitlich periodisch ist, die Neuronen jedoch bei jedem Zeitschritt verteilt sind.

a Trajektorien des Ensembles und fünf Schnappschüsse (farbige Punkte) in der V, h-Ebene eines Ensembles von 1024 Neuronen. Zur besseren Übersicht sind nur 64 Trajektorien dargestellt. b Die beiden Emergenzkoordinaten ϕ1 und ϕ2. Durch die Farbkodierung mit der intrinsischen Heterogenität \({I}_{{{{{{{\rm{app}}}}}}}}}^{k}\) kann man beobachten, dass \({I }_{{{{{{{{\rm{app}}}}}}}}}}^{k}\) ist eine Funktion der entstehenden Raumkoordinaten. Das rechteckige Gitter zeigt den Raum an, in dem wir eine effektive PDE erlernen wollten. c Schnappschuss von V bei t = 10, erhalten durch Anpassen der Simulationsdaten an das in (b) gezeigte Gitter. d Momentaufnahme von V bei t = 10, vorhergesagt durch das erlernte PDE-Modell. e Raum-Zeit-Diagramm der Entwicklung von V am Schnitt ϕ1 = 0, wie in (c) angegeben. f Vorhersagen \(\hat{V}\) der raumzeitlichen Entwicklung von V bei ϕ1 = 0. Die weißen Linien markieren die Grenzen der Randbedingungen.

In Abb. 5(b) sind die entstehenden Koordinaten für eine solche Dynamik dargestellt, die durch die Durchführung von Diffusionskarten für die Sammlung simulierter Zeitreihen ermittelt wurden. Beachten Sie, dass es zwei unabhängige Richtungen gibt, ϕ1 und ϕ2, die die Neuronen parametrisieren. Durch Färben von ϕ1 und ϕ2 mit der intrinsischen Heterogenität \({I}_{{{{{{{{\rm{app}}}}}}}}}}^{k}\) kann man diesen einen entstehenden Raum beobachten Die Richtung korreliert mit diesem Parameter. Man kann außerdem zeigen, dass die zweite Richtung ungefähr dem Konnektivitätsgrad jedes Neurons im Netzwerk entspricht, also der Anzahl anderer Neuronen, mit denen es direkt verbunden ist9.

Unser Beitrag in dieser Arbeit besteht darin, eine effektive PDE in einem rechteckigen Intervall im entstehenden Raum zu lernen, wie durch das in Abb. 5(b) gezeigte Raster dargestellt. Dies wird erreicht, indem Polynome an die Daten angepasst und auf den regulären Gitterpunkten interpoliert werden, siehe Methoden. Eine Momentaufnahme von V bei t = 10 ist in Abb. 5 (c) dargestellt. Mithilfe der interpolierten Daten entlang des Attraktors und einiger Transienten lernen wir eine PDE, wie in den vorherigen Abschnitten beschrieben. Allerdings besteht die Eingabe in das neuronale Netzwerk nun aus partiellen Ableitungen der h- und V-Felder in Bezug auf ϕ1 und ϕ2, die unter Verwendung endlicher Differenzen erhalten werden. Mithilfe des Modells kann man dann die Dynamik eines bisher ungesehenen ersten Schnappschusses vorhersagen. Eine Momentaufnahme von V bei t = 10, die durch Integration der gleichen Anfangsbedingung wie in Abb. 5(c) unter Verwendung der erlernten PDE und des Vorwärts-Euler erhalten wurde, ist in Abb. 5(d) dargestellt. Die weißen Linien zeigen dabei die Ausdehnung der dünnen Randkorridore an, die bei der Integration anstelle von Randbedingungen vorgesehen sind. In Abb. 5(e) ist die Raum-Zeit-Dynamik von V entlang des eindimensionalen Schnitts ϕ1 = 0 dargestellt, wie durch die gestrichelte Linie in Abb. 5(c) dargestellt. Die vorhergesagte Dynamik von V, \(\hat{V}\), entlang desselben Schnitts im Emergenzraum ist in Abb. 5(f) dargestellt. Beachten Sie die enge Übereinstimmung zwischen der tatsächlichen Dynamik und den Vorhersagen des gelernten Modells.

Wir haben gesehen, dass es möglich ist, ein Vorhersagemodell für die Dynamik gekoppelter Agenten zu erlernen, das auf lokalen partiellen Ableitungen in Bezug auf eine (oder mehrere) entstehende, datengesteuerte räumliche Variable(n) und die Zeit basiert, d. h. in der Form einer partiellen Differentialgleichung. Als Beispiel haben wir ein Ensemble mittelwertgekoppelter Stuart-Landau-Oszillatoren untersucht, wobei jeder Oszillator eine Eigenfrequenz ωk hat. Durch vielfältiges Lernen (hier Diffusionskarten) konnten wir eine intrinsische Koordinate ϕ1 aus Zeitreihensegmenten dieser Oszillatoren extrahieren. Ausgehend von nur einem einzigen Parameterwert γ = 1,7 < γH deuten unsere Ergebnisse darauf hin, dass ein Modell, das auf einigen partiellen Ableitungen nach ϕ1 basiert, in der Lage ist, die kollektive Dynamik in der langsamen Mannigfaltigkeit und im letzten anziehenden Grenzzyklus genau zu erfassen. Diese Ergebnisse erstrecken sich auf den Fall, dass Daten für unterschiedliche γ-Werte auf beiden Seiten des Hopf-Bifurkationspunkts γH abgetastet werden. Die erlernte PDE modellierte dann erfolgreich die langsamen Transienten entweder in Richtung des stabilen Grenzzyklus oder des stabilen Fixpunkts, je nach Parameter. Anschließend erweiterten wir unsere Analyse auf ein biologisch motiviertes Beispiel, bei dem es sich bei den Wirkstoffen um Neuronen vom Hodgkin-Huxley-Typ handelt. Dort fanden wir eine zweidimensionale Einbettung der Zeitreihe und lernten anschließend eine PDE in diesem zweidimensionalen Emergenzraum.

Für eine erfolgreiche Umsetzung unseres Ansatzes verwendeten wir eine systematische Methode zur Probenahme von Trainingsdaten: Von einem gegebenen Grenzwertsatz aus führen wir eine Störung entlang der langsamen stabilen Mannigfaltigkeit durch und nehmen Transienten auf, die sich dem Attraktor nähern. Diese Stichprobenstrategie wird durch Schätzungen der langsamen stabilen Richtungen (und ihrer Zeitskalen) durch das linearisierte System Jacobi unterstützt, die dabei helfen, aussagekräftige Anfangsbedingungen zu erzeugen. Aufgrund der Schnell-Langsam-Natur der Dynamik haben wir herausgefunden, dass ein praktischer Start an einer beliebigen Stelle und eine kurze Integration die Dynamik in die Nähe dieser langsamen Mannigfaltigkeit bringt.

Dies sollte auch bei der Sammlung experimenteller Daten der Fall sein (wobei kurze anfängliche Transienten zur langsamen Mannigfaltigkeit verworfen werden). Offensichtlich kann nicht erwartet werden, dass das Modell das richtige asymptotische Verhalten in Dimensionen lernt, in denen es keine Daten gesehen hat. Dies kann zu Instabilitäten führen, wenn versucht wird, die langfristige Dynamik des Systems vorherzusagen. Wir haben dieses Problem durch Filterung gelöst, insbesondere durch eine verkürzte SVD-Regularisierung. Aus den Trainingsdaten wurde eine SVD-Basis erstellt, und während der Inferenz haben wir gefiltert, indem wir die Vorhersagen auf dieser Basis projiziert haben. Die vorhergesagte Dynamik kann den von der verkürzten SVD umspannten Raum nicht verlassen. Dadurch wird ein zusätzlicher Hyperparameter in das Modell eingeführt: die Dimension, nach der die für die Filterung verwendete SVD abgeschnitten werden soll. Zu viele Dimensionen können zu einer Instabilität der Vorhersagen führen (fehlende Trainingsdaten); zu wenig führt zu schlechter Darstellung und verzerrter Dynamik. Unser Schwellenwert wurde empirisch durch Versuch und Irrtum ausgewählt; Das Thema ist eine genauere Untersuchung wert. Es können auch andere Ansätze verwendet werden, wie z. B. Hyperviskosität im erlernten PDE-Modell39,40,41, wodurch höherfrequente Komponenten effektiv gedämpft werden.

Eine wichtige Frage bei der Entscheidung, welches PDE-Modell gelernt werden soll, ist, wie viele entstehende räumliche Ableitungen man in die rechte Seite der PDE einbeziehen muss. Mit anderen Worten, wie kann man entscheiden, wann ∂W/∂t gut durch W und seine Ableitungen in Bezug auf ϕ1 angenähert wird? Für die Gaußsche Prozessregression helfen neuere Arbeiten mit der automatischen Relevanzbestimmung, dieses Problem zu lösen42. In unserem Fall haben wir erneut empirisch entschieden, durch Versuch und Irrtum; Eine gründlichere Untersuchung muss eindeutig folgen. Darüber hinaus stellen die Frage der Randbedingungen im entstehenden Raum (hier haben wir schmale Grenzkorridore verwendet) sowie die Frage, was für einen datengesteuert identifizierten Betreiber ein gut gestelltes Problem darstellt, wichtige (und herausfordernde) Fragen dar, die es zu verfolgen gilt; Wir erwähnen hier die Möglichkeit, den Ansatz des Baby-Bade-Systems in43 zu nutzen.

Abb. 4(b) zeigt, dass das erlernte Modell qualitative Änderungen in der Dynamik erfasst, wenn ein Systemparameter geändert wird, hier eine Hopf-Verzweigung von einem festen Punkt für γ > γH zu kollektiven Schwingungen für γ < γH. Quantitativer ausgedrückt berichteten wir über das führende Spektrum der Linearisierung des am Fixpunkt ausgewerteten Modells. Dies wurde durch automatische Differenzierung des neuronalen Netzwerkmodells in Bezug auf seine Eingaben erreicht. Solche Berechnungen können mehr Licht auf die Gemeinsamkeiten und Unterschiede agentenbasierter Simulationen und ihrer entstehenden PDE-Beschreibungen werfen. In diesem Artikel haben wir uns auf ein bestimmtes Regime im Parameterraum konzentriert. Unser Ansatz lässt sich jedoch leicht auf komplexere Dynamiken erweitern, die in einem solchen Stuart-Landau-Ensemble bekannt sind; In den Videos SI1 und SI2 sind informative Beispiele enthalten.

Historisch gesehen ist bekannt, dass physikalische Phänomene, die im Feinmaßstab durch atomistische/stochastische/agentenbasierte Simulationen modelliert werden, häufig mithilfe geschlossener partieller Differentialgleichungen im Hinblick auf einige ihrer kollektiven Observablen (z. B. Momente der Teilchenverteilung, z. B als Agentendichte). Unser Ansatz wird nützlich sein, wenn wir glauben, dass solche effektiven, kollektiven PDE-Modelle im Prinzip existieren, die für ihre Niederschrift erforderlichen Abschlüsse jedoch nicht bekannt sind. Es kann auch nützliche Ergebnisse in Regimen liefern, in denen die starken mathematischen Annahmen, die erforderlich sind, um nachweislich explizite Abschlüsse zu erhalten, gelockert werden können. Dies ist ein Bereich, in dem gleichungsfreie Multiskalen-Numerik verwendet wurde, um die Gleichungen zu lösen, ohne sie aufzuschreiben, und in dem vielfältiges Lernen verwendet wurde, um diese Lösung sogar frei von (abhängigen) Variablen durchzuführen, d. h. im Hinblick auf unbekannte abhängige Variablen a priori, aber durch Data Mining detaillierter Simulationen aufgedeckt (siehe zum Beispiel die Diskussion in44). Alle wissenschaftlichen Berechnungen im latenten Raum (siehe z. B. 45 und 46) fallen in diese Klasse.

Was in der vorliegenden Studie anders und spannend ist, ist die Ausweitung dieses Ansatzes auf Probleme, bei denen es keine offensichtlichen unabhängigen räumlichen Variablen gibt – Dynamik gekoppelter Oszillatoren, Dynamik auf und von Netzwerken, Dynamik von Systemen interagierender Systeme, wo der richtige Raum für die Modellierung vorhanden ist Das Problem ist a priori nicht bekannt. Das Schreiben von Modellen in einem solchen entstehenden Aktivitätsraum mit entstehenden Raum- und sogar entstehenden Zeitkoordinaten9 kann für den Modellierer eine nützliche Methode werden: ein Werkzeug, das den Werkzeugkasten für die Verknüpfung von domänenwissenschaftlichem Wissen auf detaillierter Ebene mit maschinellem/vielfältigem Lernen erweitert, um nützliche, Vorhersagemodelle.

Hier haben wir ein Modell gewählt, das auf lokalen Deskriptoren basiert, lokal im entstehenden Raum. Man kann über Kontexte spekulieren, in denen eine solche lokale Beschreibung von Nutzen sein könnte. Es ist sicherlich menschlich sparsamer/kompakter aufzuschreiben als die detaillierte Liste aller Einheiten und aller Interaktionen. Es kann auch praktisch sein, wenn man Vorhersagen mit begrenztem Speicher treffen muss (sozusagen begrenzter schneller CPU-Speicher). Wir müssen nicht wissen, was jede Einheit tut – wir betrachten die Aktivität ähnlicher Einheiten (die bereits in der Nähe im entstehenden Raum eingebettet sind) und treffen Vorhersagen auf der Grundlage der Glätte (mathematisch ausgedrückt durch Taylor-Reihen) und des Verhaltens der Nachbarn. Unser entstehender Raum kann dann als ein Raum betrachtet werden, in dem nahegelegene (Beobachtungen von) Verhaltensweisen bereits sinnvoll gebündelt sind. Alternativ können wir uns diesen Raum als Verkörperung einer nützlichen Aufmerksamkeitsgeometrie vorstellen – die Verhaltensweisen, auf die wir (aufgrund ihrer Ähnlichkeit) achten müssen, um eine Vorhersage zu treffen, sind bereits unsere Nachbarn in diesem Raum. Die geometrische Nähe im entstehenden Raum erspart uns dann die Suche nach vergleichbaren Verhaltensverläufen aller interagierenden Einheiten in der physischen Raumzeit. Dies ermöglicht es uns, die Glätte über Verhaltensverläufe hinweg auszunutzen, um lokale Vorhersagen mit nur wenigen nahegelegenen Daten zu treffen. In unserem Stuart-Landau-Beispiel sind die Oszillatoren global gekoppelt, während wir eine lokale PDE (ohne Integralterme) finden, die ihr Verhalten erfolgreich beschreibt. Diese scheinbare Diskrepanz zwischen der lokalen PDE-Beschreibung und der globalen Kopplung kann durch die unendliche Ausbreitungsgeschwindigkeit von Informationen für bestimmte parabolische PDE, wie etwa die Wärmegleichung, erklärt werden. Die Modellierung global gekoppelter Oszillatoren mit einer PDE, die nur eine endliche Ausbreitungsgeschwindigkeit zulässt, wie etwa die Wellengleichung, würde nicht zum korrekten Verhalten führen. In unserem Fall hat das Netzwerk automatisch gelernt, dass eine unendliche Ausbreitungsgeschwindigkeit notwendig ist, und wir untersuchen immer noch, wie ein solches qualitatives Verhalten effektiver gelernt werden kann.

Wir gingen kurz auf die Erklärbarkeit unserer entstehenden räumlichen Koordinaten ein, indem wir zeigten, dass unser ϕ1 eins zu eins mit den Eigenfrequenzen des Oszillators – der Agentenheterogenität des Stuart-Landau-Ensembles – und somit kalibrierbar ist. Im Beispiel des Hodgkin-Huxley-Neurons wurde erneut festgestellt, dass die entstehenden Koordinaten eins zu eins mit einer Parametrisierung der Oszillatorheterogenität waren; einer entsprach ungefähr der kinetischen Heterogenität, während der zweite der strukturellen (Konnektivitäts-)Heterogenität entsprach. Der vorgeschlagene Ansatz besteht dann darin, (a) zu entscheiden, wie viele neue unabhängige Variablen erforderlich sind; (b) einen Domänenwissenschaftler nach physikalischen Größen fragen, die diese erklären könnten, und dann (c) testen, ob die erklärbaren und die datengesteuerten Parametrisierungen eins zu eins auf den Daten sind (die Determinante der Jacobi-Transformation ist bi). -Lipschitz, begrenzt von Null und Unendlich, auf den Daten, z. B. 47,48,49).

Die Erklärbarkeit prädiktiver, generativer Gleichungen anhand datengesteuerter abhängiger und unabhängiger Variablen und durch maschinelles Lernen angenäherter Operatoren ist eindeutig ein entscheidendes Unterfangen – wann und warum werden wir uns entscheiden, den Ergebnissen zu vertrauen, wenn wir die Algorithmen verstehen, sie aber nicht verstehen die mechanistischen, physikalischen Schritte, die den Beobachtungen dessen zugrunde liegen, was wir modellieren? Wird sich im latenten/emergenten Raum ein anderes Verständnis ergeben – beispielsweise analog zur Beschreibung von Operatoren im Fourier-Raum statt im physikalischen Raum oder beim Studium der Kontrolle im Laplace-Raum statt im Zustandsraum? Von schwärmenden Staren bis hin zu interagierenden UAV-Schwärmen verspricht dies ein spannendes Spielfeld für zeitgenössische Modellbauer zu werden.

Diffusionskarten verwenden eine Kernelfunktion, um paarweise Abstände zwischen Datenpunkten zu gewichten 23,24, typischerweise den Gaußschen Kernel

mit einer vordefinierten Kernelskala ϵ und einer euklidischen Distanzmetrik, die wir hier übernehmen. Die Datenpunkte x, y sind in unserem Fall die N Zeitreihen, was zu einem \({{{{{{\bf{K}}}}}}}}\in {{\mathbb{R} }}^{N\times N}\) Kernelmatrix. Die Zeilennormalisierung dieser Kernmatrix ergibt eine Markov-Übergangsmatrix, auch Diffusionsmatrix genannt, und ihre führenden unabhängigen Eigenvektoren, die den größten Eigenwerten entsprechen, können zur Parametrisierung der Daten verwendet werden50.

Beachten Sie, dass die Eigenvektoren der Diffusionsmatrix den Eigenfunktionen des Laplace-Operators auf der Datenmannigfaltigkeit entsprechen. Daher erscheinen Eigenvektoren, die als Funktionen anderer Eigenvektoren mit größerem Eigenwert geschrieben werden können, in der Eigenzerlegung der Diffusionsmatrix. Eine wichtige Aufgabe bei der Verwendung von Diffusionskarten besteht darin, die unabhängigen Eigenvektoren zu extrahieren, die neue Richtungen in den Daten parametrisieren. Ein herausragendes Werkzeug für diese Aufgabe wurde in Ref. entwickelt. 50 und basiert auf der Durchführung einer lokalen linearen Regression für die eingestellten Eigenvektoren. Hier führen wir eine visuelle Inspektion der ersten zehn Eigenrichtungen durch, um zu untersuchen, welche Eigenvektoren Harmonische sind und welche Eigenvektoren neue Richtungen in den Daten darstellen. Diese unabhängigen Diffusionseigenvektoren werden dann zum besseren Vergleich auf das Intervall \(\left[-1,1\right]\) skaliert.

Betrachten Sie die komplexe Ginzburg-Landau-Gleichung

in einer räumlichen Dimension x, in einem Bereich der Länge L. Wir lösen diese Gleichung unter Verwendung zufälliger Anfangsbedingungen mit periodischen Randbedingungen und Parameterwerten c1 = 0, c2 = − 3 und L = 80 unter Verwendung einer pseudospektralen Methode mit exponentiellem Zeitschritt25. Wir erfassen Daten, nachdem die anfänglichen Transienten abgeklungen sind, also nach 1000 dimensionslosen Zeiteinheiten. Die anschließende räumlich-zeitliche Entwicklung ist in Abb. 2 (a) dargestellt.

Daten zum Training unseres Modells werden wie folgt abgetastet: Für die Anzahl der Trainingsbeispiele setzen wir ntrain = 20 und für die Anzahl der Testbeispiele ntest = 2, was ntotal = 22 ergibt. Wir integrieren also aus zufälligen Anfangsbedingungen ntotal = 22 Mal für 1000 dimensionslose Zeiteinheiten. Anschließend stören wir den resultierenden Schnappschuss, indem wir der Lösung erneut Rauschen hinzufügen. Auf diese Weise stören wir den Attraktor ein wenig, sodass unser Modell die Stabilität der anziehenden Mannigfaltigkeit lernen kann. Anschließend integrieren wir jeden gestörten Schnappschuss für weitere 20 dimensionslose Zeiteinheiten und erfassen die Daten alle dt = 0,02 Zeitschritte. Das bedeutet, dass insgesamt 20.000 Snapshot-Datenpaare für das Training und 2.000 für die Validierung vorhanden sind. Um eine Parametrisierung für die Diskretisierungspunkte der PDE zu finden, verketten wir die Trainingszeitreihen der N = 256 Punkte, was zu 20.000 × 20 langen Trajektorien führt. Dann verwenden wir Diffusionskarten mit einem euklidischen Abstand und einem Gaußschen Kernel und nehmen die Kernel-Skala ϵ = 100, so dass nur enge Zeitreihen die Berechnung der Diffusionskarten effektiv beeinflussen. Daraus ergeben sich die beiden unabhängigen Moden ϕ1 und ϕ2, wie in Abb. 2(c) dargestellt. Anschließend parametrisieren wir den Kreis mithilfe des Winkels \(\tilde{x}\in \left[-\pi ,\pi \right[\). Wir tasten Daten auf einem regelmäßigen Gitter im Intervall \(\left[-\pi ,\pi \right[\) mithilfe eines kubischen Splines neu ab. Wir schätzen die Zeitableitung an jedem Punkt mithilfe endlicher Zeitdifferenzen.

Unter Verwendung der \((W(\tilde{x},{t}_{j}),{\partial }_{t}W(\tilde{x},{t}_{j}))\)-Paare , trainieren wir ein neuronales Netzwerk f auf überwachte Weise wie folgt: Wir nehmen N = 256 Diskretisierungspunkte für jeden Schnappschuss. An diesen Punkten berechnen wir die ersten nderivs = 2 räumlichen Ableitungen unter Verwendung einer Finite-Differenzen-Schablone der Länge l = 5 und des jeweiligen Finite-Differenzen-Kernels für jede räumliche Ableitung der höchsten Genauigkeitsordnung, die in l = 5 passt. Das Modell nimmt somit die Form an

mit den Ableitungen, die wie oben beschrieben in der entstehenden Raumkoordinate \(\tilde{x}\) berechnet werden. Beachten Sie, dass \(W(\tilde{x},t)\) komplex ist, was bedeutet, dass bei jedem \(({\tilde{x}}_{i},{t}_{j})\) die Eingabe erfolgt zum neuronalen Netzwerk ist 6-dimensional für nderivs = 2. Das Netzwerk selbst besteht aus 4 vollständig verbundenen verborgenen Schichten mit jeweils 96 Neuronen und einer Swish-Aktivierungsfunktion (was zu ≈28 ⋅ 103 trainierbaren Parametern führt). Die Ausgabeschicht enthält zwei Neuronen ohne Aktivierungsfunktion, ein Neuron für den Real- bzw. Imaginärteil von ∂tW. Die Netzwerkgewichte werden einheitlich mit der Standardgewichtsinitialisierung51 von PyTorch initialisiert und mit dem Adam-Optimierer52 mit einer anfänglichen Lernrate von 2 ⋅ 10−3 und einer Stapelgröße von 128 optimiert. Mittlerer quadratischer Fehler zwischen dem vorhergesagten und dem tatsächlichen \({\partial } _{t}W({\tilde{x}}_{i},{t}_{j})\), Gl. (8) wird als Verlust angenommen. Das Modell wird für 400 Epochen trainiert und die Lernrate wird um den Faktor 2 reduziert, wenn der Validierungsverlust über 10 Epochen nicht abnimmt. Selbstverständlich können auch andere allgemeine Ansätze zum Erlernen der rechten Seite des Operators (Gaußsche Prozesse42, Geometrische Harmonische53 usw.) verwendet werden.

Die Inferenz erfolgt durch die Erstellung einer anfänglichen gestörten Momentaufnahme der Validierungsdaten und deren zeitliche Integration unter Verwendung des erlernten Modells unter Verwendung der Runge-Kutta-4(5)-Methode von Scipy und wiederum periodischer Randbedingungen. Die Ergebnisse sind in Abb. 2(f) dargestellt.

Betrachten Sie die komplexe Ginzburg-Landau-Gleichung

in einer räumlichen Dimension x, in einem Bereich der Länge L. Wir integrieren beginnend mit der Anfangsbedingung

unter Verwendung einer Finite-Differenzen-Methode im Raum und einer impliziten Adams-Methode zur Integration sowie Probendaten nach dem Abklingen der anfänglichen Transienten, dh nach 4000 dimensionslosen Zeiteinheiten. Diese räumlich-zeitliche Entwicklung ist in Abb. 6 (a) dargestellt.

a Der Realteil des komplexen Feldes W(x, t), erhalten aus der Simulation von Gl. (2) mit N = 128 Maschenpunkten nach dem Abklingen der anfänglichen Transienten. b Das Entfernen der räumlichen Beschriftung ergibt eine Sammlung von N Zeitreihen, die hier in zufälliger Reihenfolge dargestellt werden. (c) Mithilfe mannigfaltigen Lernens (hier Diffusionskarten) stellt man fest, dass es eine eindimensionale Parametrisierung ϕ1 dieser Zeitreihen gibt. Jeder Punkt entspricht einer der N Zeitreihen und ist durch seinen tatsächlichen räumlichen Standort x gefärbt. d Die Realteile der durch ϕ1 parametrisierten Zeitreihe. e Realer Teil der Simulationsvorhersagen für die komplexe Variable W ausgehend von einer Anfangsbedingung in unserem Testsatz unter Verwendung des partiellen Differentialgleichungsmodells, das mit ϕ1 als räumliche Variable gelernt wurde. Da keine analytischen Randbedingungen verfügbar sind, liefern wir während der Integration die wahren Werte in der Nähe der Grenzen innerhalb eines durch weiße vertikale Linien angezeigten Korridors. f Kleinster euklidischer Abstand d in \({{\mathbb{C}}}^{N}\) zwischen den Transienten und dem wahren Attraktor bei jedem Zeitschritt: wahre PDE (blau), gelernte PDE (orange).

Wir lösen diese Gleichung unter Verwendung der Anfangsbedingung

mit Nullfluss-Randbedingungen und Parameterwerten c1 = 1, c2 = 2 und L = 200. Es ist erwähnenswert, dass in der in Abb. 6(a) gezeigten Lösung eine leichte Links-Rechts-Asymmetrie vorliegt. Aufgrund der Symmetrie des Raumbereichs gibt es zwei stabile Lösungen für diesen Parametersatz; eine hat eine etwas größere Amplitude für großes x, die andere, gespiegelte Version, hat eine größere Amplitude für kleines x. Die Wahl der oben definierten Anfangsbedingung führt bei jedem Durchlauf zu einer Konvergenz zur gleichen Lösung. Allerdings werden alle Anfangsbedingungen letztendlich auf eine periodische Lösung hinauslaufen.

Numerisch integrieren wir unter Verwendung einer Dreipunktschablone für die Finite-Differenzen-Approximation der zweiten Ableitung ∂2/∂x2 mit Nint = 256 Diskretisierungspunkten und einer impliziten Adams-Methode mit dt = 10−3 für die zeitliche Entwicklung. Das resultierende Verhalten ist in Abb. 6(a) dargestellt. Daten zum Training unseres Modells werden wie folgt abgetastet: Für die Anzahl der Trainingsbeispiele setzen wir ntrain = 20 und für die Anzahl der Testbeispiele ntest = 1, was ntotal = 21 ergibt. Bei ntotal = 21 Punkten entlang des Grenzzyklus Wie in Abb. 6(a) gezeigt, tasten wir die Daten wie folgt ab: Bei \({t}_{i}={t}_{\min }=2000+id\tau\) mit i ∈ {0, …, ntotal − 1}, mit dτ = 100, stören wir den Grenzzyklus, indem wir den jeweiligen Schnappschuss bei ti auf 0,9 ⋅ W(x, ti) und 1,1 ⋅ W(x, ti) skalieren. Wir integrieren diese beiden Schnappschüsse zeitlich vorwärts für T = 20 Zeiteinheiten und erfassen Daten nach jedem dt = 10−3. Dies führt zu zwei Transienten, die jeweils aus 20.001 Snapshots bei jedem Ti bestehen. Das bedeutet, dass insgesamt 2 × 20.000 × 20 = 8 ⋅ 105 Snapshot-Datenpaare für das Training und 2 × 20.000 für die Validierung vorhanden sind. Anschließend führen wir ein Downsampling der Daten auf N = 128 Punkte pro Snapshot durch. Um eine Parametrisierung für die Diskretisierungspunkte der PDE zu finden, verketten wir die Trainingszeitreihen der N = 128 Punkte, was zu 2 × 20000 × 20 langen Trajektorien führt. Dann verwenden wir Diffusionskarten mit einem euklidischen Abstand und einem Gaußschen Kernel und nehmen die Kernelskala ϵ als Median aller quadrierten Abstände. Daraus ergibt sich die eindimensionale Parametrisierung ϕ1, wie in Abb. 6(c) dargestellt. Wir tasten Daten auf einem regelmäßigen Gitter im Intervall \(\left[-1,1\right]\) mithilfe eines kubischen Splines neu ab. Wir schätzen die Zeitableitung an jedem Punkt mithilfe endlicher Zeitdifferenzen.

was 20000 (W(x, tj), ∂tW(x, tj)) Paare pro Transient und ti ergibt.

Unter Verwendung der (W(x, tj), ∂tW(x, tj))-Paare trainieren wir ein neuronales Netzwerk f so, dass

auf überwachte Weise wie folgt: Wir nehmen N = 128 Diskretisierungspunkte für jeden Schnappschuss. An diesen Punkten berechnen wir die ersten nderivs = 3 räumlichen Ableitungen unter Verwendung einer Finite-Differenzen-Schablone der Länge l = 9 und des jeweiligen Finite-Differenzen-Kernels für jede räumliche Ableitung der höchsten Genauigkeitsordnung, die in l = 9 passt. Das Modell nimmt somit die Form an

mit den wie oben beschrieben berechneten Derivaten. Beachten Sie, dass W(x, t) komplex ist, was bedeutet, dass bei jedem (xi, tj) die Eingabe in das neuronale Netzwerk 8-dimensional für nderivs = 3 ist. Das Netzwerk selbst besteht aus 4 vollständig verbundenen verborgenen Schichten mit jeweils 96 Neuronen und Tanh-Aktivierungsfunktion (was zu ≈28 ⋅ 103 trainierbaren Parametern führt). Die Ausgabeschicht enthält zwei Neuronen ohne Aktivierungsfunktion, ein Neuron für den Real- bzw. Imaginärteil von ∂tW. Die Netzwerkgewichte werden einheitlich mit der Standardgewichtsinitialisierung51 von PyTorch initialisiert und mit dem Adam-Optimierer52 mit einer anfänglichen Lernrate von 10−3 und einer Stapelgröße von 1024 optimiert. Mittlerer quadratischer Fehler zwischen dem vorhergesagten und dem tatsächlichen ∂tW(xi, tj), Gl. (13) wird als Verlust angenommen. Das Modell wird für 60 Epochen trainiert und die Lernrate wird um den Faktor 2 reduziert, wenn der Validierungsverlust über 7 Epochen nicht abnimmt. Selbstverständlich können auch andere allgemeine Ansätze zum Erlernen der rechten Seite des Operators (Gaußsche Prozesse42, Geometrische Harmonische53 usw.) verwendet werden.

Die Inferenz erfolgt, indem ein erster Schnappschuss der Validierungsdaten in der Nähe oder am Grenzzyklus erstellt und unter Verwendung des erlernten Modells und eines Integrationsschemas wie Vorwärts-Euler zeitlich vorwärts integriert wird. Bei jedem Zeitschritt werden die Randbedingungen (in Form schmaler Grenzkorridore) aus den Ground-Truth-Daten übernommen. Es stellt sich die Frage nach der richtigen Breite für diese Korridore und allgemeiner nach der Vorschrift von Rand-/Anfangs-/internen Bedingungen, die für die Wohlstellung des Gesamtproblems geeignet sind, insbesondere da der Operator (die rechte Seite der PDE) kommt in Form einer Blackbox. Dies ist bereits Gegenstand umfangreicher Forschungen, die wir unter anderem betreiben54.

Darüber hinaus wird jeder vorhergesagte Snapshot aus dem Modell wie im Folgenden beschrieben gefiltert. Für den gesamten Trainingsdatensatz wird eine SVD durchgeführt. Mithilfe der erhaltenen U- und V-Matrizen können wir jeden vorhergesagten Schnappschuss während der Inferenz zerlegen. Dabei kürzen wir die SVD-Zerlegung nach zwei Dimensionen und rekonstruieren den Schnappschuss. Dies bedeutet, dass jeder Schnappschuss auf den zweidimensionalen Unterraum projiziert wird, in dem sich die Trainingsdaten befinden, und so verhindert wird, dass Richtungen, die nicht abgetastet wurden, während der Inferenz wachsen. Die resultierende Dynamik, die aus dem erlernten Modell und unter Verwendung einer ersten Momentaufnahme des Grenzzyklus erhalten wurde, ist in Abb. 6(e) dargestellt. Auf beiden Seiten der Domäne sind 4 Punkte breite Grenzen vorgesehen. Durch den Vergleich der wahren und der gelernten transienten Dynamik zum Grenzzyklus hin kann die erlernte Dynamik genauer untersucht werden. Dazu integrieren wir mithilfe der komplexen Ginzburg-Landau-Gleichung und des erlernten Modells einen vom Grenzzyklus gestörten Schnappschuss und berechnen den kleinsten euklidischen Abstand in \({{\mathbb{C}}}^{N}\) bei jedem Zeitschritt der erhaltenen Trajektorien zum Grenzzyklus. Die Ergebnisse sind in Abb. 6(f) dargestellt.

Wir haben auch sorgfältig überprüft, ob das gelernte Modell in Bezug auf die Anzahl der Diskretisierungspunkte N konvergiert.

Wir integrieren Gl. (1) Verwendung einer impliziten Adams-Methode mit den Anfangsbedingungen der Oszillatoren, die gleichmäßig im Einheitsquadrat in der komplexen Ebene verteilt sind. Die Eigenfrequenzen sind dabei linear im Intervall \(\left[-1.5,1.9\right]\) verteilt und die Kopplungskonstante wird als K = 1.2 angenommen. Die Dynamik, wie sie in den Abb. dargestellt ist. 1 und 3 sind für die hier betrachteten Parameter global stabil34. Tatsächlich fallen beliebige Anfangsbedingungen exponentiell zum Grenzzyklus ab. Ein solches Verhalten kann mit der Floquet-Theorie genauer untersucht werden: Die Konvergenz zum Grenzzyklus kann dann durch Floquet-Multiplikatoren mit ihren zugehörigen Eigenrichtungen beschrieben werden. Da der oben beschriebene Grenzzyklus stabil ist, sind die Absolutwerte der Floquet-Multiplikatoren kleiner als eins, mit Ausnahme eines davon, der gleich eins ist. Insbesondere weisen Multiplikatoren mit großer Größe auf langsame Anziehungsrichtungen hin, während Multiplikatoren mit Absolutwerten nahe Null auf schnell abklingende Richtungen hinweisen. Wenn sowohl kleine als auch große Floquet-Multiplikatoren vorhanden sind, dann gibt es Transienten mit mehreren Zeitskalen. Nach Ref. 55 berechnen wir die Floquet-Multiplikatoren, indem wir die Monodromiematrix V entlang des Grenzzyklus berechnen. Insbesondere erhalten wir V durch die Integration

mit V(0) = I2N×2N, wobei I die Identitätsmatrix und T die Periode einer Schwingung ist. Die Matrix \(\frac{\partial F}{\partial x}\) repräsentiert den Jacobi von Gl. (1) analytisch durch Differenzierung gewonnen und entlang des Grenzzyklus ausgewertet. Die Eigenwerte von V(T) entsprechen dann den Floquet-Multiplikatoren, wobei die entsprechenden Eigenvektoren ihre jeweiligen Richtungen darstellen.

Die größten auf diese Weise erhaltenen Multiplikatoren sind zusammen mit den drei langsamsten Eigenrichtungen in Abb. 7 dargestellt. Beachten Sie, dass der einzelne Multiplikator gleich eins die neutrale Richtung entlang des Grenzzyklus darstellt. Darüber hinaus gibt es ein Paar komplex konjugierter Eigenwerte λ2,3 ≈ − 0,4 ± 0,4i (orange in Abb. 7). Aufgrund der Größe ihrer Realteile ist die Dynamik in diesem Eigenraum im Vergleich zu den nachfolgenden Eigenrichtungen langsam. Diese Eigenrichtungen sind, wie aus Abb. 7(b) hervorgeht, glatte Funktionen der Frequenzen ωk. Darüber hinaus spiralen Störungen in diesem zweidimensionalen Eigenraum in Richtung des stabilen Grenzzyklus.

a Absolute Werte der Floquet-Multiplikatoren, \(\left|{\lambda }_{i}\right|\), erhalten aus der Monodromiematrix für die in Abb. 3 gezeigte Dynamik. b Eigenrichtung v1 entsprechend dem Komplexpaar Die konjugierten Multiplikatoren λ2 und λ3 (orange markiert) weisen auf eine langsame Anziehungsrichtung hin. c, d Eigenrichtungen v2 und v3, die den Paaren komplex konjugierter Multiplikatoren λ4, λ5 und λ6, λ7 entsprechen, grün und rot markiert, was schnelle Kontraktionsrichtungen anzeigt. Beachten Sie, dass die Richtungen vi komplex sind, da die Wk komplex sind, wobei die Realteile als durchgezogene Kurven und die Imaginärteile als schattierte Kurven dargestellt sind.

Die Richtungen der nachfolgenden Multiplizierer wirken sich nur auf isolierte Oszillatoren aus. Insbesondere betrifft die dem langsamen Eigenraum folgende Richtung (grün in Abb. 7) nur den schnellsten Oszillator, also den Oszillator mit der größten Eigenfrequenz ωk. Die nächste Richtung stört dann den zweitschnellsten Oszillator (rot in Abb. 7) und so weiter. Die stufenartige Struktur der Floquet-Multiplikatoren verdeutlicht das mehrskalige Verhalten des gekoppelten Oszillatorsystems: Die Schwingung und die nach innen spiralförmige langsame Dynamik auf der einen Skala und die Einzeloszillatordynamik zum Grenzwert hin auf der anderen, der schnellen Skala. Diese Eigenrichtungen mit Unterstützung auf den unterschiedlichsten Oszillatoren weisen auf die SNIPER-Verzweigung hin, die den Rand der Synchronisation markiert.

Wir erfassen Daten, indem wir die Systemgleichung integrieren. (1) von den oben beschriebenen zufälligen Anfangsbedingungen, bis sich die Dynamik auf dem Grenzzyklus eingependelt hat. Für nlc verschiedene Punkte entlang des Grenzzyklus berechnen wir die Monodromiematrix aus Gl. (16) und schätzen die am wenigsten stabile Eigenrichtung v1 quer zum Grenzzyklus, die vermutlich auf der langsamen stabilen Mannigfaltigkeit liegt. Dann stören wir in diese Richtung, indem wir jeden Punkt Wlc auf dem Grenzzyklus als Wlc ± ϵv1 mit ϵ = 0,1 stören. Daraus ergeben sich drei Ausgangspunkte; Durch die Integration dieser Punkte über einen festgelegten Zeitraum werden dann zwei Transienten in Richtung des Grenzzyklus und eine Trajektorie auf dem Attraktor zurückgegeben. Hier wählen wir nlc = 20 für die Trainingsdaten und nlc = 5 für die Testdaten sowie ein Zeitfenster von T = 200 dimensionslosen Zeiteinheiten mit einer Abtastrate von dt = 0,05, was 4000 Datenpunkte pro Trajektorie oder 3 ergibt ⋅ ncl ⋅ T/dt = 240.000 Trainingsdatenpunkte und 60.000 Testdatenpunkte. Die verketteten Zeitreihen der Länge 3 ⋅ nlc ⋅ T/dt dienen dann als Eingabedatenpunkte für Diffusionskarten; Die Möglichkeit der Verwendung von Zeitreihenausschnitten unterschiedlicher Dauer wird in9 untersucht. Die zeitliche Ableitung ∂tW wird dann mithilfe endlicher Differenzen geschätzt, vgl. Gl. (13). Wenn wir auch den Systemparameter γ ändern, stellen wir für jeden Datenpunkt den entsprechenden γ-Wert als zusätzliche Eingabe für das Netzwerk bereit. Darüber hinaus bestehen die Trainingsdaten aus einheitlichen γ-Werten in \(\left[1.7,1.8\right]\) und die Testdaten aus zufällig ausgewählten γ-Werten, die sich von den Trainingsdaten unterscheiden. Darüber hinaus schätzen wir eine SVD-Basis aus den vollständigen Trainingsdaten. Während der Inferenz wird die Vorhersage von f unter Verwendung dieser Basis und einer Kürzung mit ns = 3 Dimensionen rekonstruiert.

Für die Extraktion von Diffusionsmodi verwenden wir eine Kernelskala von ϵ = 20 für den Fall, dass γ fest ist, und ϵ = 10, wenn wir Daten mit unterschiedlichen γ-Werten abtasten. Andere Hyperparameter und die Modellarchitektur sind wie im vorherigen Abschnitt beschrieben.

Folgende Refs. 36,37,38 modellieren wir die Dynamik jedes Neurons mithilfe der Variablen Vk und hk as

mit k = 1, …, N. Die Neuronen sind über den synaptischen Strom \({I}_{{{{{{{\rm{syn}}}}}}}}}^{k}\) gekoppelt. gegeben von

mit der symmetrischen Adjazenzmatrix Akj. Die nichtlinearen Funktionen \(m\left(V\right)\), \({h}_{\infty }\left(V\right)\), \(\tau \left(V\right)\) und \(s\left(V\right)\) sind gegeben durch

mit den Konstanten C = 0,21, ϵ = 0,1, gNa = 2,8, gl = 2,4, gsyn = 0,3, VNa = 50, Vl = −65, Vsyn = 0 und N = 1024. Die angelegten Ströme \({I}_{ {{{{{{{\rm{app}}}}}}}}}^{k}\) für jedes Neuron k werden als \({I}_{{{{{{{{\rm{ app}}}}}}}}}^{k}=22+2{\omega }_{k}\) mit ωk gleichmäßig verteilt in \(\left[-1,1\right]\).

Die Adjazenzmatrix Akj wird unter Verwendung der Chung-Lu-Netzwerktopologie erstellt. Seine Einträge sind mit Wahrscheinlichkeit 1

mit j < k und den Gewichten wk definiert als wk = pN(k/N)r, p = 0,9, r = 0,25. Beachten Sie, dass wir Ajk = Akj annehmen, sodass die Adjazenzmatrix symmetrisch ist.

Wir integrieren das Modell mit der Runge-Kutta-Methode der Ordnung 5(4)56 ausgehend von identischen Anfangsbedingungen Vk = − 60 und hk = 0. Wir sammeln alle Daten nach \({t}_{\min }=120\). dt = 2 ⋅ 10−3 Zeitschritte, bis \({t}_{\max }=140\). Was die komplexe Ginzburg-Landau-Gleichung betrifft, stören wir die Lösung des Grenzzyklus-Attraktors. Wir skalieren Snapshots erneut mit einem konstanten Faktor \(p\in \left\{0.9,1.1\right\}\) so dass

und integrieren Sie diese gestörten Schnappschüsse zeitlich vorwärts für ein Intervall von t = 20. Wir machen dies dreimal entlang des Grenzzyklus, um Transienten für das Training abzutasten, und ein zusätzliches Mal zum Testen. Schließlich werden die abgetasteten Daten mit Vk → (Vk + 37)/30 und hk → (hk − 0,42)/0,2 neu skaliert, sodass beide Variablen ungefähr mittelwertzentriert sind und über dasselbe Intervall verteilt sind.

Wir verwenden Diffusionskarten mit einer Kernelskala von ϵ = 4000 basierend auf früheren Studien9. Wie in den vorherigen Abschnitten skalieren wir die resultierenden Diffusionseigenvektoren auf das Intervall \(\left[-1,1\right]\). Wir passen die Daten an das in Abb. 5(b) gezeigte rechteckige Gitter an, indem wir Polynome maximaler Ordnung zwei verwenden. Die Daten werden dann auf einem Netz von 64 Gitterpunkten in jede Richtung interpoliert.

Das PDE-Modell wird durch ein neuronales Netzwerk mit drei verborgenen Schichten von 64 Neuronen dargestellt, denen jeweils eine Tanh-Aktivierungsfunktion folgt. Die Eingabe an jedem Punkt besteht aus den neu skalierten und interpolierten Vk- und hk-Werten sowie ihren räumlichen Ableitungen in ϕ1 und ϕ2 bis zur dritten Ordnung, die unter Verwendung endlicher Differenzen ermittelt wurden. Der Einfachheit halber verzichten wir hier auf gemischte Ableitungen. Das Modell wird optimiert, indem der mittlere quadratische Fehler zwischen seiner Ausgabe und den zeitlichen Ableitungen von Vk und hk, die durch endliche Zeitdifferenzen erhalten werden, minimiert wird. Für die Integration verwenden wir die Ausgabe des neuronalen Netzwerks und gehen mit Vorwärts-Euler mit dt = 2 ⋅ 10−3 zeitlich vorwärts. Abschließend skalieren wir die resultierenden Vk und hk auf ihre physikalischen Variablen zurück, wie sie in Abb. 5 dargestellt sind.

Zum Filtern behalten wir 10 SVD-Modi bei und erfassen mehr als 99,99 % der in den Daten enthaltenen Varianz.

Die in dieser Studie generierten Daten werden in der Datei „Ergänzende Informationen/Quelldaten“ bereitgestellt. Alle Daten können mit dem unter https://github.com/fkemeth/emergent_pdes veröffentlichten Code reproduziert werden. Quelldaten werden mit diesem Dokument bereitgestellt.

Der Quellcode zur Generierung der gemeldeten Daten und zur Reproduktion der Ergebnisse sowie aller Zahlen ist unter https://github.com/fkemeth/emergent_pdes verfügbar.

Kuramoto, Y. Chemical Oscillations, Waves and Turbulence, vol. 19 der Springer-Reihe in Synergetics (Springer-Verlag Berlin Heidelberg, 1984).https://www.springer.com/us/book/9783642696916.

Strogatz, SH Von Kuramoto bis Crawford: Erforschung des Beginns der Synchronisation in Populationen gekoppelter Oszillatoren. Physica D: Nichtlineares Phänomen. 143, 1 – 20 (2000).

Artikel MathSciNet Google Scholar

Ott, E. & Antonsen, TM Niedrigdimensionales Verhalten großer Systeme global gekoppelter Oszillatoren. Chaos: Interdisziplinär. J. Nichtlineare Wissenschaft. 18, 037113 (2008).

Artikel MathSciNet Google Scholar

Krischer, K. et al. Modellidentifizierung einer räumlich und zeitlich variierenden katalytischen Reaktion. AIChE J. 39, 89–98 (1993).

Artikel CAS Google Scholar

Rico-Martínez, R., Krischer, K., Kevrekidis, I., Kube, M. & Hudson, J. Diskrete vs. zeitkontinuierliche nichtlineare Signalverarbeitung von Cu-Elektroauflösungsdaten. Chem. Ing. Komm. 118, 25–48 (1992).

Artikel Google Scholar

González-García, R., Rico-Martínez, R. & Kevrekidis, I. Identifizierung verteilter Parametersysteme: ein auf neuronalen Netzen basierender Ansatz. Computer Chem. Ing. 22, S965–S968 (1998).

Artikel Google Scholar

Brunton, SL, Noack, BR & Koumoutsakos, P. Maschinelles Lernen für die Strömungsmechanik. Ann. Rev. Fluid Mech. 52, 477–508 (2020).

Artikel ADS Google Scholar

Lu, L., Jin, P. & Karniadakis, GE Deeponet: Erlernen nichtlinearer Operatoren zur Identifizierung von Differentialgleichungen basierend auf dem universellen Approximationssatz von Operatoren. arXiv-Vorabdruck: 1910.03193 (2020). 1910.03193.

Kemeth, FP et al. Ein entstehender Raum für verteilte Daten mit verborgener interner Ordnung durch vielfältiges Lernen. IEEE Access 6, 77402–77413 (2018).

Artikel Google Scholar

Arbabi, H., Kemeth, FP, Bertalan, T. & Kevrekidis, I. Grobkörnige und entstehende verteilte Parametersysteme aus Daten. arXiv-Vorabdruck: 2011.08138 (2020). 2011.08138.

Whitney, H. Differenzierbare Mannigfaltigkeiten. Ann. Mathematik. 37, 645–680 (1936).

Artikel MathSciNet Google Scholar

Takens, F. Erkennung seltsamer Attraktoren in Turbulenzen (S. 366–381. Springer Berlin Heidelberg, Berlin, Heidelberg, 1981).

Buchen Sie Google Scholar

Linot, AJ & Graham, MD Deep Learning zur Entdeckung und Vorhersage der Dynamik einer Inertialmannigfaltigkeit. Physik. Rev. E 101, 062209 (2020).

Artikel ADS MathSciNet CAS Google Scholar

Champion, K., Lusch, B., Kutz, JN & Brunton, SL Datengesteuerte Entdeckung von Koordinaten und maßgeblichen Gleichungen. Proz. Natl. Acad. Wissenschaft. 116, 22445–22451 (2019).

Artikel ADS MathSciNet CAS Google Scholar

Lapedes, AS & Farber, RM Wie neuronale Netze funktionieren. In Anderson, DZ (Hrsg.) Neural Information Processing Systems, 442-456 (American Institute of Physics, 1988). http://papers.nips.cc/paper/59-how-neural-nets-work.pdf

Hudson, J. et al. Nichtlineare Signalverarbeitung und Systemidentifikation: Anwendungen auf Zeitreihen elektrochemischer Reaktionen. Chem. Ing. Wissenschaft. 45, 2075 – 2081 (1990).

Artikel Google Scholar

Brunton, SL, Proctor, JL & Kutz, JN Entdecken maßgebender Gleichungen aus Daten durch spärliche Identifizierung nichtlinearer dynamischer Systeme. Proz. Natl. Acad. Wissenschaft. 113, 3932–3937 (2016).

Artikel ADS MathSciNet CAS Google Scholar

Lu, L., Meng, X., Mao, Z. & Karniadakis, GE Deepxde: Eine Deep-Learning-Bibliothek zum Lösen von Differentialgleichungen. arXiv-Vorabdruck: 1907.04502 (2019). http://arxiv.org/abs/1907.04502v2

Chen, RTQ, Rubanova, Y., Bettencourt, J. & Duvenaud, DK Neuronale gewöhnliche Differentialgleichungen. In Bengio, S. et al. (Hrsg.) Advances in Neural Information Processing Systems, vol. 31, 6571-6583 (Curran Associates, Inc., 2018). https://proceedings.neurips.cc/paper/2018/file/69386f6bb1dfed68692a24c8686939b9-Paper.pdf

Vlachas, PR, Byeon, W., Wan, ZY, Sapsis, TP & Koumoutsakos, P. Datengesteuerte Vorhersage hochdimensionaler chaotischer Systeme mit langen Kurzzeitgedächtnisnetzwerken. Proz. Royal Soc. A: Mathematik, Physik. Ing. Wissenschaft. 474, 20170844 (2018).

Artikel ADS MathSciNet Google Scholar

Long, Z., Lu, Y., Ma, X. & Dong, B. PDE-net: PDEs aus Daten lernen. In Dy, J. & Krause, A. (Hrsg.) Proceedings of the 35th International Conference on Machine Learning, vol. 80 von Proceedings of Machine Learning Research, 3208-3216 (PMLR, Stockholmsmässan, Stockholm Schweden, 2018). http://proceedings.mlr.press/v80/long18a.html

Thiem, TN, Kooshkbaghi, M., Bertalan, T., Laing, CR & Kevrekidis, IG Emergent Spaces für gekoppelte Oszillatoren. Vorderseite. Computat. Neurosci. 14 (2020). https://doi.org/10.3389/fncom.2020.00036

Nadler, B., Lafon, S., Coifman, RR & Kevrekidis, IG Diffusionskarten, spektrale Clusterbildung und Reaktionskoordinaten dynamischer Systeme. Appl. Berechnen. Harmonischer Anal. 21, 113–127 (2006).

Artikel MathSciNet Google Scholar

Coifman, RR & Lafon, S. Diffusionskarten. Appl. Computat. Harmonischer Anal. 21, 5–30 (2006).

Artikel MathSciNet Google Scholar

Cox, S. & Matthews, P. Exponentielle Zeitdifferenzierung für steife Systeme. J. Computat. Physik. 176, 430–455 (2002).

Artikel ADS MathSciNet CAS Google Scholar

Lohmiller, W. & Slotine, J.-JE Zur Kontraktionsanalyse für nichtlineare Systeme. Automatica 34, 683–696 (1998).

Artikel MathSciNet Google Scholar

Singh, S., Richards, SM, Sindhwani, V., Slotine, J.-JE & Pavone, M. Lernen stabilisierbarer nichtlinearer Dynamik mit kontraktionsbasierter Regularisierung. AdRR (2019). http://arxiv.org/abs/1907.13122v1

Blocher, C., Saveriano, M. & Lee, D. Lernen stabiler dynamischer Systeme mithilfe der Kontraktionstheorie. Im Jahr 2017 14. Internationale Konferenz über allgegenwärtige Roboter und Ambient Intelligence (URAI) (2017). https://doi.org/10.1109/urai.2017.7992901

Sindhwani, V., Tu, S. & Khansari, M. Lernen kontrahierender Vektorfelder für stabiles Nachahmungslernen. arXiv-Vorabdruck: 1804.04878 (2018). http://arxiv.org/abs/1804.04878v1

Amos, B., Xu, L. & Kolter, JZ Geben Sie konvexe neuronale Netze ein. In Precup, D. & Teh, YW (Hrsg.), Proceedings of the 34th International Conference on Machine Learning, vol. 70 von Proceedings of Machine Learning Research, 146–155 (PMLR, International Convention Centre, Sydney, Australien, 2017). http://proceedings.mlr.press/v70/amos17b.html

Kolter, JZ & Manek, G. Lernen stabiler Tiefendynamikmodelle. In Wallach, H. et al. (Hrsg.) Advances in Neural Information Processing Systems, vol. 32, 11128-11136 (Curran Associates, Inc., 2019). https://proceedings.neurips.cc/paper/2019/file/0a4bbceda17a6253386bc9eb45240e25-Paper.pdf

Hoffman, J., Roberts, DA & Yaida, S. Robustes Lernen mit Jacobian-Regularisierung. arXiv-Vorabdruck: 1908.02729 (2019). http://arxiv.org/abs/1908.02729v1

Pan, S. & Duraisamy, K. Langzeitprädiktive Modellierung nichtlinearer dynamischer Systeme mithilfe neuronaler Netze. Komplexität 2018, 1–26 (2018).

Google Scholar

Matthews, PC & Strogatz, SH Phasendiagramm für das kollektive Verhalten von Grenzzyklusoszillatoren. Physik. Rev. Lett. 65, 1701–1704 (1990).

Artikel ADS MathSciNet CAS Google Scholar

Aronson, D., Ermentrout, G. & Kopell, N. Amplitudengang gekoppelter Oszillatoren. Physica D: Nichtlineares Phänomen. 41, 403–449 (1990).

Artikel ADS MathSciNet Google Scholar

Rubin, J. & Terman, D. Synchronisierte Aktivität und Synchronitätsverlust zwischen heterogenen bedingten Oszillatoren. SIAM J. Appl. Dynamisches System. 1, 146–174 (2002).

Artikel ADS MathSciNet Google Scholar

Laing, CR, Zou, Y., Smith, B. & Kevrekidis, IG Umgang mit Heterogenität bei der Untersuchung der Dynamik neuronaler Oszillatoren. J. Mathe. Neurosci. 2, 5 (2012).

Artikel MathSciNet Google Scholar

Choi, M., Bertalan, T., Laing, C. & Kevrekidis, I. Dimensionsreduktion in heterogenen neuronalen Netzen: Generalisiertes Polynomchaos (gpc) und Varianzanalyse (anova). EUR. Physik. J. Special Topics 225, 1165–1180 (2016).

Artikel ADS Google Scholar

Smith, LM, Chasnov, JR & Waleffe, F. Übergang von zwei- zu dreidimensionaler Turbulenz. Physik. Rev. Lett. 77, 2467–2470 (1996).

Artikel ADS CAS Google Scholar

Zhang, K. & Jones, CA Die Auswirkung von Hyperviskosität auf Geodynamomodelle. Geophys. Res. Lette. 24, 2869–2872 (1997).

Artikel ADS Google Scholar

Frisch, U. et al. Hyperviskosität, Galerkin-Verkürzung und Engpässe bei Turbulenzen. Physik. Rev. Lett. 101, 144501 (2008).

Artikel ADS Google Scholar

Lee, S., Kooshkbaghi, M., Spiliotis, K., Siettos, CI & Kevrekidis, IG Grobmaßstäbliche PDEs aus feinmaßstäblichen Beobachtungen durch maschinelles Lernen. Chaos: Interdisziplinär. J. Nichtlineare Wissenschaft. 30, 013141 (2020).

Artikel MathSciNet Google Scholar

Li, J., Kevrekidis, PG, Gear, CW & Kevrekidis, IG Bestimmung der Natur der groben Gleichung durch mikroskopische Simulationen: das Baby-Badewasser-Schema. SIAM Rev. 49, 469–487 (2007).

Artikel MathSciNet Google Scholar

Erban, R. et al. Variablenfreie Erforschung stochastischer Modelle: ein Beispiel für ein Genregulationsnetzwerk. J. Chem. Physik. 126, 155103 (2007).

Artikel ADS Google Scholar

Chiavazzo, E., Gear, C., Dsilva, C., Rabin, N. & Kevrekidis, I. Reduzierte Modelle in der chemischen Kinetik durch nichtlineares Data-Mining. Prozesse 2, 112–140 (2014).

Artikel CAS Google Scholar

Lee, K. & Carlberg, KT Modellreduktion dynamischer Systeme auf nichtlinearen Mannigfaltigkeiten mithilfe tiefer Faltungs-Autoencoder. J. Comput. Physik. 404, 108973 (2020).

Artikel MathSciNet Google Scholar

Sonday, BE, Haataja, M. & Kevrekidis, IG Grobkörnung der Dynamik einer gesteuerten Schnittstelle in Gegenwart mobiler Verunreinigungen: Effektive Beschreibung durch Diffusionskarten. Physik. Rev. E 80, 031102 (2009).

Artikel ADS Google Scholar

Frewen, TA et al. Grobe kollektive Dynamik von Tiergruppen, 299-309. Vorlesungsunterlagen in Computational Science and Engineering (Springer Berlin Heidelberg, 2010). https://doi.org/10.1007/978-3-642-14941-2_16

Meila, M., Koelle, S. & Zhang, H. Ein Regressionsansatz zur Erklärung vielfältiger Einbettungskoordinaten. arXiv-Vorabdruck: 1811.11891 (2018). 1811.11891.

Dsilva, CJ, Talmon, R., Coifman, RR & Kevrekidis, IG Sparsame Darstellung nichtlinearer dynamischer Systeme durch vielfältiges Lernen: eine Chemotaxis-Fallstudie. Appl. Berechnen. Harmonischer Anal. 44, 759–773 (2018).

Artikel MathSciNet Google Scholar

Paszke, A. et al. Pytorch: Eine leistungsstarke Deep-Learning-Bibliothek im Imperativ-Stil. In Wallach, H. et al. (Hrsg.) Advances in Neural Information Processing Systems 32, 8024-8035 (Curran Associates, Inc., 2019). http://papers.neurips.cc/paper/9015-pytorch-an-imperative-style-high-performance-deep-learning-library.pdf

Kingma, DP & Ba, J. Adam: Eine Methode zur stochastischen Optimierung. arXiv-Vorabdruck: 1412.6980 (2017). 1412.6980.

Coifman, RR & Lafon, S. Geometrische Harmonische: ein neuartiges Werkzeug zur mehrskaligen Out-of-Sample-Erweiterung empirischer Funktionen. Appl. Berechnen. Harmonischer Anal. 21, 31–52 (2006).

Artikel MathSciNet Google Scholar

Bertalan, T., Kevrekidis, GA, Mishra, D. & Kevrekidis, IG Zum Zusammenspiel von maschinellem Lernen und Problemstellung. In Vorbereitung.

Taylor, MACouple, Double, Toil and Trouble: Dynamisches Verhalten gekoppelter oszillatorisch reagierender Systeme. Ph.D. Diplomarbeit, Princeton University, Princeton, NJ (1992).

Dormand, J. & Prince, P. Eine Familie eingebetteter Runge-Kutta-Formeln. J. Comput. Appl. Mathematik. 6, 19–26 (1980).

Artikel MathSciNet Google Scholar

Referenzen herunterladen

Diese Arbeit wurde teilweise vom US Army Research Office (durch ein MURI-Programm), DARPA und dem US-Energieministerium (IGK, FPK, TB, TT) unterstützt.

Abteilung für Chemie- und Biomolekulartechnik, Whiting School of Engineering, Johns Hopkins University, 3400 North Charles Street, Baltimore, MD, 21218, USA

Felix P. Kemeth, Tom Bertalan und Ioannis G. Kevrekidis

Das Department of Chemical and Biological Engineering, Princeton University, Princeton, NJ, 08544, USA

Thomas Thiem & Sung Joon Moon

Fakultät für Informatik, School of Computing, Information, and Technology, Technische Universität München, Boltzmannstr. 3, 85748, Garching, Deutschland

Felix Dietrich

School of Natural and Computational Sciences, Massey University (Albany), Private Bag, 102-904, Auckland, Neuseeland

Carlo R. Laing

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

IGK konzipierte die gemeinsam mit allen Autoren geplante Forschung. FPK führte einen großen Teil der Forschung durch, mit Beiträgen von TB, TT, FD, SJM und CRLFPK, und IGK verfasste zunächst das Manuskript, das in seiner endgültigen Form mit Beiträgen aller Autoren bearbeitet wurde.

Korrespondenz mit Ioannis G. Kevrekidis.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Nature Communications dankt den anonymen Gutachtern für ihren Beitrag zum Peer-Review dieser Arbeit. Peer-Reviewer-Berichte sind verfügbar.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Kemeth, FP, Bertalan, T., Thiem, T. et al. Erlernen entstehender partieller Differentialgleichungen in einem erlernten entstehenden Raum. Nat Commun 13, 3318 (2022). https://doi.org/10.1038/s41467-022-30628-6

Zitat herunterladen

Eingegangen: 23. Dezember 2020

Angenommen: 09. Mai 2022

Veröffentlicht: 09. Juni 2022

DOI: https://doi.org/10.1038/s41467-022-30628-6

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Zeitschrift für Mathematische Biologie (2023)

Chinesisches Journal für Polymerwissenschaft (2022)

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.