verarbeitete Aerosolprodukte

Über 30 Jahre Erfahrung in der Fertigung
Schwache Basislinien und Berichtsverzerrungen führen zu übermäßigem Optimismus beim maschinellen Lernen von fluidbezogenen partiellen Differentialgleichungen.

Schwache Basislinien und Berichtsverzerrungen führen zu übermäßigem Optimismus beim maschinellen Lernen von fluidbezogenen partiellen Differentialgleichungen.

Vielen Dank für Ihren Besuch auf Nature.com. Die von Ihnen verwendete Browserversion unterstützt nur eingeschränkt CSS. Für optimale Ergebnisse empfehlen wir Ihnen, eine neuere Browserversion zu verwenden (oder den Kompatibilitätsmodus im Internet Explorer zu deaktivieren). Um die fortlaufende Unterstützung zu gewährleisten, zeigen wir die Website in der Zwischenzeit ohne Styling und JavaScript an.
Eine der vielversprechendsten Anwendungen des maschinellen Lernens in der Computerphysik ist die beschleunigte Lösung partieller Differentialgleichungen (PDEs). Das Hauptziel eines auf maschinellem Lernen basierenden Lösers für partielle Differentialgleichungen besteht darin, Lösungen zu erzeugen, die schneller als standardmäßige numerische Methoden genau genug sind, um als Vergleichsbasis zu dienen. Wir führen zunächst eine systematische Überprüfung der Literatur zum maschinellen Lernen und Lösen partieller Differentialgleichungen durch. Von allen Artikeln, die über den Einsatz von ML zur Lösung partieller Differentialgleichungen in Flüssigkeiten berichten und eine Überlegenheit gegenüber standardmäßigen numerischen Methoden beanspruchen, identifizierten wir 79 % (60/76) im Vergleich zu schwachen Basislinien. Zweitens fanden wir Hinweise auf eine weit verbreitete Berichterstattungsverzerrung, insbesondere bei der Ergebnisberichterstattung und beim Publikationsbias. Wir kommen zu dem Schluss, dass die Forschung zum maschinellen Lernen zur Lösung partieller Differentialgleichungen zu optimistisch ist: Schwache Eingabedaten können zu zu positiven Ergebnissen führen und Berichterstattungsverzerrung kann zu einer Unterberichterstattung negativer Ergebnisse führen. Diese Probleme scheinen größtenteils durch Faktoren verursacht zu werden, die früheren Reproduzierbarkeitskrisen ähneln: Ermessensspielraum des Prüfers und positiver Ergebnisbias. Wir fordern einen Kulturwandel von unten nach oben, um voreingenommene Berichterstattung zu minimieren, und eine strukturelle Reform von oben nach unten, um die falschen Anreize dafür zu verringern.
Die durch die systematische Überprüfung erstellte Liste der Autoren und Artikel sowie die Klassifizierung jedes Artikels in der Zufallsstichprobe sind öffentlich verfügbar unter https://doi.org/10.17605/OSF.IO/GQ5B3 (Ref. 124).
Der zur Reproduktion der Ergebnisse in Tabelle 2 erforderliche Code ist auf GitHub zu finden: https://github.com/nickmcgreivy/WeakBaselinesMLPDE/ (Ref. 125) und auf Code Ocean: https://codeocean.com/capsule/9605539/Tree/ v1 (Link 126) und https://codeocean.com/capsule/0799002/tree/v1 (Link 127).
Randall, D., und Welser, K., Die Irreproduzierbarkeitskrise in der modernen Wissenschaft: Ursachen, Folgen und Wege zur Reform (National Association of Scientists, 2018).
Ritchie, S. Science Fiction: Wie Betrug, Voreingenommenheit, Schweigen und Hype die Suche nach der Wahrheit untergraben (Vintage, 2020).
Offene wissenschaftliche Zusammenarbeit. Bewertung der Reproduzierbarkeit in der psychologischen Wissenschaft. Science 349, AAAC4716 (2015).
Prinz, F., Schlange, T. und Asadullah, K. Ob Sie es glauben oder nicht: Wie sehr können wir uns auf veröffentlichte Daten zu potenziellen Wirkstoffzielen verlassen? Nat. Rev. „Die Entdeckung von Medikamenten.“ 10, 712 (2011).
Begley, KG und Ellis, LM: Höhere Standards in der präklinischen Krebsforschung. Nature 483, 531–533 (2012).
A. Gelman und E. Loken, Der Garten der sich verzweigenden Pfade: Warum Mehrfachvergleiche auch ohne „Fischzüge“ oder „P-Hacks“ und vorgefertigte Forschungshypothesen ein Problem darstellen, Bd. 348, 1–17 (Department of Statistics, 2013).
Karagiorgi, G., Kasecka, G., Kravitz, S., Nachman, B. und Shi, D. Maschinelles Lernen auf der Suche nach neuer fundamentaler Physik. Nat. Doktor der Philosophie in Physik. 4, 399–412 (2022).
Dara S, Damercherla S, Jadhav SS, Babu CM und Ahsan MJ. Maschinelles Lernen in der Arzneimittelforschung: eine Übersicht. Atif. Intel. Ed. 55, 1947–1999 (2022).
Mather, AS und Coote, ML Deep Learning in der Chemie. J.Chemistry. benachrichtigen. Modell. 59, 2545–2559 (2019).
Rajkomar A., ​​Dean J. und Kohan I. Maschinelles Lernen in der Medizin. New England Journal of Medicine. 380, 1347–1358 (2019).
Grimmer J, Roberts ME. und Stewart BM Maschinelles Lernen in den Sozialwissenschaften: ein agnostischer Ansatz. Rev. Ann Ball. Wissenschaft. 24, 395–419 (2021).
Jump, J. et al. Treffen Sie hochpräzise Proteinstrukturvorhersagen mit Alphafold. Nature 596, 583–589 (2021).
Gundersen, OE, Coakley, K., Kirkpatrick, K. und Gil, Y. Quellen der Irreproduzierbarkeit beim maschinellen Lernen: Eine Übersicht. Vorabdruck verfügbar unter https://arxiv.org/abs/2204.07610 (2022).
Scully, D., Snook, J., Wiltschko, A. und Rahimi, A. Der Fluch des Gewinners? Über die Geschwindigkeit, den Fortschritt und die Genauigkeit empirischer Beweise (ICLR, 2018).
Armstrong, TG, Moffat, A., Webber, W. und Zobel, J. Nicht-additive Verbesserungen: vorläufige Suchergebnisse seit 1998. 18. ACM-Konferenz für Informations- und Wissensmanagement 601–610 (ACM 2009).
Kapoor, S. und Narayanan, A. Leckage- und Reproduzierbarkeitskrisen in der auf maschinellem Lernen basierenden Wissenschaft. Patterns, 4, 100804 (2023).
Kapoor S. et al. Reform: Wissenschaftliche Berichtsstandards basierend auf maschinellem Lernen. Vorabdruck verfügbar unter https://arxiv.org/abs/2308.07832 (2023).
DeMasi, O., Cording, C. und Recht, B. Bedeutungslose Vergleiche können zu falschem Optimismus beim medizinischen maschinellen Lernen führen. PloS ONE 12, e0184604 (2017).
Roberts, M., et al. Häufige Fallstricke und bewährte Methoden für den Einsatz von maschinellem Lernen zur Erkennung und Vorhersage von COVID-19 anhand von Röntgenaufnahmen des Brustkorbs und Computertomographie. Nat. Max. Intel. 3, 199–217 (2021).
Winantz L. et al. Vorhersagemodelle für die Diagnose und Prognose von COVID-19: eine systematische Überprüfung und kritische Bewertung. BMJ 369, m1328 (2020).
Whalen S., Schreiber J., Noble WS und Pollard KS: Die Fallstricke des Einsatzes von maschinellem Lernen in der Genomik überwinden. Nat. Pastor Ginette. 23, 169–181 (2022).
Atris N. et al. Best Practices für maschinelles Lernen in der Chemie. Nat. Chemical. 13, 505–508 (2021).
Brunton SL und Kutz JN Vielversprechende Richtungen für das maschinelle Lernen partieller Differentialgleichungen. Nat. calculate. science. 4, 483–494 (2024).
Vinuesa, R. und Brunton, SL Verbesserung der numerischen Strömungsmechanik durch maschinelles Lernen. Nat. calculate. science. 2, 358–366 (2022).
Comeau, S. et al. Wissenschaftliches maschinelles Lernen mit physikalisch informierten neuronalen Netzwerken: Wo wir jetzt stehen und was als nächstes kommt. J. Science. berechnen. 92, 88 (2022).
Duraisamy, K., Yaccarino, G. und Xiao, H. Turbulenzmodellierung im Datenzeitalter. Überarbeitete Ausgabe von Ann. 51, 357–377 (2019).
Durran, DR Numerische Methoden zur Lösung von Wellengleichungen in der geophysikalischen Hydrodynamik, Bd. 32 (Springer, 2013).
Mishra, S. Ein Framework für maschinelles Lernen zur Beschleunigung der datengesteuerten Berechnung von Differentialgleichungen. Mathematik. Ingenieur. https://doi.org/10.3934/Mine.2018.1.118 (2018).
Kochikov D. et al. Maschinelles Lernen – Beschleunigung der numerischen Strömungsdynamik. Prozess. Nationale Akademie der Wissenschaften. Wissenschaft. US 118, e2101784118 (2021).
Kadapa, K. Maschinelles Lernen für Informatik und Ingenieurwesen – eine kurze Einführung und einige wichtige Themen. Vorabdruck verfügbar unter https://arxiv.org/abs/2112.12054 (2021).
Ross, A., Li, Z., Perezhogin, P., Fernandez-Granda, C. und Zanna, L. Vergleichende Analyse der Parametrisierung von Ozean-Subgrids durch maschinelles Lernen in idealisierten Modellen. J.Adv. Modell. Erdsystem. 15. e2022MS003258 (2023).
Lippe, P., Wieling, B., Perdikaris, P., Turner, R. und Brandstetter, J. PDE-Verfeinerung: Erreichen genauer langer Extrusionen mit einem neuronalen PDE-Löser. 37. Konferenz über neuronale Informationsverarbeitungssysteme (NeurIPS 2023).
Frachas, PR et al. Backpropagation-Algorithmus und Reservoirberechnung in rekurrenten neuronalen Netzwerken zur Vorhersage komplexer räumlich-zeitlicher Dynamiken. Neuronales Netzwerk. 126, 191–217 (2020).
Raissi, M., Perdikaris, P. und Karniadakis, GE Physik, Informatik, neuronale Netzwerke: ein Deep-Learning-Framework zur Lösung von Vorwärts- und Inversproblemen mit nichtlinearen partiellen Differentialgleichungen. J. Computer. Physik. 378, 686–707 (2019).
Grossmann, TG, Komorowska, UJ, Lutz, J., und Schönlieb, K.-B. Können physikbasierte neuronale Netzwerke Finite-Elemente-Methoden übertreffen? IMA J. Anwendungen. Mathematik. 89, 143–174 (2024).
de la Mata, FF, Gijon, A., Molina-Solana, M. und Gómez-Romero, J. Physikbasierte neuronale Netzwerke für datengesteuerte Modellierung: Vorteile, Einschränkungen und Möglichkeiten. Physik. A 610, 128415 (2023).
Zhuang, P.-Y. & Barba, LA Ein empirischer Bericht über physikbasierte neuronale Netzwerke in der Fluidmodellierung: Fallstricke und Enttäuschungen. Vorabdruck verfügbar unter https://arxiv.org/abs/2205.14249 (2022).
Zhuang, P.-Y. und Barba, LA Prädiktive Einschränkungen physikalisch informierter neuronaler Netzwerke bei der Wirbelbildung. Vorabdruck verfügbar unter https://arxiv.org/abs/2306.00230 (2023).
Wang, S., Yu, H. und Perdikaris, P. Wann und warum Pinns nicht trainieren: Eine Perspektive des neuronalen Tangentenkerns. J. Computer. Physik. 449, 110768 (2022).
Krishnapriyan, A., Gholami, A., Zhe, S., Kirby, R. und Mahoney, MW. Merkmale möglicher Fehlermodi in neuronalen Netzwerken mit physikalischen Informationen. 35. Konferenz über neuronale Informationsverarbeitungssysteme, Band 34, 26548–26560 (NeurIPS 2021).
Basir, S. und Senokak, I. Eine kritische Studie zu Fehlermodi in physikbasierten neuronalen Netzwerken. Im AiAA SCITECH 2022 Forum 2353 (ARK, 2022).
Karnakov P., Litvinov S. und Koumoutsakos P. Lösen physikalischer inverser Probleme durch Optimierung diskreter Verluste: schnelles und genaues Lernen ohne neuronale Netzwerke. Prozess. Nationale Akademie der Wissenschaften. Wissenschaft. Nexus 3, pgae005 (2024).
Gundersen OE Grundprinzipien der Reproduzierbarkeit. Phil.cross. R. Shuker. A 379, 20200210 (2021).
Aromataris E und Pearson A. Systematische Übersichtsarbeiten: ein Überblick. Ja. J. Nursing 114, 53–58 (2014).
Magiera, J., Ray, D., Hesthaven, JS, und Rohde, K. Constraint-aware neuronale Netzwerke für das Riemann-Problem. J. Computer. Physik. 409, 109345 (2020).
Bezgin DA, Schmidt SJ und Adams NA Datengesteuerter, physikalisch informierter Finite-Volumen-Schaltkreis für nicht-klassische reduzierte Spannungsschocks. J. Computer. Physik. 437, 110324 (2021).


Veröffentlichungszeit: 29. September 2024