Seegert, TimSchulze, PaulFuchs-Kittowski, FrankKlein, MaikeKrupka, DanielWinter, CorneliaGergeleit, MartinMartin, Ludger2024-10-212024-10-212024978-3-88579-746-3https://dl.gi.de/handle/20.500.12116/45264Die Phänologie von Pflanzen steht im direkten Zusammenhang mit klimatischen Bedingungen in Ökosystemen und kann helfen, die Auswirkungen des Klimawandels zu erkennen. Es besteht ein Bedarf an der Entwicklung von automatischen Methoden zur Erkennung von Phänophasen, um diese mittels Crowdsourcing erheben zu können. Ziel dieses Beitrags ist es, ein ML-Modell zu entwickeln, das in eine mobile Anwendung integriert werden kann, um phänologische Phasen automatisch zu erkennen. Hierfür wurden Anforderungen an phänologisches Bildmaterial definiert und verschiedene Bilddatenbanken als Datengrundlage untersucht. Drei verschiedene CNN-Modelle wurden für die Pflanzen Mais und Soja erstellt, die vier verschiedene phänologische Phasen eines Feldes unterscheiden können. Die entwickelten Modelle erreichten bei den Metriken „recall“, „precision“, „accuracy“ jeweils mindestens 90 % für Soja und Mais. Ein stichprobenhafter Test mit Nahaufnahmen führte zu falschen Klassifikationen. Mittels TensorFlow Lite konnte das Modell in mobile Anwendungen integriert werden. Für eine praktische Nutzung sind weitere Bilder von phänologischen Phasen (insbesondere Nahaufnahmen) zu berücksichtigen.dePhänophasenBilderkennungMaschinelles LernenCrowdsourcingCitizen ScienceMaschinelle Bilderkennung von Phänophasen bei PflanzenText/Conference Paper10.18420/inf2024_991617-5468