P317 - 42. GIL-Jahrestagung 2022 - Fokus: Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft

Autor*innen mit den meisten Dokumenten  

Auflistung nach:

Neueste Veröffentlichungen

1 - 10 von 61
  • Konferenzbeitrag
    Akustische Insektenerkennung – Deep Learning zur Klassifikation leisester Fluggeräusche
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Branding, Jelto; von Hoersten, Dieter; Wegener, Jens Karl; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Assistenzsysteme und Apps bieten ein großes Potenzial für die Steigerung der Effizienz und Nachhaltigkeit im Gartenbau. Im Bereich der Schädlingsbekämpfung haben alle aktuellen Apps und Systeme gemein, dass sie eine große Schwachstelle in der digitalen Erfassung der Insektenpopulationen im Gewächshaus aufweisen. Aus diesem Grund werden im Projekt IPMaide verschiedene sensorische Ansätze für die automatisierte Detektion von Insekten untersucht. Eine vielversprechende Möglichkeit ist die akustische Insektenerkennung. Hier sollen Methoden aus der Schädlingserkennung im Vorratsschutz mit neuesten Ansätzen im Bereich der Klassifikation von Geräuschen zusammengebracht werden, um eine Sensorlösung für die Insektenerkennung im Gewächshaus zu entwickeln. Für die nötige Datensatzerstellung wurde eine schallgeschützte Messumgebung entworfen und High- und Low-Cost-Messtechnik für akustische Aufnahmen unter Labor- und Realbedingungen verglichen. Die Ergebnisse zeigen, dass kostengünstigere Mikrofone gerade im relevanten tiefen Frequenzbereich unempfindlicher sind. Ein Lösungsansatz zur Filterung von Nutz- und Störgeräuschen stellen Array-Anordnungen der Mikrofone dar.
  • Konferenzbeitrag
    AI-supported data annotation in the context of UAV-based weed detection in sugar beet fields using Deep Neural Networks
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Jonas Boysen, Jonas; Stein, Anthony; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Recent Deep Learning-based Computer Vision methods proved quite successful in various tasks, also involving the classification, detection and segmentation of crop and weed plants with Convolutional Neural Networks (CNNs). Such solutions require a vast amount of labeled data. The annotation is a tedious and time-consuming task, which often constitutes a limiting factor in the Machine Learning process. In this work, an approach for an annotation pipeline for UAV-based images of sugar beet fields of BBCH-scale 12 to 17 is presented. For the creation of pixel-wise annotated data, we utilize a threshold-based method for the creation of a binary plant mask, a row detection based on Hough Transform and a lightweight CNN for the classification of small, cropped images. Our findings demonstrate that an increased image data annotation efficiency can be reached by using an AI approach already at the crucial Machine Learning-process step of training data collection.
  • Konferenzbeitrag
    Indicator plant species detection in grassland using EfficientDet object detector
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Basavegowda, Deepak Hanike; Mosebach, Paul; Schleip, Inga; Weltzien, Cornelia; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Extensively used grasslands (meadows and pastures) are ecologically valuable areas in the agricultural landscape and part of the multifunctional agriculture. In Germany, the quality of these grasslands is assessed based on the occurrence of certain plant species known as indicator or character species, with indicators being defined at regional level. Therefore, the recognition of these indicators on a spatial level is a prerequisite for monitoring grassland biodiversity. The identification of indicator species for the status quo of grassland using traditional methods was found to be challenging and tedious. Deep learning-algorithms applied to high-resolution UAV imagery could be the key solution, where UAV with remote sensors can map a large area of grassland in comparison to manual or ground mapping methods and deep learning-algorithms can automate the detection process. In this research work, we use an EfficientDet based algorithm to train an object detection model capable of recognizing indicators on RGB data. The experimental results show that this approach is very promising in contrast to the difficult and time-consuming manual recognition methods. The model was trained with the momentum-SGD optimizer with a momentum value of 0.9 and a learning rate of 0.0001. The model was trained and tested on 1200 images and achieves 45.7 AP (and 85.7 AP50) on test data set. The dataset includes images of four distinct indicator plant species: Armeria maritima, Campanula patula, Cirsium oleraceum, and Daucus carota
  • Konferenzbeitrag
    42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft - Komplettband
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Gesellschaft für Informatik in der Land- Forst- und Ernährungswirtschaft e.V.; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
  • Konferenzbeitrag
    The pitfalls of transfer learning in computer vision for agriculture
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Autz, Julius; Mishra, Saurabh Kumar; Herrmann, Lena; Hertzberg, Joachim; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Computer vision applications based on modern AI methods are becoming increasingly important in agriculture, supporting and automating common processes. These applications are usually based on well-established architectures and pre-trained models. However, our prior experience has shown that applying the concept of transfer learning to AI tasks in agriculture repeatedly resulted in systematic issues. The structure of agricultural images, containing objects similar in shape, color and texture, makes the reuse of well-established applications more challenging. To give a more detailed insight into the expected challenges, we trained two different networks, which are well-established in the literature: Mask R-CNN and YOLOv5 [He18; Jo21] and investigated them in two different learning setups. First, we applied the concept of transfer learning to these models by pre-training each on the COCO dataset and subsequently continued expanding the available target set with classes of the sugar beets dataset [Ch17]. In the second setup, we skipped pre-training and only trained the models on the given agriculture dataset. Furthermore, we describe the reasons for the results in more detail and highlight possible causes for the identified differences. Finally, the different performances of the networks allowed us to improve on best practices for the agricultural domain and give some advice for future computer vision tasks in this area.
  • Konferenzbeitrag
    Wissenstransfer durch integrative Lernkonzepte
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Wilmes, Rolf; Bauer, Bernhard; Braun, Kevin; Breunig, Peter; Fleischmann, Andreas; Meyer, Tobias; Noack, Patrick; Saeed, Muhammad Asif; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Der vorliegende Aufsatz soll das Potenzial von integrativen Lernkonzepten für den Wissenstransfer von digitalen Technologien in die landwirtschaftliche Praxis veranschaulichen. Im Rahmen des Experimentierfeldes Diabek wurde ein online-basiertes, integratives Lernkonzept entwickelt. Dies besteht aus einer Kombination von Online-Diskussionsveranstaltungen und frei zugänglichen Lern-Videos. Die bisherigen Erfahrungen und Möglichkeiten zur Skalierung werden im Folgenden geschildert.
  • Konferenzbeitrag
    Faktoren menschlichen Lernens als Grundlage für den Wissenstransfer in der Digitalisierung
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Thomas, Angelika; Knierim, Andrea; Schüle, Heinrich; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Der DiWenkLa-Verbund folgt einem Multi-Akteursansatz und bringt verschiedene Akteure zur Entwicklung und Erprobung digitaler Technologien in vier Anwendungsbereichen zusammen. Außer für die Wissensgenerierung bieten sich dadurch Ansatzpunkte für den Wissenstransfer. Bei den Technologien, die z. B. an Feldtagen demonstriert werden können, wurden bereits Wissenstransferaktivitäten mithilfe der Partner aus Industrie und Informationswesen umgesetzt. Dabei beruhen die Ansprüche an die Demonstration digitaler Techniken und den Austausch auf dem Verständnis von erfahrungsbasiertem Lernen.
  • Konferenzbeitrag
    Wissenstransfer im Experimentierfeld CattleHub
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Trilling, Maria; Ahmann, Johanna; Engels, Christiane; Heyde, Dorothée; Reichel, Christiane; Kluth, Natalia; Neeland, Heiko; Plettemeier, Dirk; Büscher, Wolfgang; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Der Wissenstransfer stellt im Experimentierfeld CattleHub das übergeordnete Ziel dar. Die Ergebnisse aus den Teilprojekten werden aktiv an rinderhaltende Landwirt:innen weiter-gegeben, um sie dadurch bei der Auswahl und Etablierung neuer Assistenzsysteme zu unterstützen. Die Einschränkungen während der Corona-Pandemie erschwerten die Durchführung von Präsenzveranstaltungen. Stattdessen wurden Online-Veranstaltungen angeboten und verstärkt soziale Medien zum Wissenstransfer genutzt. Diese Chance zur Erprobung neuer Formate und Medien im Wissens-transfer wird in der verbleibenden Projektlaufzeit fortgesetzt und das Angebot soweit möglich mit Präsenzveranstaltungen ergänzt.
  • Konferenzbeitrag
    Wissenstransfer im Experimentierfeld DigiSchwein
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Lieboldt, Marc-Alexander; Münzebrock, Lena; Sagkob, Stefan; Diekmann, Ludwig; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Gemäß dem Prinzip Theorie trifft Praxis verfolgt das Experimentierfeld DigiSchwein mit Hilfe seines Wissenstransferkonzepts das Ziel, die Erkenntnisse und Erfahrungen seiner F&E-Arbeit zum Einsatz digitaler Lösungen in der Schweinehaltung wirksam und Open Source in der Praxis und Lehre entlang der gesamten landwirtschaftlichen Wertschöpfungskette Schwein zu vermitteln. Hauptzielgruppen des Wissenstransfers sind derzeitige und zukünftige Landwirte als Anwender digitaler Lösungen, der ihnen vor- und nachgelagerte Bereich als Bereitsteller und Vernetzer dieser Lösungen sowie die Politik als rechtlicher Rahmengeber der Digitalisierung. In diesem Kurzbeitrag wird das Wissenstransferkonzept im Experimentierfeld DigiSchwein mit seiner Zielsetzung, seinen Zielgruppen sowie den auf sie abgestimmten Vernetzungs- und Transfermethoden vorgestellt. Der Leitsatz des Wissenstransfers im Projekt lautet DigiSchwein – beraten, qualifizieren, fördern.
  • Konferenzbeitrag
    Experimentierfeld DigiMilch
    (42. GIL-Jahrestagung, Künstliche Intelligenz in der Agrar- und Ernährungswirtschaft, 2022) Lorenzini, Isabella; Kulig, Stefanie; Haidn, Berhard; Gandorfer, Markus; Hoffmann, Christa; El Benni, Nadja; Cockburn, Marianne; Anken, Thomas; Floto, Helga
    Der Wissenstransfer im Rahmen des Experimentierfeldes DigiMilch erfolgt sowohl über klassische Medien als auch über soziale Medien und vielfältige digitale Inhalte. Durch die Sars-CoV2-Pandemie musste der Schwerpunkt des Wissenstransfers auf digitale Medien verschoben werden. Somit konnte trotz der geltenden Hygienebestimmungen der systematische Wissenstransfer durchgeführt werden.