Menü

#Moin für …

AutoDrohn

Smarte Drohnentechnologie für die Landwirtschaft

Wie lassen sich Wildtiere während der Ernte schützen und gleichzeitig Schäden an Maschinen vermeiden? In diesem #MOIN-Projekt entsteht eine Drohne, die Tiere in Echtzeit erkennt und autonom navigiert – gesteuert von intelligenten, modellbasierten Algorithmen.

Lösungen für die Echtzeit-Tiererkennung werden mit Hilfe modernster Computer-Vision- und Sensorfusions-Algorithmen entwickelt, welche Daten von Radar, Kameras und Wärmebildtechnik, die an der Drohne angebracht sind, verarbeiten. Die autonome Steuerung der Drohne wird mit Hilfe von modellbasierten Reglern realisiert, die eine intelligente und optimale Navigation der Drohne ermöglichen.

Warum ist das wichtig?

Jedes Jahr sterben in Deutschland über eine halbe Million Wildtiere bei der Ernte – darunter rund 100.000 Rehkitze. Besonders problematisch ist, dass junge Kitze keinen Fluchtinstinkt haben und sich bei Gefahr im hohen Gras verstecken. Landwirte sind gesetzlich verpflichtet, solche Unfälle zu vermeiden, doch bisherige Maßnahmen wie das manuelle Absuchen der Felder oder der Einsatz von Drohnen mit Wärmebildkameras sind sehr aufwendig und oft unzuverlässig – vor allem bei Sonneneinstrahlung oder später am Tag.

Hier setzt unser Projekt an: Durch den Einsatz zusätzlicher Sensoren – wie Radar – und einen hohen Grad an Automatisierung soll die Drohne künftig selbstständig fliegen und Wildtiere zuverlässig erkennen. So schaffen wir eine tierfreundliche, effiziente und zukunftsfähige Lösung für die Landwirtschaft, die unabhängiger von der Tageszeit und den Wetterbedingungen wird.

Ein junges Rehkitz steht auf einer Wiese, umgeben von hohem, dichten Gras. Es ist aus der Vogelperspektive fotografiert und blickt nach oben, wodurch sein Gesicht gut sichtbar ist.

Für den späteren Einsatz solcher Drohnensysteme sind zwei Dinge besonders wichtig: Zum einen müssen Tiere oder andere Objekte auf dem Boden zuverlässig erkannt werden. Zum anderen muss die Drohne sicher fliegen können – also Hindernissen in der Luft automatisch ausweichen („Sense-and-Avoid“). Damit solche Systeme in Zukunft legal eingesetzt werden können, müssen auch rechtliche Rahmenbedingungen mitgedacht werden. Wie selbstständig eine Drohne in Zukunft fliegen darf, wird dabei ein zentrales Thema in der Abstimmung mit Behörden und Gesetzgebern sein.

Die Projektpartner

Universität Bremen, Zentrum für Industriemathematik, AG Optimierung und Optimale Steuerung

Ein Hauptziel für die Wissenschaftler*innen der Uni Bremen ist die Entwicklung effektiver Algorithmen zur Sensorfusion, die gleichzeitig die Daten von IR- und RADAR-Sensoren nutzen. Ein weiterer wichtiger Aspekt ist die autonome Navigation der Drohne, damit sie Hindernissen ausweichen und intelligent auf ihre Umgebung reagieren kann. Die Industriemathematiker*innen entwickeln dafür modellbasierte Regler, z. B. einen Model Predictive Controller, die bei der Berechnung von Steuersignalen die Umgebungsinformationen berücksichtigen.

Trilitec

Trilitec entwickelt in diesem Projekt ein Sensorsystem, das verschiedene Technologien kombiniert – darunter Kameras, Wärmebildtechnik und Radar. In enger Zusammenarbeit mit der Universität Bremen wird daran gearbeitet, die Daten dieser unterschiedlichen Sensoren intelligent zusammenzuführen. So sollen die Möglichkeiten für den Einsatz in der Landwirtschaft untersucht und bewertet werden. Besonders im Fokus steht die zuverlässige Erkennung von Tieren auf landwirtschaftlichen Flächen – und das deutlich effizienter und verlässlicher als bisher.

OptoPrecision

Im Projekt geht es darum, verschiedene technische Komponenten – wie Sensoren, Datenanalyse, Rechentechnik und Drohne – so aufeinander abzustimmen, dass sie gemeinsam ein leistungsfähiges und zuverlässiges Gesamtsystem bilden. Die Auswahl und Kombination dieser Bausteine beeinflusst entscheidend, wie schnell die Drohne fliegen kann und wie große Flächen sie in kurzer Zeit erfassen kann. Das ist wiederum wichtig für die Wirtschaftlichkeit des Gesamtsystems. Diese komplexe Aufgabe wird in enger Zusammenarbeit mit den Projektpartnern durch Systemengineering bei OptoPrecision gelöst.

Grafik eines stilisierten männlichen Avatars mit kurzen, dunklen Haaren auf blauem Hintergrund. Das Gesicht ist weiß und ohne Details dargestellt.

Kontakt

Ivan Mykhailiuk
Universität Bremen

ivamyk@uni-bremen.de