Der Wert der „vernetzten Landwirtschaft“, den Landwirten das Leben zu erleichtern und ihnen zu helfen, die Umweltauswirkungen ihrer Praktiken zu reduzieren, ist nicht mehr unbewiesen. Ein weiterer Vorteil zeichnet sich ab: Durch die Bereitstellung großer Datenmengen von forschungsnaher Qualität trägt sie dazu bei, die agronomische und Tierzuchtforschung stärker an den Bedürfnissen der Landwirte auszurichten und die öffentliche Agrarpolitik besser zu informieren.
Die digitale Landwirtschaft ist ein Konzept, das sich zu demokratisieren beginnt, wie die Bedeutung des Themas auf der Pariser Landwirtschaftsmesse kürzlich gezeigt hat. In der düsteren Atmosphäre, die durch das Gefühl des „Agri-Bashing“ vieler Bauern erzeugt wurde, war es eines der wenigen Themen, das ein positives und ansprechendes Gesamtbild der jüngsten Entwicklungen in der Landwirtschaft vermittelt hat.
Digitale landwirtschaftliche Geräte wurden zunächst entwickelt, um den Landwirten das Leben zu erleichtern (GPS-Steuerung, Herdenüberwachungssensoren) und ihnen zu helfen, ihre landwirtschaftlichen Praktiken auf Umweltebene zu optimieren (angeschlossene Wetterstationen, Pflanzenmodelle zur Optimierung der Inputnutzung). Sie haben auch die Beziehungen zu den Verbrauchern gestärkt, die dank der Entwicklung der Rückverfolgbarkeit und der sozialen Netzwerke den von ihnen gekauften Lebensmitteln nun ein Gesicht und einen Namen geben können.
Die vernetzte Landwirtschaft beginnt auch hinter den Kulissen eine neue positive Wirkung zu entfalten, die in Zukunft eine noch positivere Rolle für die Landwirtschaft spielen könnte: den Landwirten die Forschungswelt näherzubringen… und damit den politischen Entscheidungsträgern, die sie nutzen.
Wenn Wissenschaft auf landwirtschaftlicher Ebene betrieben werden muss
Diese Entwicklung ist in einigen Bereichen der Forschung und Entwicklung in der digitalen Landwirtschaft bereits Realität. Um das Beispiel der Herdenüberwachungssensoren zu nennen: Sie wurden zunächst entwickelt, um ungewöhnliche und eindeutig identifizierte Ereignisse wie Temperaturen oder Kalbungen zu erkennen. Diese ersten Anwendungen wurden in einem konventionellen Forschungsumfeld von oben nach unten vom Labor bis zum Feld entwickelt: Algorithmen zur Ereignisdetektion wurden in Versuchen in Versuchsbetrieben von Forschungs- oder Technikinstituten entwickelt, dann auf einer kleinen Anzahl von Farmen getestet, bevor sie kommerziell eingeführt wurden.
Nachdem diese ersten Anwendungen ausgereift sind, konzentriert sich die Forschung nun auf Analysen des täglichen Verhaltens und des Wohlergehens der Tiere: zum Beispiel die Messung der Steh- und Liegezeit, der Fütterungs- und Wiederkäuzeit. In diesen Bereichen ist es wichtig, subtilere Veränderungen im „Alltag“ der Tiere im Vergleich zu ihrer normalen Aktivität zu erkennen. Das macht es sehr schwierig, diese Art von Algorithmus in Versuchsbetrieben zu entwickeln, wo die üblichen Aktivitäten der Tiere (Melken, Weidegang usw.) häufig durch Experimente gestört werden, die ihr übliches Verhalten ändern und Bewegungen oder Unbeweglichkeit erzeugen, die in einem kommerziellen Betrieb nicht vorkommen würden. Diese Art von Arbeiten sollte daher direkt im Feld durchgeführt werden, wobei Experimente unter kontrollierten Bedingungen nur als Stichproben in einer Minderheit von Situationen verwendet werden. Dies ist ein Beispiel für eine Umkehrung der klassischen Beziehung zwischen wissenschaftlichen Experimenten und Felddaten.
Vom Labor zum Weinberg…. und zurück!
Ein weiteres Beispiel für die Verknüpfung von Forschung mit den Anliegen der Landwirte ist die Verwendung mechanistischer Pflanzenmodelle in Entscheidungshilfsmitteln. Diese aus der agronomischen Forschung stammenden Modelle werden zunehmend für die Ertragsprognose und das Management der benötigten Inputs (Bewässerung, Düngung) eingesetzt. Ähnliche epidemiologische Modelle werden auch verwendet, um das Auftreten von Krankheiten oder Schädlingen, die Pflanzen bedrohen, vorherzusagen, um Pestizidbehandlungen möglichst genau zu positionieren.
Diese Modelle sind durch ihr Design, das das Ergebnis umfangreicher ökophysiologischer Forschung ist, ausreichend robust und vorhersagbar, um plausible Simulationen über die möglichen Auswirkungen von Veränderungen der Praktiken aus agro-ökologischen Gründen oder zur Anpassung an den Klimawandel zu ermöglichen. Sie haben auch den Vorteil, dass sie die Umweltbedingungen, denen Pflanzen ausgesetzt sind, objektiv quantifizieren.
Die Evapotranspiration ist ein klassisches Beispiel für einen einfachen Indikator zur Messung des Pflanzenwasserbedarfs, der dann als Maßstab herangezogen werden kann, um zu überprüfen, ob die Bewässerung durch den Landwirt Wasserverluste vermieden hat. Es bleibt jedoch ein relativ einfacher Indikator, der nur in den einfachsten Fällen relevant ist: bei denen wir nur versuchen, das Ertragspotenzial durch Vermeidung von Wassermangel für die Ernte zu erhalten. Bei einigen Produkten sind Bewässerungsprobleme komplexer, da ein kleiner, gut kontrollierter Wassermangel die Qualität der Produktion verbessert: Der bekannteste Fall sind Reben, bei denen die ideale Methode, die durch die Spezifikationen der Weinbezeichnung definiert ist, darauf abzielt, während der Reifung der Traube einen gemäßigten Wassermangel zu erzeugen, mit unterschiedlichen Schweregraden je nach der Art des Weins, den Sie produzieren möchten. In diesem Fall erfordert das Bewässerungsmanagement wesentlich komplexere Modelle als eine einfache Evapotranspirationsberechnung, und sie werden nicht nur Klimadaten, sondern auch Bodeneigenschaften und das Volumen der Vegetation im Weinberg verwenden. Auf den ersten Blick ist dies wieder ein Top-Down-Ansatz zur Maximierung des Forschungswertes, vom Labor bis zum Feld. Aber der Einsatz dieser Modelle in Landwirtschaftsbetrieben erlaubt dann wertvolles Feedback, das die theoretische Arbeit näher an die Praxis der Landwirte oder ihrer Berater bringt.
Die Vintel-Software, die von iTK in Zusammenarbeit mit (unter anderem) INRA und CIRAD entwickelt wurde, ist ein gutes Beispiel für diesen wechselseitigen Austausch zwischen Labor und Feld. Es wurde entwickelt, um die präzise Bewässerung von Reben zu optimieren und basiert auf einem Modell, das aus Forschungsarbeiten abgeleitet wurde, basierend auf einem klassischen Indikator in der Erforschung der konventionellen Wasserknappheit, dem grundlegenden Blattwasserpotenzial. Dieser Indikator ist der zuverlässigste für die Messung des Feuchtigkeitszustandes einer Weinpflanze, aber seine Messung ist fummelig, was ihren Einsatz im Weinberg einschränkt: Er muss im Morgengrauen mit einem bestimmten Gerät, der Druckkammer, gemessen werden. Einige Weinberater, insbesondere in Kalifornien, nutzen Druckkammern, um Winzer zu beraten. Sie nutzen diese Maßnahmen jedoch aus Bequemlichkeit um die Mittagszeit, aber auch, um das Wasserdefizit des Grundstücks zu der Tageszeit, in der es sich auf seinem Höhepunkt befindet[1], um es besser zu verstehen.
Diese Art der Messung ist in der Forschung viel weniger verbreitet, so dass es ursprünglich unmöglich war, ein mechanistisches Modell zu entwickeln, um es zu simulieren. Vintel wurde zunächst mit einem Modell veröffentlicht, das nur das grundlegende Blattwasserpotenzial schätzte. Nach einigen Jahren der Nutzung dieser ersten Version durch Berater, die Experten für die Nutzung der Mittags-Potentialmessung sind, konnte dann ein zweites Modell für das Mittags-Blattwasserpotenzial entwickelt werden, das meteorologische Daten und Indikatoren aus dem Basispotenzial kombiniert, ohne den Laborprozess erneut zu durchlaufen.[2]
Dieses Beispiel zeigt deutlich die neue Komplementarität zwischen Forschung und digitalen Instrumenten für Landwirte: Es sind offensichtlich die Daten aus dem Feld, die es ermöglicht haben, ein Modell des Mittags-Blattwasserpotenzials zu entwickeln, das den Gewohnheiten der Winzertechniker entspricht. Aber das allein hätte nicht gereicht, um ein zuverlässiges statistisches Modell zu entwickeln: Nur die Kombination mit Indikatoren aus einem mechanistischen, aus der Forschung stammenden Modell könnte zur Entwicklung eines Modells führen, das robust genug ist, um Winzern und Beratern anvertraut zu werden.
„Medium Data“ vs. Big Data
Vor einigen Jahren führte die Explosion der Big Data-Technologien und ihre Einführung in die landwirtschaftliche Welt zu einer eher binären Sichtweise, die zwischen zwei wissenschaftlichen Ansätzen gespalten ist:
– Auf der einen Seite der klassische Ansatz der agronomischen oder tierzüchterischen Forschung, der auf qualitativ hochwertigen, aber relativ spärlichen Experimenten aufbaut, um prädiktive Modelle zu entwickeln, die zur Entscheidungsunterstützung genutzt werden können, basierend auf der menschlichen Expertise der Forscher.
– Andererseits wenden die neuen datenzentrierten Big Data-Ansätze maschinelle Lerntechniken (Machine Learning, Deep Learning) auf massive Datenmengen von neuen Sensoren in der Landwirtschaft an (kombinierte Ertragssensoren, Datenerfassung durch Melkroboter).
Die Begeisterung für Big Data basierte auf der Annahme, dass tiefes Lernen die Entwicklung zuverlässiger Vorhersagemodelle ermöglichen würde, trotz des „Lärms“, der durch die Informationen aus den Massen der gesammelten Daten erzeugt wird, die über das hinausgehen, was menschliche Expertise zu analysieren vermag. Tatsächlich stieß diese Hoffnung schnell auf die größte Schwierigkeit der maschinellen Lerntechniken: ihre mangelnde Benutzerfreundlichkeit…. sowohl für Endverbraucher (Landwirte oder Züchter) als auch für Servicedesigner! Das maschinelle Lernen ermöglicht es heute sicherlich, scheinbar zufriedenstellende Entscheidungsregeln oder -modelle aus einem ausreichend großen Datensatz zu definieren. Aber ohne die diesen Modellen zugrunde liegende „Argumentation“ zu kennen, können selbst ihre Designer nicht vorhersagen, inwieweit diese Regeln oder Modelle in neuen Kontexten angewendet werden können: eine eher beunruhigende Unsicherheit bei der Entwicklung neuer landwirtschaftlicher Dienstleistungen über die Bereiche hinaus, in der sie sich ursprünglich bewährt haben, oder in neuen Klimasituationen.
Neben der Sensibilität für unvorhersehbare Klimarisiken hat die Landwirtschaft ein weiteres ungünstiges Merkmal für das maschinelle Lernen: Die realen Daten, die vor Ort gesammelt werden können, decken bei weitem nicht alle möglichen Kombinationen von Anbautechniken ab. Die technischen Strategien der Landwirte werden von ihren Gewohnheiten, Erfahrungen und dem Fachwissen ihrer Berater beeinflusst und sind daher implizit durch menschliche Gründe eingeschränkt. Dabei unterscheidet sich die Situation völlig von Bereichen wie dem maschinellen Lernen bei Spielen wie Schach oder Go: Im letzteren Fall ist der Algorithmus in der Lage, auf der Grundlage der Spielregeln alle möglichen und denkbaren Kombinationen zu testen, auch solche, die einem menschlichen Experten nicht einfallen würden. In der Landwirtschaft wird die künstliche Intelligenz dadurch behindert, dass die verfügbaren Daten das Ergebnis menschlichen Denkens sind, was sie daran hindert, originelle „Lösungen“ zur Erfindung neuer Praktiken zu finden.
Das Ergebnis dieser Einschränkungen ist, dass rein datengetriebene Ansätze darum kämpfen, einen entscheidenden Durchbruch in der landwirtschaftlichen Entscheidungsunterstützung zu erzielen. Die Zukunft ist zweifellos, wie wir am Beispiel von Vintel gesehen haben, die Kombination von datengesteuerten Ansätzen und mechanistischen Modellen, um menschliche Expertise in die Künstliche Intelligenz zu integrieren. Diese neue Vision, die hybride KI, wurde als eines der Hauptthemen von ANITI ausgewählt, dem neuen Institut für Künstliche Intelligenz, das derzeit in Toulouse gegründet wird…. und die Landwirtschaft wurde als eines ihrer vorrangigen Anwendungsgebiete identifiziert.[3]
Diese enge Verbindung zwischen wissenschaftlicher Expertise und Betriebsdaten hat eine offensichtliche Folge: die Notwendigkeit, die Lücke zwischen Big Data und Forschungsdaten zu schließen. Das ist die Aufgabe dessen, was man als „Medium Data“ bezeichnen kann: fundierte Daten von Landwirtschaftsbetrieben oder zumindest von Flächen, die unter ähnlichen Bedingungen wie die von Landwirtschaftsbetrieben betrieben werden. Bisher wurde diese Rolle der Erzeugung von Zwischendaten vollständig auf Experimente bei landwirtschaftlichen Entwicklungsagenturen wie technischen Instituten, Landwirtschaftskammern, Genossenschaften übertragen.[4] Die digitale Landwirtschaft wird es ermöglichen, eine neue Kategorie von „medium data“ zu schaffen: Daten von forschungsnaher Qualität, die sich jedoch über Hundert oder Tausende von Landwirtschaftsbetrieben erstrecken.
Zwischen den wissenschaftlichen Daten der Forschung, die von hoher Qualität, aber spärlich sind, und den „Big Data “ der Sensoren, die in landwirtschaftliche Geräte eingebettet sind, ermöglicht die vernetzte Landwirtschaft die Entstehung von „Medium Data“: Daten von forschungsnaher Qualität, die in landwirtschaftlichen Betrieben erworben wurden, und nicht von kleinen, nicht repräsentativen Experimentierflächen. Es ist dieses Kontinuum von Daten, das die hybride künstliche Intelligenz (eine Kombination aus maschinellem Lernen und mechanistischer menschlicher Expertise) antreiben wird, eine der vielversprechendsten Möglichkeiten in der heutigen KI.
Indikatoren zur Aufklärung der öffentlichen Agrarpolitik
Am Beispiel der Bewässerung haben wir gesehen, dass sich landwirtschaftliche Entscheidungshilfe-Tools gut für die Erstellung objektiver Indikatoren für den Pflanzenbedarf eignen: Der gleiche Ansatz ist leicht auf die Düngung und den Pflanzenschutz übertragbar. Epidemiologische Modelle, mit denen bereits optimale Behandlungstermine für Krankheiten und Schädlinge ermittelt wurden, könnten auch auf Parzellenebene zur Quantifizierung der noch vagen und subjektiven Vorstellung von „Krankheitsbedrohung“ herangezogen werden. Solche Indikatoren wären für die Verbesserung der Überwachung von Ecophyto, dem Plan zur Verringerung des Einsatzes von Pestiziden, der 2010 im Anschluss an die Debatte „Grenelle de l’Environnement“ gestartet wurde, von großem Nutzen. Es ist keine Übertreibung, wenn man sagt, dass der Plan fast 10 Jahre nach seiner Einführung weit von dem ihm zugewiesenen Reduktionsziel von 50% („falls möglich“) entfernt ist: Der Pestizidverbrauch zeigt keine wesentlichen Veränderungen gegenüber dem nationalen Durchschnitt. Noch beunruhigender ist, dass selbst die wichtigsten Farmen des Plans, das Dephy-Netzwerk, noch lange nicht das erwartete Ziel erreicht haben. Angesichts dessen, was kaum anders als als ein Misserfolg beschrieben werden kann, hat die Académie d’Agriculture de France kürzlich Empfehlungen zur Verbesserung der Verwaltung des Ecophyto-Plans ausgesprochen,[5] einschließlich der Schaffung eines solchen Indikators für den gesundheitlichen Druck auf die landwirtschaftlichen Kulturen. Die digitale Landwirtschaft könnte auch bei einem anderen Vorschlag der Akademie eine wichtige Rolle spielen: den jährlichen Erhebungen über die landwirtschaftlichen Praktiken, den einzigen Referenzen, die verwendet werden können, um den Pestizidverbrauch der Landwirte im Detail zu berechnen. Tatsächlich ist der aktuelle Indikator für den Ökophyto-Plan, NODU, nicht für eine agronomische Interpretation geeignet, die eine Berechnung des potenziellen Rückgangs des Pestizideinsatzes auf Betriebsebene ermöglichen würde. Ein weiterer Indikator, der TFI, würde diese Berechnung ermöglichen, obwohl er derzeit nur alle drei Jahre berechnet wird, aufgrund der Kosten der derzeit für die Datenerhebung erforderlichen Umfragen. Dies ist nach wie vor die Situation, aber die Parzellenmanagement-Software ermöglicht die automatische Berechnung dieses Indikators für Landwirte, die über die entsprechenden Geräte verfügen. Ein repräsentatives Netzwerk von Landwirtschaftsbetrieben, die mit dieser Software ausgestattet sind, würde es daher ermöglichen, die jährlichen TFIs kostengünstiger zu berechnen und mit den oben genannten gesundheitlichen Druckindikatoren zu vernetzen. Es sollte also möglich sein, den Ecophyto-Plan genauer zu verfolgen…. und wahrscheinlich einen realistischeren Satz von Zielen für ihn neu zu definieren, der nach Kulturpflanzen und Regionen differenziert ist!
Die partizipatorische Wissenschaft, die auf dem Wissen ihrer zukünftigen Nutzer und der Interessengruppen der Zivilgesellschaft aufbaut, ist einer der wichtigsten Trends in der aktuellen Forschung. INRA hat sich auch in diesem Bereich stark engagiert.[6] Viele partizipatorische wissenschaftliche Arbeiten bleiben jedoch sehr asymmetrisch: Forscher sind oft die einzigen Akteure, die die Theorien auf der Grundlage des informellen und unorganisierten Wissens der am Projekt beteiligten Akteure vorlegen. Die vernetzte Landwirtschaft bietet den Landwirten eine einzigartige Möglichkeit, sich die sie betreffenden Forschungsthemen anzueignen und Daten für sich selbst zu produzieren, die für sie ebenso verständlich sind wie für die Forscher, die sie nutzen werden. Über seine Auswirkungen auf die tägliche Arbeit der Landwirte hinaus hat es daher ein großes Potenzial, die Forschung ihren Bedürfnissen näher zu bringen und es Politikern zu ermöglichen, ihre Praktiken besser zu verstehen. Auf diese Weise wird die Landwirtschaft in der Lage sein, die vielfältigen Erwartungen der Gesellschaft an sie zu erfüllen.
[1] https://www6.inra.fr/ciag/content/download/5543/42323/file/Vol38-11-Saurin.pdf
[2] https://www.researchgate.net/publication/288664693_Itk_Vintel_Predicting_midday_leaf_water_potential_from_pedoclimatic_data
[3] https://www.lesechos.fr/pme-regions/actualite-pme/toulouse-developpera-lintelligence-artificielle-hybride-150883
[4] http://www.itk.fr/wp-content/uploads/2018/04/ITK-Intelligence-Artificielle-Agriculture.pdf
[5] https://www.academie-agriculture.fr/publications/publications-academie/points-de-vue/pour-un-meilleur-pilotage-du-plan-ecophyto-2
[6] https://sciencesparticipatives.inra.fr/
This post is also available in: EN (EN)FR (FR)