Die digitale Zukunft der Landwirtschaft beginnt hinter dem Hauptbahnhof von Osnabrück. Dort ist zwar gerade überall Baustelle. Schotter liegt herum, Umleitungen sind ausgeschildert, Bauzäune versperren Wege, die noch auf Teer und Pflastersteine warten. Aber immerhin ist halbwegs zu erkennen, was da entsteht.
Ähnlich geht es der Künstlichen Intelligenz (KI) zur Landwirtschaft, die mitten in diesem urbanen Bau-Chaos entwickelt wird. Denn dort, in einem frisch renovierten Ringlokschuppen hinter dem Osnabrücker Hauptbahnhof, tüfteln 45 Forscherinnen und Forscher an digitaler Pflanzenerkennung, an Robotern zum Gemüseanbau oder auch an Lösungen zur „Langzeit-Autonomie“. Was damit gemeint ist, erklärt Professor Joachim Hertzberg so: „Es ist das eine, einen Roboter für landwirtschaftliche Aufgaben zu konstruieren – aber es ist ein anderes, ihn so vorzubereiten, dass er diese Aufgaben an sieben Tagen in der Woche rund um die Uhr lang zuverlässig und selbstständig erledigen kann. Er soll ja nicht nur für seine Energiezufuhr sorgen, sondern soll möglichst selbstständig und über einen längeren Zeitraum mit allen erdenklichen Störungen auf dem Feld umgehen können – denken Sie etwa an Wildwechsel oder auch an mögliche Wetteränderungen.“
KI umgibt uns längst im Alltag
Ist KI die Zukunft der Landwirtschaft? „Zunächst einmal ist KI sehr viel Vergangenheit“, erwidert Joachim Hertzberg und lacht. Der Professor für Informatik leitet die Osnabrücker Abteilung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI – siehe Kasten). „KI ist eigentlich ein alter Hut“, setzt er hinzu. „Wir alle sind seit Langem im Alltag von KI umgeben, sie steckt in unseren Smartphones, in Navis, in Schachcomputern und längst auch an Maishäckslern, wenn dort eine Kamera am Auswurfkrümmer die optimale Beladung des Wagens steuert.“
DFKI: Forschung seit 35 Jahren
Das „Deutsche Forschungszentrum für Künstliche Intelligenz“ (DFKI), 1988 gegründet, ist ein Forschungsverbund privater Unternehmen, universitärer Forschung und staatlicher Träger. An dem als GmbH organisierten Verbund sind große Unternehmen wie Airbus, Telekom, Münchener Rück oder VW ebenso beteiligt wie kleinere mittelständische Firmen. Auch die Bundesländer Bremen, Rheinland-Pfalz und Saarbrücken sind Gesellschafter des DFKI, das mit öffentlichen Mitteln der EU, des Bundes sowie der Deutschen Forschungsgemeinschaft gefördert wird.
In acht Städten unterhält das DFKI Forschungseinrichtungen mit zusammen rund 1550 Beschäftigten. Sie entwickeln Anwendungen etwa zum autonomen Fahren, zur Logistik oder zum Einsatz von KI in der Medizin. Die Einrichtung in Osnabrück ist spezialisiert auf digitale Geschäftsmodelle für Unternehmen sowie auf Robotersysteme (Planbasierte Robotersteuerung). Sie arbeitet eng mit der Agrar- und Ernährungswirtschaft zusammen. Landtechnik, Agrifood, Lebensmittelverarbeitung und Logistik seien in der Region „eine prägende Größe, auch im bundesdeutschen Maßstab“, so der Osnabrücker DFKI-Leiter Joachim Hertzberg.
Aber was genau ist denn jetzt KI? Es ist Informatik, sagt Hertzberg, hat also nichts mit dem Nachbau von Gehirnen oder Ähnlichem zu tun. Der Grundauftrag lautet vielmehr: Eine Maschine soll zielgeleitet eine Aufgabe (oder mehrere) erledigen – und soll, während sie das tut, Entscheidungen in einer Umgebung treffen, die sie nicht vollständig kennt oder die sich auf vielfältige Weise verändern können.
Der Informatiker nennt eine weitere Bedingung: Die Maschine muss die vorgegebenen Regeln einhalten und darf sie nicht „überschreiben“, also von sich aus ändern. KI, auch das räumt Hertzberg beiseite, habe nichts mit „Intelligenz“ zu tun – und schon gar nicht mit einer, die sich gerade anschickt, die Macht über die Menschheit zu übernehmen. Das sei eine Kinoerfindung, winkt der Informatiker ab.
Er hält die Formel von der „Künstlichen Intelligenz“ ohnehin für unglücklich gewählt, weil sie in die Irre führe. Entstanden sei sie 1956 in den USA. Damals tauschten sich Forscher erstmals über Computer aus, die mehr als „nur“ rechnen konnten. Seither hat KI wiederholt Wellen der Aufmerksamkeit geschlagen. Das war so, als 1997 der Computer „Deep Blue“ den Schachweltmeister Garry Kasparow schlug. Das war so, als 2016 ein KI-Programm den Weltmeister Lee Sedol im Go-Spielen besiegte: Das asiatische Brettspiel galt wegen seiner unendlichen Variationsbreite und Komplexität als nicht berechenbar – bis KI auch diese Hürde übersprang. Viel
Wirbel um ChatGPT
Vor einem Jahr wurde die jüngste Woge der Aufmerksamkeit ausgelöst, als das US-Unternehmen Open AI seine Sprachmaschine „ChatGPT“ öffentlich zugänglich machte. Microsoft und Google folgten kurz darauf mit ähnlichen Angeboten namens Bing und Bard. Diese Programme können menschliche Sprache verstehen und in Echtzeit auf Fragen antworten – so jedenfalls wirkt es auf Nutzer. Eine Anfrage reicht, und ein GPT-Programm schreibt eine Rede, erstellt einen Düngeplan, verfasst ein Schulreferat oder eine rechtliche Expertise.
Auch Fotografien können erstellt – und gefälscht – werden. „Liefere mir ein Foto mit dem Papst im sündhaft teuren, topmodischen Wattemantel!“ Wenige Klicks reichten vor Monaten einem Unbekannten, um dieses täuschend echte Bild erzeugen zu lassen und um die Welt zu senden.
Das Kürzel GPT steht für „Generative pre-trained Transformer“, übersetzt etwa: erzeugender, vorgebildeter Umwandler. Das Programm saugt also nicht einfach Daten aus dem Internet und nestelt sie irgendwie neu zusammen. Es ist auch keine „neuartige“ Internetsuchmaschine, sondern funktioniert nach einem völlig anderen Prinzip: dem der Wahrscheinlichkeit.
So kann KI reden
Dazu ein Beispiel: Fällt in einem Satz das Wort „Freibad“, ist die Wahrscheinlichkeit hoch, dass im folgenden Satz Wörter wie „Wasser“, „schwimmen“, „Hitze“ oder „Sommer“ auftauchen, vielleicht auch „Badehose“ oder „Seepferdchen“. Deutlich niedriger hingegen ist die Wahrscheinlichkeit, dass auf „Freibad“ Wörter wie „Kamin“, „Lebkuchen“ oder „Advent“ folgen. KI-Programme wie ChatGPT kennen diese unterschiedlichen Wahrscheinlichkeiten für eine astronomisch hohe Zahl an Wörtern und Wortfolgen. Und mehr noch: In Millionstel Bruchteilen von Sekunden können sie diese Wahrscheinlichkeiten berechnen, gewichten und vor allem: anwenden.
Wort für Wort erstellen sie perfekt erscheinende Texte. Das wirkt, als verstehe das KI-Programm den Inhalt einer Frage und liefere umgehend eine passende Antwort. Doch die KI-Programme „verstehen“ keine Zahl, kein Wort und keinen Satz. Letztlich plappern sie nach, und das tun sie mittels Stochastik, also der Wahrscheinlichkeitsrechnung. Sie werden deshalb auch als „stochastische Papageien“ bezeichnet.
Die Katze in den Wolken
Gleichwohl liefern ChatGPT, Bard und Co. erstaunlich gute Ergebnisse. Möglich ist das zum einen, weil über das Internet ein astronomisch großer Vorrat digitalisierter Text- und Bilddaten ausgewertet wird. Zum anderen erreichen heutige Computer eine Leistung, die noch vor zwei, drei Jahrzehnten utopisch erschien.
Um 1995 füllten die leistungsstärksten Rechner der Welt turnhallengroße Räume und führten pro Sekunde 100 Mrd. Rechenoperationen durch. Heute ist das der Standard eines mittleren Smartphones, das in jede Hosentasche passt und nur den Bruchteil an elektrischer Energie benötigt. Bis 2040, so erwarten Experten, wird eine Steigerung der Rechenleistung um das 1000-Fache erwartet.
Hinzu kommt, dass die KI-Programme nicht einfach „rechnen“. Vielmehr stützen sie sich auf eine neuartige Architektur der Computertechnik, die dem Netzwerk menschlicher Nervenzellen nachgebildet sind. Das beschleunigt ihre Kapazität um ein Vielfaches. Dennoch ist ihnen jedes Kind haushoch überlegen. Um zum Beispiel eine Katze zuverlässig zu erkennen, müssen digitale KI-Systeme vorab Millionen Fotos von Katzen auswerten. Kinder hingegen benötigen nur ein paar Dutzend Vorlagen, „um auch einen gestiefelten Kater oder den König der Löwen als ,Katze‘ einzustufen“, wie der Physiker und Wissenschaftsjournalist Ulrich Eberl treffend bemerkt hat.
GPT und andere „Deep-Learning-Systeme“ stoßen – bei aller staunenswerten Rechenleistung – an Grenzen. Eberl: „Wenn sie etwa auf Tierbilder trainiert wurden, finden sie überall Tiere, auch in Wolken oder dem Rauschen eines Bildschirms – was dann wie Halluzinationen von Computern wirkt. Ihnen fehlen völlig das Hintergrundwissen und das Verständnis für Zusammenhänge.“ Anders gesagt: Besonders „deep“ ist das „learning“ nicht.
Schwerstaufgabe: Unkraut jäten
Das Beispiel lässt die Schwierigkeiten erahnen, mit denen sich Hertzberg und sein Team in Osnabrück bei ihrem Projekt namens „Cognitive Weeding“ herumschlagen – zu deutsch etwa: Erkennendes Jäten. Die Aufgabe lautet: Ein Roboter soll über ein Feld fahren, dabei verlässlich Bei- und Unkräuter erkennen und sie entweder mechanisch beseitigen oder gezielt ein Pflanzenschutzmittel einsetzen. „Gut funktionierende Apps zur Pflanzenerkennung gibt es ja bereits, aber dabei werden Pflanzen in der Regel im Ruhezustand und in der Blüte fotografiert“, erläutert Hertzberg. „Bei uns sollen sie aber im Vorbeifahren auf dem Acker ,erkannt‘ werden – und zwar in jedem Zustand: mit und ohne Blüte, im frühen Wuchs, mit abgeknickten Blättern, auf dunklem Lehm- und auf hellem Sandboden, eventuell auch aus einem ungünstigen Winkel oder auf unscharfen Bildern. Hier eine zuverlässige Pflanzenerkennung hinzubekommen – das ist die Hauptaufgabe.“
Der Schlüssel liege in verlässlichen Trainingsdaten, die von einem Heer menschlicher „Clickworker“ erstellt werden, bevor sie vom KI-Programm verarbeitet werden können. Bis das praxisreif funktioniert und der Jät-Roboter in Serie produziert werden kann, wird es wohl noch dauern. Die vielen Schwierigkeiten bestätigen einen Spruch, der unter Informatikern kursiert: „Computern fällt leicht, was Menschen schwerfällt – und umgekehrt.“
Lesen Sie mehr: