Die Guten ins Töpfchen, die Schlechten ins Kröpfchen – hätte es im Märchen von Aschenputtel schon künstliche Intelligenz (KI) gegeben, wäre für das junge Mädchen vieles einfacher gewesen. Sie hätte auf die Hilfe der Tauben beim Sortieren der Erbsen, die ihre bösen Stiefschwestern in die Asche gaben, um die unliebsame Schwester vom Besuch des königlichen Balls abzuhalten, verzichten können.
Doch für KI braucht es gar keine Roboter. Die neue Technologie versteckt sich bereits heute, teils unbemerkt, in vielen Dingen des Alltags: Die eine E-Mail darf in den Posteingang, die andere wird automatisch in den Spamordner verschoben. Zugegeben, manchmal hakt das System und wichtige Mitteilungen landen versehentlich im Ordner mit dem fragwürdigen Inhalt. Doch oftmals funktioniert der Automatismus. Hinter dem zugrunde liegenden Algorithmus stecken Beispieldaten, mit denen das System vorab gefüttert wurde. Es erkennt einzelne Worte, Absender oder Inhalte, analysiert Muster und Ähnlichkeiten und reagiert, indem es Nachrichten verschiebt oder ins reguläre Postfach hineinlässt. Der Mensch muss lediglich korrigierend eingreifen.
Selbstständiges Lernen
Ähnlich funktionieren Softwareprogramme zur Spracherkennung. Je öfter man die Assistenten nutzt, desto besser passen sie sich an die sprachlichen Besonderheiten des Nutzers an. Sie lernen, ihn besser zu verstehen und machen entsprechend weniger Fehler. Der Mensch muss auch hier nur noch kontrollierend tätig werden, und zwar immer dann, wenn ein Missverständnis mit dem Computer vorliegt. Korrigiert der Nutzer eine Aktion des Systems, lernt dies automatisch daraus für künftige Entscheidungen. Und genau das ist der springende Punkt: KI-Systeme lernen selbstständig aus ihren „Fehlern“. Sie sind daher mehr als eine programmierte „Wenn-Dann-Funktion“ einer Software, obwohl es sich bei dem beschriebenen Algorithmus auch nur um die schwache Form der künstlichen Intelligenz handelt.
Was ist künstliche Intelligenz?
Eine verbindliche Definition für den Begriff der künstlichen Intelligenz (KI) gibt es nicht.
Michael Wade, Professor für Innovation und Strategie an der IMD Business School in Lausanne, Schweiz, nennt vier Kriterien, die künstlich intelligente Systeme auszeichnen. Demnach müssen sie:
- große Datenmengen in einer Vielzahl von Formaten verwenden,
- die verwendeten Datensätze stetig aktualisieren,
- ihre Entscheidungslogik im Laufe der Zeit anpassen, sprich selbstständig lernen, und
- Verzerrungen automatisch erfassen oder sich an sie anpassen.
Erfüllen Systeme diese Kriterien nicht, handelt es sich wahrscheinlich eher nicht um künstliche Intelligenz.
Somit wäre die KI ein Muster erkennendes, „selbstständig“ lernendes und letztlich auch Entscheidungen treffendes System.
Fantasie und Realität
Dem gegenübersteht die starke Form der künstlichen Intelligenz: Solche Systeme haben die gleichen intellektuellen Fertigkeiten wie Menschen oder übertreffen diese sogar. In Science-Fiction-Filmen lösen diese Maschinen Probleme aller Art und haben einen Verstand. Bisher ist das Zukunftsmusik. Und dennoch – oder gerade deshalb – schürt die Technologie der künstlichen Intelligenz Sorgen und Ängste. Unbemannte Drohnen für Kriegshandlungen, die anhand hinterlegter Merkmale potenzielle Gefährder identifizieren und töten. Softwareprogramme, die anhand von Sozialkriterien Vorhersagen über eine mögliche Straffälligkeit einzelner Personen tätigen können. Und Gesichtserkennungsprogramme, die es erlauben, Menschen im Realen oder auch im Internet ausfindig zu machen.
Der Einsatz von KI-Technologien in der Landwirtschaft klingt deutlich weniger angsteinflößend. Bereits 2018 schaffte es ein kalifornisches Unternehmen, die erste autonome Indoor-Farm zu entwickeln und zu betreiben. Hier pflanzen und ernten Roboter selbstständig Gemüse. Der Plan: Rund 30-mal höhere Ernteerträge auf weniger Platz als auf einem traditionellen Bauernhof. Kameras bestimmen per Bilderkennung mithilfe künstlicher Intelligenz Krankheiten sowie den optimalen Erntezeitpunkt. Aktuell sind die Produktionskosten angeblich aber noch deutlich höher als in der herkömmlichen Landwirtschaft.
Viele Einsatzmöglichkeiten
Doch um sich ein Bild vom Einsatz der künstlichen Intelligenz in der Landwirtschaft zu machen, braucht es keine Reise nach Übersee. Die Universität Bonn hat einen autonomen Unkrautvernichter entwickelt. Der kleine silberne Kasten ist mit einer intelligenten Laservorrichtung versehen und fährt selbstständig über den Acker, um unerwünschte Pflanzen zu beseitigen. Gefüttert mit Bildern, hat er gelernt, Kulturpflanzen von Wildkräutern zu unterscheiden. Zukünftig soll er per Drohne Informationen erhalten, die ihn zu besonders befallenen Stellen führen.
Noch befindet sich das Gerät in der Entwicklungsphase. Dennoch ist Heiner Kuhlmann, Vermessungsingenieur an der Universität Bonn, optimistisch, dass die künstliche Intelligenz den Einsatz von Pestiziden zur Unkrautvernichtung verringern kann. Cyrill Stachniss, Robotiker an der Universität Bonn, erwartet, dass die Technik in zwei bis drei Jahren marktreif ist. Bis die Roboter-Revolution jedoch auf den Feldern den Einsatz von Chemikalien und menschlicher Arbeitskraft ersetzt, wird es laut Expertenschätzungen noch mindestens zehn Jahre dauern.
Doch intelligente Systeme können nicht nur menschliche Arbeitskraft ersetzen. Sie können auch Leben retten: Roboter, die in Kriegsgebieten Landminen ausfindig machen, oder Computer, die Herzinfarkte vorhersagen. Im zweiten Beispiel speisten finnische Forscher ein System mit Daten von 950 Personen, die über Schmerzen in der Brust klagten – ein mögliches Anzeichen eines bevorstehenden Herzinfarkts. Je Proband erfassten sie 85 Werte inklusive Daten bildgebender Diagnostikverfahren. Das Programm wertete sie aus und verknüpfte sie später mit der Information, ob ein Herzanfall stattfand oder nicht. Abschließend war das Programm in der Lage, einen Herzinfarkt mit 90%iger Wahrscheinlichkeit korrekt vorauszusagen.
Her mit den Daten
Damit die KI optimal arbeiten kann, braucht es folglich große Mengen an Daten und Informationen. Das wirft unweigerlich Fragen zum Datenschutz auf. Wer darf Daten erheben, speichern oder gar verwenden? Während die Gesetzeslage in China und den USA Unternehmen der KI-Branche nur wenig einschränkt, um Innovationen nicht im Keim zu ersticken, schiebt die europäische Union aus Sorge um Datenschutz und -sicherheit in vielen Fällen einen Riegel vor. Die Gesetze hierzulande geben den Menschen mehr Verfügungsgewalt über ihre individuellen Daten. Gleichzeitig schränken sie aber die Entwicklung der KI ein. Auch amerikanische Unternehmen müssen sich innerhalb der EU diesen Regeln unterwerfen. Das schürt bei Datenschützern die Hoffnung, dass die Richtlinien so Einzug in die Standards amerikanischer Unternehmen halten könnten. Während also andere Staaten vermehrt auf die Entwicklung neuer Technologien setzen, fokussiert sich Europa darauf, die notwendigen Regeln für den Umgang mit den teils sehr sensiblen Daten festzulegen.
Geschichte der KI
Bereits vor über 70 Jahren haben sich Wissenschaftler mit der Idee befasst, intelligente Systeme zu entwickeln. Ein Mann der ersten Stunde war der Mathematiker Alan Turin. Er entwickelte neben einem der ersten Schachcomputer auch den nach ihm benannten Turing-Test, der das Vorhandensein von künstlicher Intelligenz überprüfen soll. Der Test sieht vor, dass ein Mensch ohne Sicht- und Hörkontakt per Chat mit einem anderen Menschen sowie einer Maschine kommuniziert. Wenn der Proband nach der Unterhaltung nicht mit Bestimmtheit sagen kann, welcher Gesprächspartner die Maschine und welcher der Mensch war, ist die Maschine per Definition intelligent – künstlich intelligent. Bis heute hat angeblich kein System der Welt diese Prüfung bestanden.
1966 entwickelten Forscher des Massachusetts Institute of Technology (MIT) den ersten Chatbot der Welt: ELIZA. Er konnte die menschliche Sprache verarbeiten und war quasi der Urahn heutiger Systeme wie Alexa und Siri.
Suche nach dem Schuldigen
Wer über KI spricht, muss auch die Frage nach der Verantwortung stellen, weil auch diese Systeme fehlerbehaftet sind.
Im Jahr 2018 starb in Arizona eine Passantin bei einem Unfall mit einem autonomen Testfahrzeug des Fahrtenvermittlers Uber. Das System des Autos hatte Elaine Herzberg, die ein Fahrrad schiebend die Straße überquerte, nicht als Fußgängerin identifiziert. Die Software erfasste sie als „falsch positiv“. Zu diesen „unbedeutenden Hindernissen“ zählen beispielsweise über die Straße wehende Plastiktüten. Die Roboterautos sind so programmiert, dass sie in solchen Fällen mit unveränderter Geschwindigkeit weiterfahren, um den Verkehrsfluss nicht zu behindern. Und genau das tat das autonome Fahrzeug – mit tödlicher Folge.
Nach diesem Vorfall stand die US-amerikanische Justiz erstmals vor der Frage: Wer trägt die Schuld – das Programm, der Besitzer des Fahrzeugs, der sogenannten Backup-Fahrer oder gar der Entwickler des Systems? Die Ermittler fanden zahlreiche Fehler an Sensoren und Software. Dennoch befand die Regulierungsbehörde Uber für unschuldig. Trotzdem einigte sich der US-amerikanische Konzern mit der Familie des Opfers auf Schadensersatz in unbekannter Höhe. Die Sicherheitsfahrerin, die sich im Wagen befand, muss sich hingegen der Anklage der fahrlässigen Tötung stellen. Sie schaute fern, als der Unfall passierte.
Hände schmutzig machen
Am Ende steht die Frage, ob die KI den Mensch von seine Verantwortung entbindet, selbst zu denken und für die Konsequenzen seines Handelns oder auch Nicht-Handelns geradezustehen. Das gilt besonders dann, wenn eines Tages möglicherweise die starke Form der KI Einzug in das Leben der Menschen hält und es maßgeblich verändert. Schwache KI ist bereits heute Teil unseres Lebens und verhindert, dass wir uns die Finger schmutzig machen müssen, wenn wir, wie Aschenputtel, Hülsenfrüchte aus der Asche suchen. Denn KI ist heute kein Märchen mehr.
Was für Projekte gibt es?Plattform Lernende SystemeDie Deutsche Akademie der Technikwissenschaften e.V. (acatech) betreibt die Plattform „Lernende Systeme“. Als nächste Stufe der Digitalisierung finden KI-basierte Anwendungen bereits heute vielerorts Verwendung. Auf der KI-Karte finden sich mehr als 1000 Anwendungen aus ganz Deutschland.
www.plattform-lernende-systeme.deCOGNAC – Cognitive AgricultureIm Rahmen des Leitprojektes „Cognitive Agriculture“ entwickeln acht Fraunhofer-Institute digitale Konzepte und Technologien für eine zukunftssichere Landwirtschaft – mithilfe künstlicher Intelligenz.
www.iese.fraunhofer.de