Beim Thema „künstliche Intelligenz“ gibt es aus Sicht von Unternehmer Lukas Waidelich ein großes Missverständnis: „Viele Leute gehen davon aus, dass es die eine große allumfassende künstliche Intelligenz gibt. Tatsächlich handelt es sich jedoch um getrennte Anwendungen, die sich auf einzelne Problemstellungen beziehen.“ Der 29-Jährige ist Leiter der Arbeitsgruppe „Ethik, Aufklärung & gesellschaftliche Akzeptanz“ des KI-Bundesverbandes. In seinem Unternehmen „Cauliflower“ hilft eine künstliche Intelligenz dabei, Texte für Unternehmen zu analysieren und so beispielsweise eigenständig Prioritäten für die Bearbeitung von Anfragen zu setzen. „Auch wenn unsere KI im Rahmen der vorgegebenen Fragestellung eigenständig dazulernt, wird sie nie von sich aus in der Lage sein, andere Aufgaben zu lösen, beispielsweise Geräte zu steuern“, veranschaulicht er.
Dennoch birgt die Entwicklung von künstlicher Intelligenz auch aus seiner Sicht Risiken. Ein Beispiel: Eine KI-Anwendung sei aus sich heraus nicht diskriminierend und bevorzuge weder Männer noch Frauen. Aber: „Daten, die eine KI-Anwendung zum Training braucht, werden nur in den seltensten Fällen neutral sein.“ Deshalb seien Initiativen wie LEAM zur Entwicklung großer europäischer KI-Modelle so wichtig. „Wir brauchen Umgebungen für die Kontrolle von KI-Modellen. Dabei sollte Innovation nicht eingeschränkt werden. Nur dann können in der EU wettbewerbsfähige KI-Anwendungen unter Berücksichtigung europäischer Werte entwickelt werden.“
Warum der Einsatz von KI für Lukas Waidelich unverzichtbar ist? „Weil KI schon heute mit Lösungen wie der Brustkrebserkennung von vara.ai einen gesellschaftlichen Beitrag leistet. Und weil wir uns als Menschheit in so komplexe Probleme manövriert haben, dass wir sie ohne KI nicht werden lösen können.“ Wozu KI in Zukunft fähig sein wird, lässt sich für ihn noch nicht abschätzen. „Aber wenn wir jetzt die richtigen Grundlagen, beispielsweise im Hinblick auf ethische Grundsätze, festlegen, kann es etwas sehr Gutes sein.“
Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch laut Wissenschaftlern des Max-Planck-Instituts für Bildungsforschung in Berlin gibt es schon heute Maschinen, die wichtige Aufgaben selbstständig erledigen, ohne dass Programmierer komplett verstehen, wie sie das gelernt haben. Experten bezeichnen dieses Phänomen als Blackbox-Problem: Der Prozess, der in einer KI abläuft, lässt sich auch für Fachleute nicht nachvollziehen. Gemeinsam mit einem internationalen Team stellten Mitarbeiter des Forschungsbereichs „Mensch und Maschine“ sich daher die Frage: Könnte künstliche Intelligenz außer Kontrolle geraten und die Menschheit gefährden?
Um eine KI unter Kontrolle zu halten, gibt es grundsätzlich zwei Ansätze: Zum einen ließe sich eine KI gezielt vom Internet abschotten. Dadurch würden die Fähigkeiten jedoch deutlich eingeschränkt. Die großen Menschheitsprobleme würde sie so nicht lösen.
Die andere Option wäre, einer KI vorzugeben, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem man ihr ethische Regeln einprogrammiert. In ihrer Studie zeigen die Wissenschaftler jedoch, dass ein entsprechender Algorithmus nach aktuellem Stand der Computerwissenschaften nicht programmiert werden kann. Vereinfacht ausgedrückt beschreibt Iyad Rahwan, Direktor des Forschungsbereichs „Mensch und Maschine“, das Problem folgendermaßen: „Ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, würde sich womöglich aufhängen. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar.“ Hinzu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen.