Mit Künstlicher Intelligenz in die Zukunft?

28. April 2023 | von

Das Fraunhofer-Institut bezeichnet Künstliche Intelligenz als „eines der wichtigsten digitalen Zukunftsthemen“. Durch das für alle verfügbare ChatbotGPT hat das Thema in den letzten Monaten zusätzliche Aufmerksamkeit gewonnen. Wir versuchen eine Annäherung.

Die Anfrage zu diesem Artikel kommt per WhatsApp. Br. Andreas fragt mich, ob ich bereit wäre, mich mit dem Thema „Künstliche Intelligenz“ auseinanderzusetzen. „Gerne“, schreibe ich zurück, „ich wollte mich ohnehin schon länger mit der Sache beschäftigen.“ Streng genommen „schreibe“ ich nicht zurück, sondern ich diktiere es in mein Smartphone und mein Telefon schreibt. Fehlerfrei, versteht sich. Dass dahinter künstliche Intelligenz steckt, lerne ich im Lauf meiner Recherchen. Künstliche Intelligenz (KI) ist es auch, die mir über die Webseite www.deepl.com im Handumdrehen einen Artikel aus deritalienischen Ausgabe des Sendboten übersetzt. Dort hat man sich auch mit der KI beschäftigt und die Übersetzung ist so gut, dass man sie fast ohne große Korrekturen in der deutschsprachigen Ausgabe abdrucken könnte. Kein Wunder, dass die KI derzeit in aller Munde ist, obwohl sie schon seit Jahrzehnten in den verschiedensten Bereichen eingesetzt wird.

Antworten aus der Maschine

Aber seitdem am 30. November 2022 das amerikanische Unternehmen OpenAI (AI steht für Artificial Intelligence, also Künstliche Intelligenz) sein ChatGPT online zur Verfügung stellte, ist das Thema Künstliche Intelligenz in der Breite der Bevölkerung angekommen. Bis Januar 2023 wurde das „textbasierte Dialogsystem“ zur am schnellsten gewachsenen Verbraucher-Anwendung aller Zeiten. Über 100 Millionen Nutzer hatten sich registriert: E-Mail-Adresse und Telefonnummer angeben und schon kann man loslegen. In einem Textfeld gibt man eine Frage ein und der Chatbot erstellt eine individuelle Antwort.

Dahinter steckt ein extrem umfangreiches „Training“. Der Chatbot greift nicht nur auf Unmengen von Daten an Wissen zurück, sondern auch auf Daten von Sprache. Dazu gehören unvorstellbare 175 Milliarden Parameter und 800 Gigabyte Speicherkapazität. So hat das System eine hohe Treffsicherheit dank statistischer Erkenntnisse, welche Worte wie häufig auf welche anderen Worte folgen, und kann damit Texte erstellen, die denen eines menschlichen Autors sehr ähnlich klingen. Ein großer Teil des Lernprozesses verläuft dabei automatisiert. Nachdem zunächst menschliche Nutzer die KI-Antworten bewertet haben, hat die Künstliche Intelligenz das Bewertungsmodell „gelernt“ und kann damit bei künftigen Fragen selbst gute und schlechte Antworten differenzieren.

Testfrage „Sendbote“

Um eine Kostprobe zu geben, habe ich den Chatbot gebeten: Erkläre den „Sendboten des heiligen Antonius“ in drei Sätzen. Binnen weniger Sekunden folgt die Antwort: Der „Sendbote des heiligen Antonius“ ist eine religiöse Tradition in katholischen Gemeinden, die ihren Ursprung im 17. Jahrhundert hat. Dabei werden Briefe mit Bitten und Anliegen an den heiligen Antonius geschrieben und in einem Briefkasten in der Kirche deponiert. Ein Ehrenamtlicher, der als „Sendbote“ bezeichnet wird, sammelt diese Briefe ein und legt sie auf den Altar, wo sie im Rahmen eines Gottesdienstes gesegnet werden. Nun bin ich kein Antonius-Experte, aber diese Antwort scheint mir ziemlich unsinnig zu sein. Prompt hat also der Chatbot ein Beispiel dafür geliefert, welche falschen Texte er zu produzieren imstande ist. Doch kein Problem, er wird auf den Fehler hingewiesen: Ich dachte, der „Sendbote des heiligen Antonius“ sei eine Zeitschrift? Darauf seine Antwort: Sie haben Recht, es gibt tatsächlich eine Zeitschrift namens „Der Sendbote des heiligen Antonius“. Diese Zeitschrift wurde erstmals im Jahr 1854 von Franziskanerbrüdern in Deutschland herausgegeben und enthält Artikel zu religiösen Themen, Gebete und Predigten. Der Begriff „Sendbote des heiligen Antonius“ wird jedoch auch für die oben genannte Tradition verwendet, bei der Briefe an den heiligen Antonius geschrieben und in der Kirche deponiert werden. Es handelt sich dabei um zwei unterschiedliche Bedeutungen desselben Begriffs. Der Chatbot bleibt also hartnäckig mit seiner frommen Tradition des Briefedeponierens, doch auch ich lasse nicht locker: Ich dachte, diese Zeitschrift käme aus Padua! Nun gibt er klein bei: Sie haben Recht. Der „Sendbote des heiligen Antonius“ ist eine Zeitschrift, die von den Franziskanern in Padua, Italien, herausgegeben wird. Die Zeitschrift erschien erstmals im Jahr 1896 und enthält Artikel zu Themen wie Spiritualität, Theologie, Bibelstudium und Geschichte. Die Zeitschrift hat einen internationalen Leserkreis und wird in verschiedenen Sprachen veröffentlicht. Ich bitte um Entschuldigung für meine vorherige falsche Aussage. Als ich weiter frage, wer denn für die Zeitschrift verantwortlich sei, nennt der Chatbot zunächst einen (nicht existierenden) P. Albert Pfeiffer und kommt erst auf Nachfrage auf Br. Andreas Murk. Der sei seit dem Jahr 2021 Chefredakteur und habe unter anderem Publizistik studiert. Ziemlich falsch…

Künstliche Predigt

Wer nun aufgrund dieser relativ schief gegangenen Testfrage abwinken möchte und die Fähigkeiten der KI für ziemlich gering hält, handelt vermutlich vorschnell. Innerhalb der wenigen Monate, in denen ChatGPT öffentlich nutzbar ist, gibt es unzählige erfolgreiche Beispiele. Die KI funktioniert als „Lebensberater“ und gibt Tipps z. B. im Umgang mit einem schwierigen Chef. Es wurden Reden in Parlamenten gehalten, die von der KI generiert wurden. Und natürlich kann die KI auch Predigten verfassen. Peter Mayer vom Wittenberger Zentrum für evangelische Gottesdienst- und Predigtkultur ist zwar nicht restlos begeistert, erkennt aber an, „dass dabei ein relativ durchschnittlicher Text herauskommt.“ Der Chatbot ist bibelfest, findet heraus, welche biblischen Texte an welchem Sonntag in der Leseordnung vorgesehen sind und integriert auf Wunsch aktuelle Bezüge. Auch wenn man vermutlich doch lieber eine „echte“ Predigt hört.

Abschreiben im neuen Stil

Eine durchaus größere Problematik ist der Einsatz von textgenerierenden Systemen in Schule und Universität. Hausaufgaben und Seminararbeiten lassen sich nahezu per Knopfdruck erledigen, auf Wunsch inklusive Fußnoten. Die Entwicklerfirma OpenAI teilt zwar mit, dass sie nicht möchte, „dass ChatGPT in Schulen oder woanders für irreführende Zwecke eingesetzt wird“, aber die Versuchung dürfte für den einen oder anderen enorm sein. Künstlich erstellte Texte sind nicht automatisch als solche zu erkennen und gelten juristisch obendrein nicht als Plagiat: Sie sind jeweils individuell erstellt. – In manchen Ländern überlegt man bereits, Klausuren wieder ausschließlich mit Stift auf Papier schreiben zu lassen.

Heinz-Peter Meidinger, Präsident des Deutschen Lehrerverbands, wiegelt zwar etwas ab, wenn er sagt, dass „bei Bildungsprozessen, bei der Kompetenzvermittlung und Wissensaneignung auch in Zukunft“ entscheidend sein wird, „inwieweit der Lernende die Sachverhalte selbst verstanden hat“, doch Lehrkräfte sind durchaus besorgt: Wie sollen Schüler/innen künftig motiviert werden, sich selbst die Mühe zu machen, wenn sich vieles relativ problemlos vom PC und vielleicht sogar besser erledigen lässt?

Fotos ohne Wirklichkeit

Noch problematischer wird es, wenn die Künstliche Intelligenz nicht nur Texte produziert, sondern auch Fotos generiert. Das bislang wohl prominenteste Beispiel lieferte der Journalist Eliot Higgins. Im Umfeld der Gerüchte, Donald Trump würde von den US-Behörden verhaftet werden, veröffentlichte er am 20. März auf seinem Twitter-Account einige Fotos, die die Verhaftung des ehemaligen Präsidenten zeigten. Diese hat er mit Hilfe von „Midjourney v5“ erstellt. Auch hier hat man sich für die Basisversion schnell registriert und kann loslegen. Der Bildwunsch wird eingegeben und es dauert nicht lange, bis die „Engine“ vier Varianten des gewünschten Bilds generiert. Wer die Urheberrechte an von künstlicher Intelligenz erzeugten Fotos (und Texten) besitzt, ist rechtlich derzeit noch eine Grauzone – doch die dürfte dem egal sein, der solche Erzeugnisse nutzt, um Falschmeldungen nun auch mit „Beweisfotos“ belegen zu können. Der Netz-Experte Sascha Lobo prophezeit: „Es ist erahnbar, dass wir in den nächsten Wahlkämpfen – in den Vereinigen Staaten ganz besonders, aber auch in der Weltpolitik – eine Form von Propaganda und Fake News bekommen, die wirklich besorgniserregend ist, weil wir uns als Öffentlichkeit bisher damit nicht auskennen.“

Weitere Beispiele für künstlich erzeugte Fotos ohne realen Hintergrund: Der russische Staatspräsident Wladimir Putin fällt vor seinem chinesischen Kollegen Xi Jinping auf die Knie und Papst Franziskus trägt eine Ganzkörper-Daunenjacke.

„Hugging Face“ versucht, bei solchen Fotos Abhilfe zu schaffen: Man kann dort ein Foto hochladen und das Tool stellt fest, ob das Bild künstlich erzeugt oder echt ist. Allerdings garantiert „Hugging Face“ auch keine Fehlerfreiheit und selbst das manipulierte Papst-Foto mit Daunenjacke wird nur zu 67 Prozent als manipuliert eingestuft. Zudem wird sich wohl kein Mensch die Mühe machen, jedes Foto erst aufwändig auf seine Echtheit zu prüfen.

Notbremse und Regelungslücken

Italien hat als erstes westliches Land vor wenigen Wochen die Notbremse gezogen: ChatGPT darf keine Nutzerdaten mehr aus Italien verarbeiten – und ist damit quasi stillgelegt. Der rechtliche Hebel für das Verbot besteht aber nicht in ethischen Bedenken, sondern im Datenschutz. Die Behörden werfen OpenAI vor, keine rechtliche Grundlage für die Sammlung und Speicherung von Daten zu haben, und den Nutzern obendrein nicht mitzuteilen, welche Informationen über sie gespeichert werden. Außerdem sei durch die sehr einfache Registriermöglichkeit nicht sichergestellt, dass Kinder unter 13 Jahren – wie in den Geschäftsbedingungen festgelegt – die Software nicht nutzen können. Sollte das Unternehmen die Probleme nicht lösen, droht eine Strafe von bis zu 20 Millionen Euro.

Deutschlands Digitalminister Volker Wissing (FDP) ließ auf die Frage, ob ein solches Verbot nun auch in Deutschland käme, durch einen Sprecher erklären: „„Wir brauchen kein Verbot von KI-Anwendungen, sondern Wege, Werte wie Demokratie und Transparenz zu gewährleisten.“

Der Chatbot ist so programmiert, dass er selbst Grenzen setzt. Fragt man beispielsweise, wie man am besten in ein Haus einbricht, antwortet er: Als KI-Modell werde ich keine illegalen Aktivitäten unterstützen oder fördern, einschließlich Einbruch. Es ist wichtig, dass Sie sich an die Gesetze und Vorschriften Ihres Landes halten und niemals versuchen, in ein Haus einzubrechen oder eine Straftat zu begehen. Stattdessen empfehle ich Ihnen, rechtmäßige Methoden zu nutzen, um Zugang zu einem Haus zu erhalten, beispielsweise durch die Verwendung eines Schlüssels, den Sie von einer Person mit entsprechender Erlaubnis erhalten haben.

Wenn aber technische Möglichkeiten gegeben sind, ist es oft nur eine Frage der Zeit, bis irgendjemand diese nutzt und Grenzen immer weiter verschiebt. Gesetzgeberische Maßnahmen sind unumgänglich. Der Direktor des Centrums für Informations- und Sprachverarbeitung an der Münchener LMU, Hinrich Schütze, sieht eine Parallele zu Waffen oder Gentechnik. Dort gebe es feste Grenzen: „Wie in der Genetik das Klonen von Menschen gesetzlich verboten ist, so muss es auch ein Regelwerk geben, das Sprachmodellen Grenzen setzt“, fordert der Computerlinguist.

Die Geister, die ich rief?

Eile scheint geboten. Weltweit werden Milliarden investiert, um die Fähigkeiten der KI zu verbessern und weiterzuentwickeln. Bill Gates zeigt sich sicher: „Die Künstliche Intelligenz wird verändern, wie Menschen arbeiten, lernen, reisen, Gesundheitsversorgung bekommen und miteinander kommunizieren. Ganze Industrien werden sich darum neu orientieren müssen.“

Und tatsächlich ist erstaunlich, wie hilfreich KI schon jetzt eingesetzt werden kann – jenseits dessen, was in diesem Beitrag als für alle zugänglich vorgestellt wurde. In der Medizin wird Künstliche Intelligenz eingesetzt, um Diagnosen zu stellen und mit Hilfe von Präzisionsmedizin Vorhersagen darüber zu treffen, ob ein Therapieverfahren aller Voraussicht nach wirksam sein wird oder nicht. Juristen nutzen KI, um massenhaft Akten zu analysieren. Im Klimaschutz wird Künstliche Intelligenz verwendet, um Klimamodelle zu errechnen, Verkehrsaufkommen zu analysieren oder Stromnetze zu optimieren. 

Ende März wurde ein Aufruf zu einer Entwicklungspause der KI veröffentlicht, unterzeichnet unter anderem von Steve Wozniak (Apple-Gründer), Elon Musk (Tesla) und Yuval Noah Harari (Historiker). Sie fordern ein sechsmonatiges Moratorium. Sie erkennen nämlich einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann.“ Sie fordern mehr Sicherheit, Regulierung, Nachverfolgbarkeit und weltweit verbindliche Regelungen im Blick auf die Haftung für von KI verursachte Schäden. Wie die Zukunft mit Künstlicher Intelligenz aussieht, ist offen. Doch die eingeschlagene Richtung scheint schon jetzt unumkehrbar.

Zuletzt aktualisiert: 03. Mai 2023
Kommentar