Blockiert der Staat den Fortschritt?

Zwei Personen sitzen vor einem PC.
gorodenkoff/iStock (M)
Künstliche Intelligenz polarisiert. Die einen sehen in ihr die Rettung der Welt, andere sind besorgt über noch nicht abschätzbare Gefahren.
Kolumne: evangelisch kontrovers
Blockiert der Staat den Fortschritt?
Immer wieder heißt es, in wenigen Jahren wären KI so schlau wie wir Menschen. In den USA ist man deswegen der Ansicht: KI-Regularien bremsten die Entwicklung unnötig aus. Was hat es mit diesem Enthusiasmus auf sich, und wie weit sollte die Regulierung gehen?

Der Chemienobelpreis ging letzten Herbst an drei Forscher, die mit einer neuen Künstlichen Intelligenz (KI) Wesentliches in der Forschung geleistet haben. Wissenschaftler:innen, die nur mit herkömmlichen Methoden arbeiten, hätten für diese Arbeit Monate oder gar Jahrzehnte gebraucht. Waren aber die richtigen KI-Werkzeuge einmal gefunden, ging es nun in Stunden oder schneller. Nun haben wir neue Erkenntnisse über Millionen von Proteinen, von denen die Medizin profitieren dürfte. Möglich auch, dass wir mit dieser neuen Arbeitsweise biologische Prozesse finden, die den Plastikmüll in unseren Meeren recyceln.

Die Entdeckungen der Forscher beflügeln die Vorhersagen. Die "Allgemeine Künstliche Intelligenz" kommt bald, so ist seit mehreren Monaten immer wieder zu lesen. Gemeint ist eine solche Form der Künstlichen Intelligenz, die dem Menschen praktisch in allen Bereichen der Kognition ebenbürtig ist – auf Englisch "Artificial General Intelligence", AGI. Oft heißt es, in drei bis fünf Jahren sei es so weit, und vereinzelt ist sogar von ein bis zwei Jahren die Rede.

Beantwortet uns bald ein Rechenzentrum die entscheidenden wissenschaftlichen Fragen zur Energiegewinnung durch Kernfusion? Bringt ein Computernetzwerk einen grundlegenden Durchbruch in der Krebsforschung? 

Ist die AGI einmal erreicht, so meint Sam Altman, einer der Wortführer der Debatte, dann dürfte es nicht mehr lange bis zur "Superintelligenz" dauern: Dann würden uns die Computer in praktisch allen Bereichen sogar klar übertreffen. Computer und Menschen würden sich in Sachen Intelligenz dann etwa so zueinander verhalten wie heute Menschen zu Schimpansen.

Gefahren der KI

Wo viel Potenzial liegt, wachsen auch die Gefahren. Demis Hassabis, einer der Nobelpreisträger, der auch für Google im Bereich KI arbeitet, warnt: Die KI kann nicht nur hilfreiche Biobausteine finden, sondern auch solche, die sich für neue Biowaffen eignen. Dagegen wäre es in den USA kürzlich fast zu einem Gesetz gekommen, das es den Bundesstaaten zehn Jahre lang verboten hätte, KI zu reglementieren.

Bei den Regulierungsbemühungen geht es weniger um das Horrorszenario einer Herrschaft der Computer, also die Ansicht, superschlaue Computer könnten eines Tages so mit uns umspringen, wie wir heute in etwa mit Schimpansen umgehen. Zwar hat ein Programmierer ein solches KI-Szenario kürzlich wieder in einem "Spiegel"-Interview präsentiert: "Sobald keine Täuschung mehr nötig ist, löscht sie die Menschheit aus". Doch überzeugt war der Journalist davon anscheinend nicht: In einer späteren Kolumne wirbt er zwar weiterhin für die Reglementierung der KI, aber das Horrorszenario der fiesen Supercomputer erwähnt er nun nicht mehr. Er ist besorgt darüber, dass die KI Arbeitskräfte ersetzt, dass sie Baupläne für Massenvernichtungswaffen frei teilt und dass sich Menschen in Computer verlieben, die einen liebenswerten Menschen simulieren.

Blockiert die Vorsicht den Fortschritt?

Die Trump-Regierung dagegen wollte die Regulierung der KI verbieten, weil sie meint, uns würden angesichts von Verboten und bürokratischen Auflagen zahlreiche Vorteile entgehen. Besser, man nimmt eventuelle Schäden in Kauf und bessert später nach. Denn ein Wettrüsten zwischen den USA und China ist im Bereich der KI schon im Gang, und solange der Westen die Nase vorn hat, kann er sich besser vor Cyberangriffen und KI-gestützten Waffen schützen. Vermutlich ist es tatsächlich sinnvoll, dass besonders leistungsfähige Computerchips nicht nach China verkauft werden dürfen. Unterdessen handeln die großen KI-Unternehmen wie OpenAI oder Google nicht bloß aus staatsbürgerlicher Verantwortung. Weniger Reglementierung heißt für sie mehr Markteinfluss und mehr Macht. Also: Sollen wir in Europa die KI tendenziell mehr regulieren oder weniger?

In vielen Bereichen ist die KI dem Menschen bereits überlegen: Beim Schachspielen, in einigen Bereichen der Mathematik und in der statistischen Analyse von großen Datenbanken. Beim Software-Programmieren ist die KI fast gleichauf mit Informatik-Studierenden. In den juristischen Zulassungsprüfungen in den USA erzielen Computer inzwischen bessere Ergebnisse als 90 Prozent der Uni-Absolventen. In medizinischen Tests schneiden sie besser ab als 80 bis 90 Prozent der Mediziner:innen, und auf CT-Scans können Computer besser als Menschen einen Tumor erkennen.

Vielfach verfasst die KI außerdem ordentliche Texte. Hier liefert sie zwar in der Regel keine Glanzstücke der Kreativität. Aber immer mehr Forscher:innen oder Journalist:innen nutzen KI zum Beispiel, um sich den Stand der Forschung in einem neuen Sachgebiet präsentieren zu lassen. 

Aber sollte es in ein paar Jahren wirklich dazu kommen, dass die KI uns Menschen in allen wesentlichen Bereichen der Intelligenz ebenbürtig ist? Wenn ja, verstärkt das die Dringlichkeit der Regulierungsdebatte. Winken womöglich in naher Zukunft immense Gewinne, die man nicht durch neue Regulierung abwürgen sollte? Vielleicht sollte die EU dann den USA größere Zugeständnisse machen, um an der Technologieentwicklung teilhaben zu können. Und drohen womöglich bald außerordentliche Gefahren?

Umfrage

Wird die Künstliche Intelligenz eine ganz neue Epoche des rasanten Fortschritts einläuten?

Auswahlmöglichkeiten

Hoffnungen – und zwei Schwächen 

In der Berichterstattung über KI erstaunt mich vielleicht am meisten, wie selten man Näheres dazu liest, wie die KI eigentlich funktioniert und von welchen Verfahren man sich insbesondere große Durchbrüche erhofft. Zugleich hat der Wunschzettel, mit dem einige Entwickler über die Möglichkeiten der KI nachdenken, kaum Grenzen. Klar: Mit ambitionierten Zielen erreicht man in der Entwicklung mehr als mit grundlegender Skepsis. Aber diese Entwickler sitzen nicht nur am Schreibtisch. Sie werden in den Medien präsentiert, sie geben den Ton an und beeinflussen stark, wie Investor:innen, Journalist:innen, Politiker:innen und Wähler:innen über die neue Technologie denken.

Der Nobelpreisträger Hassabis meint, gut möglich, dass in etwa zehn Jahren keine Krankheit mehr unheilbar sei. Auch den Schlüssel zur Fusionsenergie dürften wir von der KI erhalten. Ja, von den KI-Systemen werden wir "alles bekommen, was wir uns als Gesellschaft von ihnen wünschen." Die Wirkungen der KI seien "zehnmal größer als die der Industriellen Revolution".

Die menschliche Imagination

An anderer Stelle gibt Hassabis aber offen zu, dass KI zwei wesentliche Schwächen hat. Sie könne zwar bekannte Hypothesen prüfen, aber keine neuartigen Hypothesen erfinden. Das ist beachtlich, schließlich hängt in den Wissenschaften vieles davon ab, die richtigen Fragen zu stellen. Beispiel: Bevor Isaac Newton seine bahnbrechende Theorie der Schwerkraft präsentierte, musste er sich zuerst von der traditionellen Ansicht lösen, laut der alle Körper von sich selbst aus ihr passendes Ziel anstreben.

Er musste die Wirklichkeit ganz neu imaginieren und fand dann, dass er mit seiner neuen Anschauung die Wirklichkeit besser beschreiben konnte. Dagegen hielten einige von Newtons Kollegen die Idee einer Schwerkraft, die ein anderes passives Objekt anzieht, für absurd – dazu bräuchte es ja schließlich direkten Körperkontakt!

Der ehemalige KI-Berater von Joe Biden, Ben Buchanan, meinte in einem Interview zur KI, ihm liege besonders die Literatur am Herzen, und er "hofft", wenigstens bei der tiefsinnigen Auslegung der literarischen Klassiker würden die Computer uns Menschen nicht den Rang streitig machen. Sein Interviewer, der Journalist Ezra Klein, stimmte dem zu. Aber zugleich meinte Klein immer wieder, Computer würden durchaus bald menschenähnliche Intelligenz, AGI, erreichen.

Die Literatur, auf die Buchanan hinweist, ist in dieser Frage keineswegs irrelevant, denn in der Literatur geht es ja auch um die Imagination, von der vorhin die Rede war: Die menschliche Imagination leistet einen wesentlichen Beitrag zur Wissenschaft und dem menschlichen Entdeckergeist. Sie ist also für die KI keineswegs ein irrelevanter Luxus, und Buchanan wirft hier eine sehr grundlegende Frage auf. Ich werde nicht urteilen, ob Klein demgegenüber falschliegt. Aber ich frage mich: Wie kommt er dazu, so vollmundige Verlautbarungen über KI abzugeben, aber zugleich die Natur der menschlichen Vernunft so wenig zu bedenken?

Die zweite Schwäche der KI besteht laut Hassabis darin, dass sie nicht rational überlegt und schlussfolgert. Zwar spricht man auch in der KI von Rationalität: Den kommerziellen Abonnenten bietet etwa ChatGPT ein System, das zumindest bis letzten Mai deutlich bessere "rationale" Fähigkeiten hatte als das kostenlos verfügbare ChatGPT. Aber wir Menschen verfügen über Rationalität in einem anderen Sinne. Uns ist einfach in der Sachlogik klar, dass die Aussage "5 + 5 = 10,1" nicht stimmen kann.

ChatGPT wurde dagegen mit mathematischen Aussagen trainiert, die praktisch keine offensichtlichen Fehler enthalten. Andere Systeme verwenden andere Methoden, aber sobald man das System mit der Aussage "5 + 5 = 10,1" trainiert, wird die KI ihre Aussage anpassen. Das System ist "rational", wenn es möglichst viel aus dem herauskitzelt, was ihm als wahr gespiegelt wurde. Das ist etwas anderes als unsere Rationalität.

KI und Religion

Von den vielen Fähigkeiten der KI bin ich durchaus beeindruckt. Mir ist die Aussage zu riskant, die KI werde niemals in der Lage sein, dies oder das zu leisten. Aber ebenso wenig schließe ich mich Hassabis’ Aussage an, mittelfristig wird uns die KI alle Antworten geben, die wir uns erhoffen. Hier schleicht sich immer wieder die Ansicht ein, für unser Erkennen gebe es prinzipiell keine harten Grenzen in unserer Wirklichkeit. Hassabis’ Glaube an die Vernunft und ihren nie erlahmenden Fortschritt hat etwas Pseudoreligiöses. Seine Meinung, die KI eröffnet uns endlich die tiefsten Geheimnisse der Natur, ist eine Art Offenbarungsreligion.

Wenig kritisch reflektiert erscheint mir seine Ansicht: Die KI sei zwar bislang zu echter Kreativität unfähig und sie könne auch nicht eigentlich rational schlussfolgern – aber das Niveau der menschlichen Vernunft erreiche sie in drei bis fünf Jahren. Dagegen erinnern Denker wie etwa Gary Marcus daran, dass die Leistungen der KI in einigen Bereichen durchaus nicht dem entsprechen, was uns schon seit Längerem versprochen wird. Aber solche skeptischen Stimmen erhalten in den Medien deutlich weniger Aufmerksamkeit.

Dass die KI viele bahnbrechende, hilfreiche Entdeckungen ermöglicht, ist natürlich zu hoffen. Dass europäische Regierungen verstärkt in die KI-Entwicklung investieren, dürfte sinnvoll sein – auch wenn wir mehr über die Umweltkosten sprechen sollten. Andererseits wirft beispielsweise der christliche Gedanke der Schöpfung die Frage auf, ob wir uns nicht in einer Realität vorfinden, die uns möglicherweise in einigen Dingen unergründlich bleibt, weil sie sich einer anderen Macht verdankt.

Wohlgemerkt: Das spricht nicht gegen den Versuch, die Geheimnisse der Natur zu entschlüsseln! Keineswegs will ich Denkverbote aufrichten mit dem Gedanken der Schöpfung. Werden wir mit KI die Geheimnisse der Quantenphysik und der Fusionsenergie knacken? Hoffentlich! Aber die Selbstverständlichkeit, mit der viele die Frage bejahen, leuchtet mir nicht ein.

KI regulieren

Was bedeutet das für die Frage der Regulierung der KI? In verschiedenen Bereichen wird KI eingesetzt, um effizient Entscheidungen zu fällen. Damit bringt sie einen Nutzen, der der Gesellschaft zugutekommen dürfte: etwa im Versicherungswesen, bei der Kreditvergabe, im Gesundheitswesen und bei der Einstellung von Angestellten durch Unternehmen. Allerdings sind die Entscheidungen keineswegs immer einwandfrei, und so müssen den betroffenen Bürger:innen durchaus Wege offen stehen, Entscheidungen der KI anzufechten.

Vielleicht würden Befürworter:innen der KI das sogar unterschreiben. Die Frage ist aber, für wie relevant man das Problem hält. Sind die möglichen Gewinne einer ungebremsten KI-Entwicklung so enorm, dass man ihr durch Regularien und Verbraucherschutz am besten möglichst wenig Steine in den Weg legen sollte? Soweit wir wissen, können wir diese Frage nicht einfach uneingeschränkt mit "ja" beantworten. Die menschlichen Entwickler sind fehlbar, und gerade deshalb ist auch ihr Produkt, die KI, fehlbar. Den Debatten über die "Allgemeine Künstliche Intelligenz" (AGI) täte etwas mehr intellektuelle Demut gut.