Christoph Holz darüber, wie sich unsere Welt mit KI entwickeln könnte, über Chancen und Risken.

KI, Künstliche Intelligenz, erobert immer mehr Bereiche, in denen bislang der Mensch herrschte. Sie wird längst nicht mehr nur von Menschen mit Informationen gefüttert, sondern auch von Programmen. Maschinen kommunizieren also miteinander in ihrer eigenen Sprache. Für viele ist das eine beunruhigende Vorstellung. Was, wenn sich die Maschinen untereinander darauf verständigen, die Macht an sich zu reißen und der Mensch gar keine Möglichkeit mehr hat, einzugreifen? Es gibt ausreichend Science-Fiction-Filme, die genau dieses Szenario darstellen. Könnte es Realität werden?
Christoph Holz lächelt. Der St. Johanner Informatiker und Keynote-Speaker befasst sich intensiv mit Themen wie diesen. Besorgt sieht er nicht aus. Allerdings, das betont Christoph, könne man keine genauen Prognosen stellen, es gebe keine Sicherheiten. Dafür sei beim Thema KI alles noch zu ungewiss.
Man gehe aber davon aus, dass es mehrere sogenannte „Superintelligenzen“ geben werde – gute und weniger gute. „Es wird in Zukunft wohl KI geben, die Schaden anrichten kann. Dafür aber auch eine, die Schaden verhindert. Es wird ein Gleichgewicht entstehen“, so seine Einschätzung.
Prinzipiell sei es aber noch gar nicht gesichert, dass es überhaupt möglich ist, dass Systeme eine höhere Intelligenz als jene des Menschen entwickeln können, so Chri­s­toph. Denn Intelligenz könne man nicht stapeln: „Wenn du zehn Nobelpreisträger:innen mit einem IQ von 140 für ein Projekt zusammenspannst, kommt keine IQ von 1.400 heraus.“ Man wisse nicht, so der 58-Jährige, ob es überhaupt ein Mehr an Intelligenz als die menschliche überhaupt gibt. Andererseits sei unsere Intelligenz wahrscheinlich das Minimum, das man braucht, um eine Zivilisation zu schaffen. „Affen sind nicht wesentlich weniger intelligent, sind aber nicht in der Lage, eine Zivilisation zu erschaffen.“

Verzögern oder beschleunigen?

KI wisse aufgrund der eingespeisten Daten zwar mehr als jeder Mensch, sie habe aber keinen Zugang zu logischen Denkvorgängen, sie könne keine Schlüsse ziehen und argumentieren, erklärt Christoph. Vielleicht wird sich das ja irgendwann ändern? „Dann stellt sich immer noch die Frage, ob das System einen eigenen Willen entwickelt. Wir sehen heute keine Systeme, die selbst etwas wollen.“ Sollte es aber irgendwann Systeme geben, die Böses wollen, werde es auch Systeme geben, die gegen sie arbeiten.
Die menschliche Sprache sei – noch – die wichtigste „Programmiersprache“. „Wenn KIs miteinander kommunizieren, werden wir sie nicht mehr verstehen. Aber es wird Übersetzungsprogramme geben“, ist sich Christoph sicher. Die Frage sei, wie man potenzielle Gefahren der KI einhegen könne. Das sei der große Streit der Moralphilosophien, der sich im Silicon Valley entfaltet. Im Mittelpunkt stehen dabei aktuell zwei Personen: Zum einen Ilya Sutskever*, ein sogenannter „Longtermist“: Für ihn sind alle Menschen gleich –
egal, ob der Mensch, der sich in Not befindet, drei Meter oder 3.000 Kilometer weit entfernt ist. Er berücksichtigt auch die Bedürfnisse und Rechte in Zukunft geborener Menschen und sieht eine Verpflichtung darin, sie vor existentiellen Risiken wie einem Meteoriteneinschlag, einem Vulkanausbruch, Aliens, Superviren, oder einer gefährlichen KI zu schützen. Er tritt deshalb dafür ein, KI langsam und zugleich auch notwendige Sicherheitsmaßnahmen zu entwickeln. Das klingt vernünftig, finde ich.

KI wird kein Allheilmittel

Ihm gegenüber steht mit Sam Altman** ein Accelerist, ein „Beschleuniger“. Er vertritt die These, dass es unmoralisch sei, Hilfe vorzuenthalten, wenn KI diese Hilfe bieten könnte. Wenn also mithilfe der KI schon bald Krebs heilbar oder der Klimawandel zu beeinflussen wäre. Er ist der Meinung, man müsse mithilfe der KI so schnell als möglich die größten Probleme der Menschheit lösen. Wenn wir die Entwicklung verzögern, haben wir Blut an unseren Händen, so Altman. Außerdem müsse man verhindern, dass „böse Staaten“ wie Nordkorea mit KI großen Schaden anrichten. Dafür braucht es entsprechende Abwehr-KIs. Das klingt mindestens genauso vernünftig, finde ich. Und wer hat nun recht? „Das ist schwer zu sagen. Auf jeden Fall können wir die Probleme der KI nicht ohne KI lösen,“ so Christoph. „Wir haben aber keinen Grund zu glauben, dass wir diese Krise nicht meistern können.“
Die Menschheit, so Christoph, habe schon so viele Krisen gemeistert. Er ist überzeugt, dass der menschliche Erfindergeist und seine Kreativität letztendlich jeder Maschine überlegen sein werden. Er denkt, dass sich der Hype um KI wieder legen wird, da sie die überzogenen Erwartungen der Gesellschaft nicht erfüllen wird. „Sie wird nicht alle Krankheiten heilen, nicht alle Probleme lösen. Sie wird in Zukunft wohl eine Ergänzung sein und nicht das Allheilmittel. Davon gehe ich aus.“
Die Einschätzung des Profis beruhigt. Aber wie sieht es mit „Deepfakes“ aus, welchen Informationsquellen können wir in Zukunft noch vertrauen? Darüber informiert Christoph Holz in der nächsten Ausgabe … 

Doris Martinz

*Ilya Sutskever ist ein US-amerikanischer Unternehmer, Investor und Softwareentwickler. Er ist seit 2019 CEO von OpenAI.

**Sam Altman
ist ein israelisch-kanadischer Informatiker und Firmenmitgründer von OpenAI.