Die mahnenden Stimmen von Experten, die vor den Risiken Künstlicher Intelligenz warnen, häufen sich. Doch nicht alle in der Branche finden Alarmstimmung angemessen.
Von angesehenen Experten für Künstliche Intelligenz kommt eine neue eindringliche Warnung vor Gefahren der Technologie. „Ohne ausreichende Vorsicht könnten wir unwiederbringlich die Kontrolle über autonome KI-Systeme verlieren“, schreiben die Forscher in einem Text in der neuen Ausgabe der Zeitschrift „Science“.
Mögliche KI-Risiken seien Cyberattacken in großem Maßstab, gesellschaftliche Manipulation, allgegenwärtige Überwachung und sogar die „Auslöschung der Menschheit“. Unter den Autoren sind Wissenschaftler wie Geoffrey Hinton, Andrew Yao und Dawn Song, die zu den führenden Köpfen der KI-Forschung gehören.
Unvorhergesehene Nebeneffekte bei KI
Den Autoren machen speziell autonome KI-Systeme Sorgen, die zum Beispiel selbstständig Computer nutzen können, um die ihnen gestellten Ziele zu erreichen. Die Fachleute argumentieren, dass es auch bei Programmen mit guten Absichten unvorhergesehene Nebeneffekte geben könne.
Denn so, wie das Training von KI-Software laufe, halte sie sich zwar eng an ihre Spezifikationen, habe aber kein Verständnis dafür, welches Ergebnis dabei herauskommen soll. „Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnten wir nicht mehr in der Lage sein, sie unter Kontrolle zu behalten“, heißt es in dem Text.
Schlüsseltechnologie Künstliche Intelligenz
KI ist ein Überbegriff – für unterschiedliche Maschinen und Programme, die ähnlich wie Menschen selbstständig lernen, urteilen und Probleme lösen können. Computer lernen, indem sie gewaltige Datenmengen auswerten.Ausgefeilte Algorithmen können in Bildern, Texten oder gesprochener Sprache Muster erkennen, anhand dieser Ereignisse vorhersagen und Entscheidungen treffen.
So können sie inzwischen sogar auch Emotionen in menschlichen Gesichtern erkennen, zu eigenen Emotionen, Mitgefühl und echter Kreativität sind sie aber (noch) nicht fähig.
Ähnlich dramatische Warnungen gab es schon mehrfach, auch bereits im vergangenen Jahr. Diesmal passt die Veröffentlichung zeitlich zum KI-Gipfel in Seoul. Zum Auftakt des zweitägigen Treffens am Dienstag (22. Mai) sicherten unter anderem US-Konzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit der Technologie zu.
Software, die schlauer ist als ihr Schöpfer
Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter bei KI-Technologie verantwortungsvoll genug vorgeht, war am Wochenende nochmals stärker in den Fokus gerückt. Der Entwickler Jan Leike, der bei OpenAI dafür zuständig war, KI-Software sicher für Menschen zu machen, kritisierte nach seinem Rücktritt Gegenwind aus der Chefetage.
In den vergangenen Jahren seien „glitzernde Produkte“ der Sicherheit vorgezogen worden, schreibt Leike bei X. Dabei sei „Software zu entwickeln, die schlauer als Menschen ist, eine von Natur aus gefährliche Unternehmung“, warnt er. Man müsse dringend herausfinden, wie man KI-Systeme kontrollieren könne, „die viel smarter als wir sind“.
OpenAI warnt vor Hysterie
OpenAI-Chef Sam Altman versichert, seine Firma fühle sich verpflichtet, mehr für die Sicherheit von KI-Software zu tun. Der KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun, kontert dagegen, für solche Dringlichkeit müssten sich zunächst auch nur andeutungsweise Systeme abzeichnen, „die schlauer als eine Hauskatze sind“.
Es werde viele Jahre dauern, bis die KI-Technologie so schlau wie Menschen sein werde und ähnlich wie bei Flugzeugen würden die Sicherheitsvorkehrungen damit schrittweise einhergehen.