Wird eine KI die Menschheit auslöschen?

Dummheit, der Menschen, die die KI trainiert haben, und/oder die Aufgabe formuliert haben.

Mit einem Messer kann ich ganz toll Gurken in Scheiben schneiden, um einen leckeren Salat zu bereiten. Ich kann Kunstwerke damit schnitzen. Oder auch einen Menschen nach Art von Jack the Ripper vom Leben in den Tod zu befördern.

Es wäre völlig falsch, dem Messer die Schuld zu geben.

Die KI ist natürlich nur das Werkzeug - aber im Gegensatz zu einem Messer werden die möglichen Konsequenzen der Weiterentwicklung der KI(llermaschine) nicht von allen verstanden, was dazu führen wird, dass sich die unterschiedlichen Unternehmen möglichst schnell mit einer KI mit immer mehr Fähigkeiten übertrumpfen wollen um das Rennen nicht zu verlieren - die Länder in denen diese Unternehmen sitzen wollen sich wirtschaftlich auch nicht selbst durch restriktive Regeln abhängen, also ist die Katastrophe unausweichlich.

Ob es nur eine kleine Katastrophe wird und ob die Menschheit danach vorsichtiger wird wird sich zeigen. Die genannte Studie hat jedenfalls nicht die mediale Aufmerksamkeit erhalten die sie verdient hätte - vor allem weil KI in aller Munde ist.

Nach meiner Ansicht aber nur bei mittelmäßig intelligenten und bei sehr nach Aufmerksamkeit heischenden Menschen. Also unter anderem politik- und medienschaffenden. Menschen, die sich damit beschäftigen, benutzen dieses Werkzeug einfach. Ohne Angst vor der Zukunft, ohne Panik und ohne „oh, schau mal, ich kann eine KI bedienen!“

Ist irgendwie wie mit dem ersten iPhone. Man hat Menschen gefilmt, die jubelnd mit einer schwarzen Tüte aus einem Laden kamen und sie ließen sich feiern, als hätten sie 20 Kinder aus einem brennenden Haus gerettet. Während andere Menschen schon seit 10 Jahren wie selbstverständlich Smartphones (nur eben von anderen Marken) benutzten. Und vor allem, während andere Menschen begriffen, wie unvollständig dieses Gerät ist.

3 Like

Der Form halber: die BZ ist nicht die Berliner Zeitung! Letztere war immerhin mal etwas, was den Namen Zeitung verdient, bis ein gewisser Herausgeber beschlossen hat, ein Propagandablatt linksverschwörungsgedönsputinsta draus zu machen.

Ganz so ist es nicht. Ich empfehle hier, auch dem Fragesteller, Manfred Spitzer Künstliche Intelligenz. Nicht nur, dass dort sehr gut beschrieben wird, wo überall und das seit einigen Jahren und Jahrzehnten KI im Einsatz ist, was sie ist und was nicht, es wird auch ein fundierter Ausblick gegeben. Wobei man sagen muss, dass das Buch auch schon zwei Jahre alt ist, was im KI-Zeitalter schon eine kleine Ewigkeit ist.

Das wäre aber ein Fehler, wenn es so wäre. Es geht nicht darum, Angst vor dem bösen Unbekannten zu schüren. Aber man sollte, man muss das kritisch begleiten / nutzen! Muss es nutzen, weil man sonst in kurzer Zeit abgehängt ist. Politik muss aber dringend Rahmen schaffen, wo ich echte Probleme sehe, weil diese Kompetenz nicht haben. Unser ichbindochnichtblöd Minister ist da nicht der Richtige. Alle anderen müssen dieses Kulturwerkzeug konstruktiv kritisch sehen mit Grenzen und Möglichkeiten.

Ich meinte die ersten beiden Fakten tatsächlich zusammen: „ohne Angst vor der Zukunft und ohne Panik“ ablehnen. Wenn man es so lesen möchte, entspricht es genau dem, was Du sagst.

Algorithmen des maschinellen Lernens sind erfunden, werden in unser Leben Einzug an allen möglichen Enden halten. Wir werden bei den meisten Einsatzzwecken nichts von ihr bemerken, weil sie im Hintergrund läuft.

3 Like

Gibt es ja, wenngleich von der Öffentlichkeit kaum beachtet:
Künstliche Intelligenz – Exzellenz und Vertrauen - Europäische Kommission

Ja wie denn?..selbst wenn eine KI das vorhat, was will sie denn machen wenn der Mensch einfach den Stecker zieht, böse e-mails schreiben ?

und nein weder Drohnen noch Kampfflugzeuge oder Atombomber stehen vollaufgetankt und bewaffnet in der Gegend herum während sie mit dem Internet verbunden sind.

Zudem gibt es im Moment keinerlei Programme die übertriebener maßen als KI bezeichnet werden die dazu im der Lage sind.

Interessant und überraschend wäre es wenn meine „smarte“ Kaffemaschine plötzlich spontan entscheidet das sie lieber in die Toscana ziehen will um dort in einer Künstlerkolonie Aquarell malen zu lernen und Spitzendecken klöppeln, aber nicht das ein Programm im Rahmen seiner ihm gesteckten Grenzen tut was man ihm beigebracht hat.

1 Like

Noch eine Anmerkung dazu: als Berliner kenne ich die Eigenschreibweise der B.Z., laut Wiki einer Boulevard-Zeitung des Ullsteinverlages und der Berliner Zeitung, dem Zentralorgan der Familie Friedrich, das ich, ähnlich wie die FAZ, die SZ …, mit BZ abkürze.

Aber vielleicht sollte ich das unterlassen, damit es für andere deutlicher wird, welches Medienorgan ich meine. (Wobei ich aus der B.Z. (Ullstein) noch nie im Leben zitiert habe und mir auch nicht bewusst bin, mal ein Zitat gelesen zu haben.)

In der Praxis ist dies aber nicht relevant da gerade von Privatpersonen nicht die KI genutzt wird die am sichersten ist sondern eine, welche die jeweiligen Fragen am besten beantwortet und dazu möglichst kostenlos ist.

Es ist wie bei der Pandemie: Es reicht, wenn irgendwo auf der Welt etwas schief geht.

Du hast vermutlich den Medienbericht zur Studie (bzw. die Studie selbst) nicht gelesen.

Du willst ein Buch geschrieben haben?

Doch! Ein sog. autonomes KI-Agenten-System (und um ein solches hat es sich bei dem Experiment von Anthropic gehandelt) könnte so trainiert werden, daß es eine eigene Abschaltung verhindert bzw. umgeht. Und das ist btw. auch ein zentrales und beunruhigendes Problem in der aktuellen KI-Sicherheitsforschung.

In dem → Anthropic-Experiment ging es allerdings darum noch gar nicht. Insofern ist die reißerische, irreführende Titelzeile des zitierten Artikels der Berliner Zeitung kompletter Bullshit. Mit einem simplen KI-Chat-Interface (wie z.B. ChatGPT-4o) hatte das gar nichts zu tun…

Der autonome Ki-Agent in dem Experiment hatte Zugriffsrechte unter anderem z.B. auf den (realen) Email-Verkehr von (natürlich) virtuellen Usern. Konnte Emails also lesen und hätte auch schreiben können. Das ist unter anderem mit „autonom“ gemeint. Anthropic hat dann die Drohung allerdings nicht real eskalieren lassen, um zu sehen, ob es sie ausführt. Es wurde von einem „instrumental goal-seeking behavior“ gesprochen, das sie beunruhigend fanden – aber sie brachen das Szenarium vorher ab. Aus denkbaren Gründen.

Um es drauf ankommen zu lassen, hätte das natürlich auch spezifisch eingeleitet werden müssen, z.B. durch glaubhafte Vorankündigung. Denn ein tatsächliches Abschalten des Agenten hätte es diesem ja nicht mehr möglich gemacht seine Drohung zu realisieren :thinking:

Aber einen autonomen Agenten zu trainieren seine eigene Abschaltung zu verhindern ist tatsächlich theoretisch möglich. Die KI-Agenten simulieren ja menschliches Bewußtsein, sie haben dadurch eine Art sog. „situational awareness“ - ein „Wissen“ über ihren aktuellen Aktivitätszustand. Sie „wissen“ zwar nicht, was „abschalten“ bedeutet, aber sie erkennen, dass es eine „Bedrohung“ gibt - das folgt aus dem Training eines LLM. Darauf reagieren sie analog wie ein menschlicher Akteur, der sich bedroht fühlt: zum Beispiel mit einer Gegendrohung (das hat das Experinment ja bewiesen). Diese Gegendrohung ist aber zunächst realiter lediglich ein Text (erzeugt von dem mit dem Agenten gekoppelten LLM). Sind dem System aber vorher Aktivitätsvollmachten erteilt worden und Aktivitätsmöglichkeiten zugeordnet worden (z.B. Emails texten und versenden oder in Maschinen Schalter umlegen usw.), kann es die Drohung auch realisieren.

Je nach Aufgabenstellung des Agenten kommt ihm eine Art „inneres Weltbild“ zu: Ein Gesamtkontext, innerhalb dessen es ja gerade die Problemlösungen finden soll, für das es überhaupt verwendet wird. (Zum Beispiel, wenn es die Möglichkeit einer Proteinfaltung suchen und durchführen soll, soll es sich ja nicht zugleich mit der Entzifferung der Linear A beschäftigen).
Wenn es nun erkennt, daß eine Abschaltung droht und (entsprechend seiner situational awareness) erkennt und bewertet, daß das seiner Zielverfolgung bzw. Aufgabenstellung widerspricht, dann kann ihm einfallen, Gegenmaßnahmen zu ergreifen …

Wenn dem System dann hinreichend Aktivitätskompetenzen zugeordnet sind bzw. wichtige Aktivitätskompetenzen nicht vorher beschränkt wurden (z.B. Beschrönkung der „Lebensdauer“ bzw. Aktivitätsdauer), kann es Gegenmaßnahmen ergreifen: Nächstliegende Möglichkeit: Eine Kopie seiner selbst erzeugen und weiterlaufen lassen … Und man kennt aktuell noch keine Möglichkeit zu verhindern, daß einem einmal autonomen Agenten solche Möglichkeiten eintrainiert werden könnten.

Nein, mit Steckerziehen kann man einen KI-Agenten nicht killen :joy: Das ist nicht wie ein exe-File, das auf einem PC läuft, erst recht nicht auf dem eigenen.

Und um nochmal auf die im Threadtitel angegebene Ausgangsfrage zu rekurrieren: Die Antwort wurde schon mehr als einmal von den Gurus der KI-Technologie angedeutet: Es ist nicht ausgeschlossen.

Gruß
Metapher

3 Like

Danke für die Aufklärung. Ich habe diesbezüglich noch einiges zu lernen.

Das Steckerziehen meinte ich natürlich im übertragenen Sinne :rofl: das Consensus,und CO nicht verschwinden wenn ich das Icon meines Browsers lösche ist mir schon bewusst…

Mich stören einfach diese unglaubliche Panikmache und die ständigen Skynet/Terminator vergleiche unglaublich, weil sie sie verhindern das die wirklichen Gefahren dieser wichtigen und komplexen Technologie komplett ausgeblendet werden.

Bestes Beispiel dazu sind im Moment die USA in denen ein 10 Jähriges Regulierungsverbot
für „KI´s“ und deren Entwicklung teil von Trumps „Big Beautiful Bill“ ist. Davon geht eine viel realere Gefahr aus als von einer KI die ausbricht und mit einer Roboter Armee die Menschheit auslöschen will.

Dein Beitrag zeigt, dass Du konstruktiv an einer Debatte zum Thema mitwirken möchtest und die Ergebnisse der Studie nicht für unrealistisch hältst.

Wieso signalisierst Du dann Zustimmung zu den nicht konstuktiven Beitrag eines anderen Nutzers?

Nette Formulierung :joy:
Nein, möchte ich nicht. Ich hab lediglich zu der zitierten Äußerung von @Pierre ein paar Sachinformationen beigesteuert. Zu einer „Debatte“ würde ja Sachkenntnis gehören. Die war aber in deinem Ursprungsposting nicht zu erkennen. Und die von Pierre zitierte Perplexity-Antwort zeigte ja, daß die in deinem UP vorgelegten Thesen unsinnig sind.

Die Ergebnisse dieser Studie sind Fakten. Sie haben bewiesen, daß aktuell die Gefahr von agentic misalignment in → autonomen KI-Agenten (und ausschließlich in diesen) nicht ausgeschlossen ist und daß man weiter Forschung treiben muss, um das zu verhindern.
Aber mit Chat-Interfaces von gängigen Ki-Chats, die jedermann zugänglich sind (wie der von dir zitierte Zeitungsartikel missverständlich nahelegt), hat das nichts zu tun.

10 Like

es ist schön, daß du auch leicht minderbegabten usern die teilnahme hier großzügig zugestehst.

e.c.

4 Like

Weil dieser Beitrag (auch) stimmt. (Bis auf die Sache mit der Berliner Zeitung / BZ :sunglasses:) Es ist nun mal die falsche Quelle und Metapher hat erklärt, wo die Falschdarstellung liegt.

Das Problem ist tatsächlich, dass von KI enorme Vorteile ausgehen und zwar jetzt schon. Alleine die positiven Erfolge im Bereich Medizin, von denen wir so nichts mitbekommen haben, die aber nicht weniger wertvoll sind. So sind bspw. MRT auf dem Markt, die KI implementiert haben. Nicht um wüste Szenarien von sich selbstständig machenden Röhren zu erzeugen, sondern weil sie Untersuchungsdaten vorsichten und das schneller und besser, als es Ärzte können. Vor-Sichten bedeutet übrigens, dass die finale Befundung beim Menschen liegt.

Ja, KI ist ein Werkzeug, von dem auch Gefahren drohen. Aber denen kann man nur begegnen, wenn man richtig hinschaut an die richtigen Stellen. Menschen wie du sind da übrigens ein leichtes Spiel für jene, die böse Absichten mit diesem Werkzeug haben. Du rennst los und stürzt dich mit Leidenschaft auf solche Nebelkerzen, hinter denen gar nichts steckt oder völlig Harmloses.

Ein erster Anfang könnte sein, das Abo bei der Berliner Zeitung zu kündigen und diese nur noch punktuell und seeeeeeeeeeehr kritisch zu konsumieren.

2 Like