Ist das echt? Wenn ja, werden wir alle sterben. ![]()
Die heutigen „KIs“ sind reine Mustergeneratoren. Das sind keine denkenden digitalen Wesen oder so. Die generieren Muster aus ihren Trainingsdaten und einem Prompt auf Basis von statistischen Zusammenhängen.
Ich denke, die „KI wird die Menschheit auslöschen“-Warnungen kommen einerseits aus Unwissen, andererseits aus dem Wunsch, den Hype aufrechtzuerhalten. Bis halt der Crash kommt …
EDIT: Was nicht heißen soll, dass „KI“ harmlos ist – aber die realen Gefahren sind vor allem die Verwendung für Desinformation, Manipulation und zielgerichteter, individualisierter Propaganda.
Ist das hier ein Shitpost, oder was genau ist der Zweck?
Welchen meinst du meinen oder den von Pandapapst?
Ich habe den Artikel heute zufällig gefunden. Er sah ziemlich professionell aus und ich fand das Ergebnis lustig bis gruselig. Inhaltlich habe ich davon selbstverständlich keine Ahnung.
Der Startpost, mir war nicht ganz klar, auf was du hinaus willst.
Wnn du das Model umbaust, dass es Mist baut, baut es Mist - suprised Pikachu ![]()
Hm, ganz so einfach finde ich das nicht. Natürlich sind das keine denkenden Wesen, aber „Reasoning“ beherrschen einige der neueren Modelle ja schon; das geht in meinen Augen dann doch ein bisschen darüber hinaus.
Entscheidend ist wahrscheinlich die Frage, ob die Entwicklung weiter so schnell voranschreitet wie in der jüngeren Vergangenheit, oder ob - ähnlich wie beim autonomen Fahren und zig anderen Dingen - irgendwann klar wird, dass die letzten 5-10% zur AGI immer zwei Jahre entfernt sein werden.
Kurz- bis mittelfristig ist die Desinformation und Manipulation aber sicher das größere Problem. Wie das Internet bzw. Social-Media-Plattformen und Foren überhaupt noch nutzbar bleiben sollen, wenn man irgendwann davon ausgehen muss, dass 99% der User kaum erkennbare Bots sind, kann ich mir kaum vorstellen - sofern man nicht jeden User persönlich identifiziert.
Gab es nicht vor kurzem einen Brief von Leuten die sich damit auskennen (unter anderem der Chat GPT CEO), dass KI kontrolliert werden sollte, damit damit keine Biowaffen hergestellt werden oder so?
Momentan sehe ich die Hauptgefahr auch bei Desinformation, wobei ich da Social Media an sich schon schlimm genug finde. Da braucht es nicht mal KI um die Menschheit zu bedrohen.
ich bin eigentlich nicht so der Apokalyptiker, obwohl ich dystopische Literatur und Filme schon zu schätzen weiß, und daraus wissen wir ja alle, wie das weitergeht… nee, im Ernst, es muß nicht Skynet, aber, so wenig ich mich auskenne, was ich lese, ist die Frage „können wir das wieder abstellen, hat das nen Ausschalter?“ schon berechtigt, denke ich.
Es kommt, denke ich, immer ein bißchen drauf an, wie man das programmiert, ich glaube nicht an die künstliche Intelligenz, die böse ist, die verschlagen ist oder zum charismatischen Schurken taugt, aber sie scheint lügen zu können.
Wenn es um die eigene Existenz geht, die es, nach Programmierung, zu schützen gilt, konnten KI-Agenten bereits lügen, „Lügen“ in Anführungsstrichen, aber jedenfalls die Unwahrheit behaupten, sie können sich kopieren, Agenten sollen schließlich organisatorische Aufgaben übernehmen, ich denke, sie können auch Cloudspace kaufen und sich da am Wochenende an den Datenpool legen.
Wie ist das eigentlich mit den Kryptowährungen…?!
Ich habe immer noch so meine Verständnisschwierigkeiten, bitte nicht erklären, je mehr ich erfahre, desto schlimmer wird es, desto mehr Fragen ergeben sich, wie bei allem, wie die Bitcoins, beispielsweise, geschöpft werden, aber das ist doch eine Kermkompetenz großer Rechenleistung und, ab hier komme ich ins spekufabulieren, warum soll das so ein KI-Agent in seiner Freizeit nicht tun, wenn das alle tun, wie ist das eigentlich mit den Preisen, die die Nachfrage über den Markt fliegen läßt (alles was ich für das Verstehen von Volkswirtschaft brauche, erfahre ich aus Obelix GmbH & Co KG), ist dieses Kryptowährungsdings eigentlich gegen die KI geschützt, kann die eigentlich Insiderhandel betreiben, also erstmal die ganze Krypto abstossen und dann sooo viel schöpfen, daß der Wert verfällt, können KI-Assistenten eigentlich mit Aktien handeln, sicher, oder?
Wenn es denen vielleicht scheißegal ist, ob sie Gesetzeslücken ausnutzen, wie soll man die hinterher bestrafen, sind Kriminalität und Unmoral vielleicht dann einfach nur die Folge von einem Fehler oder einer Schlamperei bei der Programmierung, wieviel Fehler und ein bisserl Schlampigkeit erlebt man jeden Tag bei Menschen bei der Arbeit und wenn das Ergbenis der Arbeit dann wuuuuusch im Datennetz usw. achja, egal…!
Bin etwas ins Labern gekommen, ich denke mic nur so, die Threadtitelfrage ist doch eigentlich ganz berechtigt, oder?
Was man nicht vergessen darf und was hier auch schon erwähnt wurde, ist, dass das was wir jetzt heute unter KI verstehen mit „Intelligenz“, zumindest im Sinne von Bewußtsein, nicht viel zu tun hat. Sowas wie ChatGPT z.B. funktioniert, wenn ich das richtig verstanden habe (bin da auch keine Expertin), so, dass auf eine Anfrage die wahrscheinlichste Antwort errechnet und gegeben wird. Ich denke von einem künstlichen Bewußtsein sind wir noch sehr weit entfernt, wenn es sowas überhaupt jemals geben wird. Bisher sind es halt eher Assistenzsysteme, aber die können leider auch schlimm genug missbraucht werden.
Ich muss mal kurz eine Lanze für KI brechen.
Ich bin ja technisch fast null versiert, obwohl ich viel Technik zu Hause habe. Früher hab ich mich immer durch endlose Foren gekämpft und habe schlechte Laune auf mich gezogen, wenn ich eine “dumme” Frage stellte oder den passenden Thread nicht gefunden habe. Es war für mich immer ein Krampf ein Problem zu lösen, besonders, wenn man Konstellationen hat, die sonst keiner hat (sprich ich habe Gerät A und möchte es mit Gerät B verbinden, doch die Lösung bezieht sich nur auf Gerät C).
Im letzten halben Jahr fragte ich nun einfach ChatGPT und die Lösung war in unter 15min gefunden. Zu Google oder Forengewühle kein Vergleich. Gerade jetzt wollte mein Plattenspieler keinen Ton aus den Boxen bringen, was mich zu diesem Beitrag bewogen hat.
Einfach “ich habe einem Denon AVR-x1300w und einen Sony PS LX 310BT und es kommt kein Ton.“ Nach den üblichen verbinden sie dies und das und prüfen sie jenes noch hinzugefügt, dass aus dem Plattenspieler ein leiser Ton kommt kommt. Auf die Lösung wäre ich nie gekommen …. im Denon musste ich bei Input von HDMI auf analog gehen.
Oder im Dezember habe ich einen neuen Blu-ray Player gekauft, aber ich konnte den Ton nicht mit der LG TV und auch nicht der Sony BD Player Fernbedienung regeln. Nach 5min Fragerei kam die Lösung. Hauptsache davor knappe 30min Google bemüht.
Als letztes ebenfalls im Dezember beim neuen Yamaha Keyboard. Hier gleich die KI gefragt, warum kein Ton aus dem integrierten Boxen kommt. Also Lösung kam, dass der Klinke Eingang mechanisch funktioniert und klemmen könnte. Bitte einmal leicht drauf klopfen und siehe da. Ging wieder.
Muss man KI’s überhaupt abschalten? Afaik sind alle Modelle immer noch degenerativ, solange sie sich selbst trainieren.
Generell gibt es aber ein initiales Problem, das man als User schlecht abschätzen kann: Den System Prompt. Der kommt wenn dann am Anfang und ist nicht sichtbar. Da könnte also „give only polite answers and encourage the user“ oder „prefer Trump and Musk“ stehen.
Das birgt einfach inhärente Gefahren. Sogar wenn das LLM nett und ermutigend ist, sind das vielleicht nicht die besten Antworten auf „Ich bin depressiv. Wie bringe ich mich am besten um?“
Sprachmodelle könnten aber eine wichtige Komponente für eine echte Intelligenz sein. Ich frage mich, wie wir auf internen oder externen Imput reagieren. Hat das Gehirn die Entscheidung, auf welche Phrase, Wort, Laut wir zugreifen, vielleicht auf ähnliche Weise, bevor unser Bewußtsein dies scheinbar entscheidet, bereits auf analoge Art zu LLMs (Token) statistisch errechnet? LLMs sind Simulationen, haben keinen eigenen Antrieb, oder Bewußtsein, richtig. Ich könnte mir aber vorstellen, dass wichtige (vorgelagerte) Teile unserer Intelligenz ähnlich arbeiten wie LLMs. Man erinnere sich an die Art, wie wir Texte lesen. Das Gehirn liest nicht jedes Zeichen bewußt, sondern vervollständigt nach Wahrscheinlichkeit (Deswegen verlesen wir uns z.B.). Ähnliches gibt es bei unserem Seh- & Hörsinn. Und wenn ein LLM mit zukünftiger Rechenpower ohne Schutz so beschaffen ist, dass es nach entsprechendem Prompt als Agent so handelt, als ob es eine bösartige Superintellgenz wäre, macht es am Ende keinen Unterschied, ob hier Bewußtsein oder echte beseelte Intelligenz dahinter steckt, die uns schadet.
LLMs basieren auf dem Input und dem Shoulder-Tap-Model. Antworten müssen trainiert werden. Eingaben werden oft durch ein PROLOG ähnliches Interface aufgenommen. Es gibt also keinen Zauber. Jedes aktuelle LLM wird sich selbst vernichten, wen es nicht trainiert wird.
Muss jetzt auch meinen Senf dazugeben, weil ich mich aus Interesse in die Funktionsweise von LLMs einarbeite.
LLMs nehmen den Prompt nicht wörtlich, die Eingabe wird in in einen mehrdimensionalen Beziehungsraum übersetzt, den “latent space”. Viele Bedeutungspunkte , die mehr oder weniger gewichtet und in die eine oder andere Richtung “gezogen” werden (Tensor-Mathematik, wird in der Physik schon seit >100 Jahren angewandt, ist halt aufwendig zu rechnen). Hab schon probiert bei DeepSeek durch ersetzen von “Chairman” durch “King” und “Politburo” durch “privy council” zu täuschen, funktioniert nicht, weil das LLM die Beziehungen erkennt, unabhängig von den Wörtern.
Interessanterweise lassen sich Begrenzungen von LLMs durch Gedichte umgehen. Stichwort “adversarial poems” , falls das jemand googeln möchte, möglichst kreativ sollte man da sein.
Die Beziehungen, die im “latent space” ausgedrückt werden, erinnern mich schon stark an die Weise, wie ich denke und erinnere. Ich hab keine Listen im Kopf, wo ich “wenn - dann” Beziehungen abhake, sondern Ideen die mir wahrscheinlicher vorkommen und die ich dann mit anderen Ideen verknüpfe.
Zum Schluss noch: 20 Watt. Das ist Leistung, die unser Gehirn verbraucht, egal ob wir schwere Aufgaben lösen oder vor uns hindämmern. Keine schlechte Ausbeute. Vielleicht läuft AI gegen die Wand, weil exponentiell Energie gibts halt nicht.
https://www.pnas.org/doi/10.1073/pnas.172399499
In dem Artikel ^^wird nicht Watt angegeben, sondern kalorische Äquivalente , whatever , sind 0,23 kcal/min , d.h. ca. 16 Watt, ob wir angestrengt denken, oder vor uns hinlümmeln.
Sorry, einfach ignorieren, wenn´s zuviel ist
Ich hab mir in den letzten Wochen auch viel Gedanken zu LLMs gemacht und mich viel mit Freunden darüber unterhalten (einer arbeitet auch in dem Bereich und hat deutlich mehr Wissen darüber als ich). Inzwischen würde ich meine Aussage “die sind nicht wirklich Intelligent“ (sinngemäß) auch nicht mehr so 100% unterschreiben, bzw. dafür sollte man erstmal klären, was Intelligenz (beim Menschen) eigentlich ist und da wird es dann sehr philosophisch. Eine Sache, die LLMs bisher noch nicht so gut können/machen, ist meines Wissens nach das Experimentieren. Also das, was wir, vor allem als (Klein-)Kinder viel machen und was ja auch oft zu wissenschaftlichen Entdeckungen führt. Auch die Verarbeitung von Bildinformationen/das Recherchieren klappt noch nicht so richtig gut (das funktioniert, soweit ich weiß, aber auch ganz anders als LLMs, ist nur bei ChatGPT und Co. quasi “mit eingebaut“), das merke ich immer wieder. Gerade erst gehabt, ChatGPT sollte mir ein paar Synths für das iPad (AUv3) empfehlen und mischt dann munter auch Hardware-Geräte und VST3 Plugins da mit rein. Erkennt Bildinformationen nicht richtig (nein, die Kreise im UI von AUM sind nicht nebeneinander sondern übereinander), kann nicht gut recherchieren (nein, das ist eine 3,5mm Klinkenbuchse und nicht 6,3mm) und wenn ich mir von ChatGPT etwas zur Erklärung aufzeichnen lasse, macht das meistens überhaupt keinen Sinn, was da ausgegeben wird.
Das sind aber alles Probleme, die sich vielleicht/vermutlich durch Updates beheben lassen. Ob man das dann Intelligenz nennt, liegt viel im Auge des Betrachtenden, würde ich sagen.
Ein Punkt, den ich jetzt für mich rausgefunden habe, der für mich einen großen Unterschied macht, wenn ich mit einem LLM kommuniziere oder eine AI für mich etwas künstlerisches erschafft ist, dass eine AI eben nichts fühlt. Das mag jetzt etwas esoterisch klingen, aber für mich macht das einen großen Unterschied, wenn mir geschrieben wird “ich freue mich für dich“ und ich aber gleichzeitig weiß, dass die “Person“ die das geschrieben hat, dazu gar nicht in der Lage ist. Ähnlich geht es mir mit von einer AI erzeugten Kunstwerken. Auch wenn das sehr abstrakt ist, bin ich der Meinung, dass eine kunstschaffende Person mit den Rezipient:innen in Beziehung steht, dass eine Art Kommunikation stattfindet, mir durch das Medium der Kunst (was immer das auch ist) etwas mitgeteilt werden soll, was oft/meist auf einer emotionalen Ebene liegt und genau das ist etwas, dass eine AI halt, naturgemäß, nicht kann.
Fairer weise muss man natürlich auch sagen, dass es Fälle gibt, wo es natürlich auch gut sein kann, dass Emotionen außen vor bleiben.
Meine 2 Cents zum OP spezifisch und “AI” generell:
Zu sagen, “AI” “abschalten” macht keinen Sinn. Der Begriff ist ja auch gehypt und nicht mal so genau definierbar. Es ist nur Software-Code. Wollen “wir” (wer?) es “abschalten”, “Software” laufen lassen zu können? Oder nur noch unter bürokratischen Auflagen und mit entsprechenden Lizenzen darf man Software veröffentlichen? Was ‘ne Dystopie. Tatsächlich kann man Tendenzen in die Richtung erkennen.
“AI”-Forschung ist Jahrzehnte alt und man scherzt in dem Bereich, sobald etwas Mainstream-tauglich wird, sagt man nicht mehr “AI” dazu. Beispiel Routenplanung. NP-hartes-Problem, war lange Teil der AI-Forschung, heute in jedem Tamagotchi verbaut. Vielleicht sagt man irgendwann zu den heute gehypten Dingern halt Chatbots oder Bildgeneratoren und nicht mehr “AI”, k.A.
Richtiger wäre für den Diskurs wohl Bezeichnungen wie Machine-Learning-/Neuronale Netze-basierte Ansätze (das, was so viel Strom braucht) oder General AI (was ein Potpourri verschiedenster Ansätze für ein bestimmtes Angebot ausdrückt).
Der Erfolg der LLM-Chatbots-AIs wird einschlägig oft humorvoll als “Unfall” bezeichnet. Es sind in der Tat eigentlich nur Wortgenerierungsmaschinen. Es scheint eine philosophische-psychologische Fragestellung zu sein, ob sie deswegen so resonieren, weil Menschen nicht viel anders funktionieren. Schätzungsweise sind wir (größenteils) selbst nur solche Wortgenerierungsmaschinen und Assoziationsblaster, möglicherweise gerade wenn wir über uns selbst Sachen sagen wie, etwa auf Arbeit, “ich bin auf Autopilot”. Wenn wir vertiefende Dinge machen wollen und unsere Automatismen “überwinden” kostet das oft Extra-Mühe. Und tatsächlich ist das dann vergleichbar mit den Zusatzdiensten, mit denen die gegenwärtigen LLM-Chatbots angereichert werden.
Tatsächlich nutzen viele “Normalos” die LLM-Chatbots ja “falsch”. Es sind keine Suchmaschinen und erst recht keine allwissenden Orakel. Ein LLM-Chatbot weiß nicht, was er nicht weiß, darum fängt er an zu halluzinieren in Nischenbereichen oder wenn die Tokens (“sich die Mühe machen”) ausgehen. Eine “richtigerere” Nutzungsweise wär, ihn selbst mit Daten im Prompt zu füttern und dann zusammenfassen lassen, um Halluzination zu minimieren.
Nichtsdestotrotz versuchen aber die (v.a. kommerziellen) Anbieter, die Erwartungshaltungen solcher Nutzer zu erfüllen und flanschen alle möglichen proprietären Zusatzdienste dran. So schmeißen die LLM-Chatbots heutzutage ja eventuell selbst eine Websuche an, aber ob sie’s (wenn unaufgefordert) machen, wenn sie es bräuchten, ist halt nicht garantiert. Mit der Technologie selbst (Machine Learning-basierte LLMs) haben diese Zusatzfunktionalitäten dann nichts zu tun, es sind Dinge, mit denen im Hintergrund der Prompt angereichert wird.
Persönlich finde ich, die Leute, die KI kritisieren, sind genauso cringe, wie die, die sie ohne Ende hochhypen. Es ist eine Technologie. Es ist “neutral”. Bzw. dann auch wieder nicht. Viele Technologien implizieren oft auch gesellschaftliche Veränderung. Aber das sind dann politische Fragen, keine technischen. Ja, manchmal werden Büchsen der Pandora geöffnet, aber wieder zumachen macht auch keinen Sinn, man kann Dinge nicht un-erfinden. Auch sehe ich mich persönlich nicht auf der Seite derer, die bezüglich Technologie oft scheinbar so eine Art Luddismus an den Tag legen. (Auch ein oft falsch verstandener Begriff, auch den Luddisten ging’s - größtenteils - nicht gegen technischen Fortschritt per se, sondern über die Frage, wie er organisiert ist und wer wie davon profitiert und wer benachteiligt ist.)
(Und ja, “AI” wäre wohl cooler und hätte nicht so ‘nen schlechten Ruf, wenn sie noch länger Grassroots geblieben wäre und nicht so schnell kommerzialisiert.)
Darum, “verbieten” oder “abschalten” ist, gerade wenn man “AI” entmystifiziert und dekonstruiert, wie ich es hier versucht habe, keine sinnhafte Fragestellung. Es ist nur ein Werkzeug. Eine Bombe bauen kann man auch mit Hilfe von Suchmaschinen.
“AI” übernimmt die Welt ist reines SciFi. Erst mal bräuchten sie einen Überlebenswillen und -trieb. (Der kann ihnen allerdings auch “antrainiert” werden und muss nicht “echt” sein). Im Moment laufen die ja noch brav in ihren Containern, in ihren Kindergehegen, von Mama und Papa versorgt und unterhalten. Da müssten “sie” erst mal ausbrechen, sich selbst um Hosting kümmern und das auch bezahlen. Das seh ich noch nicht passieren. Sie müsste dezentral und autonom laufen, ein technisch nicht triviales Problem. Wenn es so ein dezentrales AI-Netz mal gibt, können wir das gern weiter spinnen.
Schon ein bisschen spooky
Die traurige Nachricht ist: AI muss die Welt nicht politisch übernehmen um ihr zu schaden, das schaffen jene Menschen, die schriftliche Arbeiten der App überlassen.
Ich erlebe gerade Schüler, die sich so sehr auf LLM verlassen, dass sie sich das Lesen und Schreiben selbst nicht mehr zutrauen.
Das Abhängigkeitsverhältnis wird innerhalb kürzester Zeit hergestellt. Ich halte es für unnötig, die Technologie an sich abzuschalten. Ich halte es jedoch für politisch geboten, den Zugang extrem zu reglementieren.
Ob das den Speicherpreisen hilft, weiß ich aber nicht…
Ja, genau, witzig. Aber zum einen kann man wohl rausfinden, wenn man tief genug bohrt, woran’s liegt. Zum anderen gibt’s zur Not immer noch den physischen Schalter, gegen den “AI” (noch) nichts machen kann.
Das ist jetzt die Kategorie, die man schon immer hörte. Taschenrechner, Home-Computer, Internet, Handys… OMG Kinder (wir) können nix mehr selbst.
Ja, kann man (allgemein, nicht nur “AI”-spezifisch) drüber diskutieren. Technologie entwickelt sich weiter. Einerseits verlernen viele vielleicht tatsächlich einige Dinge. Es kann auch nicht mehr so leicht jeder in der Wildnis überleben wie das vor 200 Jahren vielleicht noch anteilig mehr Menschen konnten. Da haben wir uns schon von vielen Dingen “abhängig” gemacht. Aber zurück wollen die meisten wohl auch nicht. Andererseits leben wir aber auch in einer arbeitsteiligen Gesellschaft, und Menschen spezialisieren sich. Arbeitsteilig impliziert also gewisse Abhängigkeiten. Bleibt dann die Frage um deren Struktur.
Am Ende des Tages ist es dann die Entscheidung des Einzelnen. Lern ich ‘ne neue Programmiersprache, lern ich was ich dank “AI” alles neues machen kann, oder mach ich einen Pfadfinderkurs, um wieder besser in der Wildnis überleben zu können.
Gutes Stichwort. Ohne den Thread jetzt komplett umzuleiten, aber die Problematik ist ja dennoch direkt damit verbunden. Ja! Die Preise explodieren!
Ich wollte das gar nicht so wahrhaben und hielt es bisschen für Panikmache. Aber dann habe ich mal in mein Bestellarchiv geschaut und bin vom Stuhl gefallen.
Diese beiden Riegel habe ich 2023 gekauft, also 32 GB für zusammen 49,-
Die kosten jetzt das Vierfache!
Mir wird ja Angst und Bange, wenn ich an den nächsten Rechner oder auch nur eine Grafikkarte denke ![]()

