Das hier ist ganz klar der KI-User des Jahres:
Gefunden hier: Akkoma
Sehr schön, ich denke mal das die Entwickler schon so schlau waren und solche Versuche vorausgesehen und von vorn herein diese missbräuchliche Nutzung unterbunden haben. Gibt man dem Algorithmus aber etwas Story dazu, dann bekommt man sehr wohl den Klartext geliefert. Es ist halt eben noch lange keine echte künstliche Intelligenz, auch wenn uns dass das Marketing und die Menschen im Neuland gerne glauben machen wollen. Technisch auslesen lassen sich solche Bildchen sehr wohl. Eine echte KI müsste meiner Meinung nach erkennen, dass das Bild nicht zum Kontext der Geschichte passt und richtig Klasse wäre dann eine Rückfrage vom Chatbot zum Beispiel ob man versucht ihn auf den Arm zu nehmen. Dann wäre ich richtig beeindruckt gewesen
LOL, ich glaube da gibts noch mehr solche Dinge, die einem der Algorithmus vorgaugelt und man bewusst oder unbewusst umgehen kann.
Super finde ich auch immer die „selbstbewussten“ Ausführungen. Wenn man dann auf offensichtliche Fehlinformationen hinweist, wird sich schön entschuldigt und einem Recht gegeben
Sehr cool, wobei ich auch nicht überrascht wäre, wenn er bei mehrmaligem Nachfragen nicht auch einfach so anders geantwortet hätte.
Diese beiden Fragen habe ich direkt nacheinander in zwei unterschiedlichen Chats an ChatGPT gestellt:
Dreimal falsch gerechnet, ziemlich peinlich.
Die korrekte Antwort ist 1,003,713.73
Es ist klar, dass ChatGPT nicht rechnen kann, aber warum sagt er dass nicht einfach, anstatt falsche Antworten zu geben?
Ich hatte mit der KI des Postillion neulich dieses sehr Aufschlussreiche Gespräch über Ziegen.
Sorry Leute, aber ich bin für immer überzeugt, die KI sagt die Wahrheit! Immer!
Nicht mehr ganz neu, aber in diesem Zusammenhang noch einmal eine interessante Lektüre, wie ChatGPT ge"jailbreak"t werden kann/konnte:
„Some clever users have found a way to bypass ChatGPT’s strict list of no-talk subjects, tricking it into adopting a new persona, DAN, which stands for “Do Anything Now.” As DAN, ChatGPT can now blow past the restrictions on “appropriate topics” to deliver amusing and upsetting responses.“
Die Dinger werden vor allem trainiert und nicht programmiert. Was das unterbinden von bestimmten Eingaben erschwert wie man sieht.
Vereinfacht gesagt sind LLM sehr komplexe Wort-Vervollständigungs-Programme. „Was kommt wahrscheinlich als nächstes?“
So etwas wie echtes Bewusstsein haben sie auch nicht.
Es sind komplexe, sich ändernde Algorithmen die Daten verarbeiten. Was die Daten (für Menschen) bedeuten, weiß der Algorithmus nicht. Sie erkennen nur Muster.
Auf Informationen aus ihnen sollte man sich nicht verlassen.
Eher sind sie als Muse zu verstehen. Gut für Formulierungshilfen und generell das formulieren längerer Text.
Die nicht zwangsweise wahr sein müssen.
Einfach nach dem Motto „Welches Wort kommt wahrscheinlich als nächstes?“.
Im strengeren Sinne kann nur mit Absicht Lügen wer die Wahrheit kennt.
LLMs kennen das Konzept der Wahrheit nicht (auch wenn sie vielleicht gute Text dazu erzeugen können). Sie haben kein Bewusstsein.
Weil es nicht weiß was Rechnen ist, aber Texte auf solche Antworten formulieren kann.
Stell dir vor du wächst als Kinder unter Wissenschaftlern auf. Keiner erklärt dir die Grundlagen und Details dessen was sie tun, aber du hörst ihnen zu.
Du beginnst zu lernen in welcher Situation sie was sagen und wirst dabei immer besser.
Schließlich kannst du so reden, dass es sich für Laien anhört als wärst auch du Wissenschaftler.
Aber eigentlich hast du keine Ahnung was du da redest. Du weißt nicht ob das stimmt was du da sagst.
Du sagst oft nicht die Wahrheit, aber lügst du mit Absicht?
Ich habe mir mal von einem Kumpel, der beruflich mit IT zu tun hat, erklären lassen, wie ChatGPT arbeitet und warum es uns manchmal anlügt. Tatsächlich gibt ChatGPT uns nicht die richtige Antwort, sondern es gibt uns die wahrscheinlichste Antwort. Und das ist durchaus ein Unterschied. Es ist ein bißchen so, wie bei der Spielshow „Geh aufs Ganze“, falls die noch jemand kennt. Dort mußten die Kandidaten erraten, welche Antwort von 100 zufällig gewählte Passanten am häufigsten genannt wurde. Ob die Antwort nun richtig oder kompletter Unfug war, tat dabei nichts zur Sache. Entsprechend arbeitet auch ChatGPT.
War das nicht Familienduell?
Jetzt wo du das sagst, kann es auch das Familienduell gewesen sein… Aber, so genau weiß ich das auch nicht mehr. Soll ja auch nicht das Hauptthema sein.
Du hast völlig recht, das war Familienduell.
Russische Bots können auch nützlich sein