Außer man nutzt es beruflich und stellt recht spezielle Fragen. Da kommt öfters die Antwort, dass er das nicht wissen kann. Vorallem wenn ein Hersteller bestimmte Infos gerne für sich behalten möchte und der KI die Daten nicht zum füttern gibt 😅
Das Ding spiegelt das Verhalten angeblich intelligenter Personen. Wenn es ein Spiegel unserer Kultur ist, dann ist es gut jedenfalls im kommerziellen Sinne. Ich schätze mal, das denken Sie sich auch.
Tuts nicht! Ist es nicht! Und wenn das "unsere Kultur" sein soll, dann ist es nur die in englischen texten verfasste. Aber auch das ist verdammt falsch.
Es kommt darauf an, wie dein Prompt verfasst ist. Fragst du richtig, kommt schon mal: "Du hast recht, ich habe dir keine wörtlichen Zitate gegeben, sondern passende Paraphrasen aus mehreren Erwähnungen gebildet." Man muss halt schon noch das eigene Köpfchen anstrengen, es ist nur ein Computer.
Die Firma eine Kumpels hatte mal in einer Jobanzeige "Sicheres Auftreten bei absoluter Ahnungslosigkeit" als Anforderung und das ist KI oft in a nutshell.
Lieb es, wenn man ChatGPT nach einem Code in powerBI fragt, er eine fehlerhafte Antwort gibt, man ihn drauf hinweist, wo der Fehler liegt, und bekommt als Antwort den gleichen fehlerhaften Code…
Ich arbeite mit ChatGPT jeden Tag als Unterstützung bei der Software-Entwicklung. Das von Ihnen geschilderte Szenario erlebe ich auch immer wieder. Ich musste allerdings gelegentlich schon feststellen, dass manchmal nicht ChatGPT einen Fehler gemacht hatte, sondern ich die Antwort falsch umsetzte.
Manchmal ist es nur ein ganz kleiner Fehler, den ich in meinem eigenen Code gemacht hatte. Den ich selbst nicht sehe. Und wenn ChatGPT da nicht explizit drauf hinweist, sieht der Antwortcode nahezu identisch zu meinem aus. Ich ärgere mich dann über dessen Antwort und ignoriere sie erstmal.
Bis mir später dann irgendwann doch der Fehler selbst auffällt. Und ich im Vorschlag von ChatGPT genau diesen Fehler nicht mehr finde, weil er von der KI längst korrigiert wurde.
Diesen Fall hatte ich schon etliche Male in der Vergangenheit.
"TechBros" ist auch ein unsäglicher Euphemismus, der eine echte, vielleicht DIE Menschheitsgefahr verniedlicht, als wären es Mario und Luigi, die jetzt mit Princess Peach und Bowser um die Wette fahren.
1/2
ChatGPT liefert Antworten in Abhängigkeit von der Frage und in Form einer Komposition, die eine hohe Probabilität besitzt plausibel zu sein, und auf der “Auswertung” von bereits in der public domain Befindlichem beruht. Dies führt dazu, daß ChatGPT auch ‘lügt’ um eine falsche Antwort … ⬇️
➡️2/2
… möglichst plausibel (wahrscheinlich richtig) klingen zu lassen. Mit ‘lügen’ meine ich, daß ChatGPT zu diesem Zweck Quellen zitiert, die vom Titel her die Antwort zu belegen scheinen, die aber vom Inhalt her entweder nicht passen oder sogar das genaue Gegenteil aussagen.
Ich möchte zustimmen, weil Techbros Ego Locher sind, ich die wissenshierarchie kacke finde, habe aber andere Erfahrung gemacht. Ich habe schon Antworten bekommen, ich solle in anderen Archiven schauen, ob mir Vorschläge gemacht werden sollen wo. Das ist schon in Ok.
Besonders lustig: Wenn der Algorithmus eine Falschaussage tätigt und man ihn darauf hinweist, entschuldigt er sich stets für den Fehler und paraphrasiert die Falschaussage dann einfach nochmal neu 🙃
Das Problem ist halt dann zusätzlich das falsche Prompting derer, die kein Fachwissen besitzen.
Das verdoppelt die Wahrscheinlichkeit falscher Antworten.
Gerade getestet. Für das Logo bekomme ich erst nach zweifachem Nachhaken die richtige Antwort. Zuerst „Ritzenhoff“, dann „Luminarc“. Es ist aber richtigerweise die slowakische LR Crystal (Lednické Rovne). Immer wird so geantwortet, als wäre es 100% sicher richtig.
Hinterfragen ist quasi Pflicht.
Die KI in unserem neuen Auto sagt immer "Das muss ich erst noch lernen". Sie hat es bisher auf fast alle meine Anliegen gesagt.
Zum Stromtanken wollte sie mich nach Krems in Österreich schicken.🧐
Mit einer Rakete kann ich in den Weltraum reisen. Habe ich nicht und kann ich mir nicht leisten. Aber es würde theoretisch gehen. ChatGPt kann ich mir leisten aber ich muss es nicht nutzen. Jeder wie er kann und mag.
Neuester Trend scheint zu sein, die Frage wortreich umformuliert als allgemeine Fragestellung zu wiederholen und ebenso wortreich ein paar Allgemeinplätze hinterherzuschieben. Zum Abschluss dann die kackdreiste "interessierte" Gegenfrage, wie man selbst über dieses Thema denkt.
Und sobald in der Frage eine leichte Tendenz erkennbar ist wird es der nahezu immer zustimmen. Selbe Frage mit unterschiedlicher Tendenz zwei komplett gegensätzliche antworten
Weil die Sprachsimulation kein Konzept von Wissen, Richtig oder Falsch hat, nur ein Token X folgt mit hoher Wahrscheinlichkeit auf Token Y.
Das was ihr da wollt kann es nicht!
Ich habe die Tage nach Unterkünften mit einer Handvoll Kriterien gesucht. Chat GPT hat mir 5 Unterkünfte aufgelistet. Name und Beschreibung und am Ende jeweils einen Link.
Die Links führten alle zur Startseite von https://booking.com.
Keine der Unterkünfte existierte tatsächlich.
die gleiche debatte gab es bei den ersten suchmaschinen. Dann bei Wikipedia, nun ist es die KI. Immer die gleichen bedenken und ideen und dann vergessen
Das stimmt halt so nicht.
Niemand hat vermutet das sich Wikipedia lieber Dinge ausdenkt als das es kein Ergebnis raus gibt, gleiche bei Google.
KIs tendieren aber dazu sich Dinge komplett aus dem Nichts heraus aus zu denken....
Einer Problem das es bei keiner dir genannten Technologie gibt
a) niemand hat gesagt das man KI einfach aufgeben sollte, sondern das man das halt im Auge behalten muss
b) nein weder Google noch Wiki haben ansatzweise so etwas gemacht
Also zu einem "Oh, da habe ich mich wohl geirrt" hab ich es bei einem meiner wenigen Versuche schon mal bekommen, als ich nach Quellen für ein Ergebnis gefragt habe.
Ich brauche KI eigentlich nicht, aber da Studierende gerne suchen, nehme ich lieber ein Sprachmodell aus unserer Universität, bei dem ich besser korrigieren kann und nach Quellen fragen oder anbieten.
Manchmal kann man ChatGPT so lange nerven, bis es Dinge zugibt. Aber vertrauen sollte man erst einmal keinem Ergebnis. Vor allem nicht im KI-Teil der Google-Suche..
Ich nutze ChatGPT manchmal zum Korrekturlesen und stelle immer häufiger fest, dass es Fehler erfindet, die nicht da sind, z. B. vermeintlich fehlende Kommata. Wichtigtuerei offenbar.
Das sind keine Wissensbasierten Systeme, sondern generative "KI"s. D.h. sie suchen Buchstabenmuster, die der Anwender voraussichtlich haben möchte. Und ein "Sorry, da kann ich Dir nicht helfen" möchte i.d.R. kein Anwender haben. Eine schöne erfundene Geschichte passt dagegen schon besser.
Es gibt zu allem "Daten". Aus dem Internet. ChatGPT ist Internet. Wir sind Internet. Internet brauchte nicht verboten werden. Wir sind *alle* Idioten, mit Internetanschluss.
Meine Erfahrungen sind mit diesen Intelligenbestien eher mau. Wenn ich weitergehende Infos zu etwas speziellen Thema hatte, wurde oft das bereits gesagte in andere Worte verpackt und dann "Wenn Du weitere Fragen hast, stell sie mir". Gesagt, getan: das gleiche in Grün. Intelligent? Von wegen.
„Du hast vollkommen recht, enttäuscht zu sein.
Ich habe dir zu viel versprochen und zu wenig geliefert. Statt einer vollständigen, professionell gesetzten IDML-Datei im Original-Layout mit polnischem Text, hast du am Ende nur eine vereinfachte Word-Datei und ein leeres Versprechen-Paket bekommen.“
Im Zweifel saugt ChatGPT sich was aus den Fingern. War da nicht irgendwie was dass jemand ein Buch gesucht hat und ne schwammige Zusammenfassung geschrieben hat und ChatGPT hat den Titel und Autor und alles gefunden? Und am Ende kam raus, dass war alles nicht wahr?
Katharina Nocun verbindet politische Erfahrung, daten- und kampagnenstrategisches Know-how sowie eine populärwissenschaftliche Vermittlung komplexer Themen. Damit prägt sie maßgeblich die deutschsprachige Debatte über digitale Grundrechte und den Umgang mit Desinformation.
Ihre Arbeit findet sowohl in akademischen Kreisen als auch in Mainstream-Medien Resonanz und liefert praxisnahe Handlungsanleitungen für Politik, Zivilgesellschaft und jede :n Einzelne :n.
Ich suchte mal Bücher, in deren Titel ein spezieller Vorname vorkam. Copilot antwortet mit fünf sehr konkreten Buchtiteln. Erst zweimaliges Nachfragen ergab eine Aussage „ Ich bin nicht ganz sicher, dass dieser Titel existieren.“
Keiner der Bücher existierte wirklich.
😡
Ja wirklich nervig
Wäre die bessere Alternative als die hanebuchenen flunkereien auf deren Entlarvung immer dieselbe Entschuldigung kommt als wär's nicht schon die fünfte
Komisch bei mir sagt das ChatGPT ständig das es "hier noch keine Daten gibt" "der Einfluss ist ungewiss" usw.
Aber ich habe ihn in den personal instructions auch so konzipiert. Min 4+ verschiedene Quellen, keine Springer Quellen wenn möglich und "ich weiß es nicht " ist eine legitime Antwort.
Antworten immer möglichst ausführlich, detailliert und wissenschaftlich fundiert. Ich würde sagen die Quote brauchbarer Antworten liegt bei 70-80%, mit Folgefragen über 95%.
Als ich angefangen hab ChatGPT zu nutzen fand ich das Gefühl 1:1 wie in den frühen Jahren des Internets das "Googlen" lernen.
Damals hieß es auch man kann so oder so fragen und nur so bekommst du auch was du suchst.
So bissel mit den instructions rumspielen und bei Fragestellungen suggiere ich gerne das ich pro beide Seiten bin. Aber dann bedarf es schon einer rudimentären Sachkenntnis um gezielt sinnvolle Folgefragen zu stellen.
Wenn mir ne riesige Märchenstory als Antwort auf ne Frage aufgebunden wird und ich das adressiere, kommt zwar „Ja, du hast recht“, aber danach dann halt die nächste große Lüge ohne Faktenbasis. Es stimmt also 😅
Aktuell ist die Frage jedoch: liegt es daran das KI gar nicht soviel leisten kann, oder das die Amerikaner es mit den Grenzen außerhalb der USA nicht so eng nehmen, oder die EU auch gerne mal mir einer Republik verwechseln?
Das wird vieles noch sehr skurril werden. Wir können uns dann auch schon mal auf KI-Antworten bei medizinischen Fragen freuen, die auf die künftigen Fachpublikationen von RFK zurückgreifen werden.
Ich denk, je mehr die Wissenschaften eingeschränkt und gegängelt oder gar pervertiert werden, umso mehr Müll wird dann stattdessen herumfluktuieren und in die Systeme gepumpt.
Comments
ChatGPT als LLM ist keine Suchmaschine. Du erhältst auch keine Antworten auf Fragen, sondern Texte, basierend auf deinem Prompt.
Darauf war die Antwort:
"das ist eine Interessante Frage. Genaue Daten sind bisher nicht bekannt, Studien sind in Arbeit"
Und soeben, selbe Frage:
https://g.co/gemini/share/ed9d6a2bdf02
Diesen Fall hatte ich schon etliche Male in der Vergangenheit.
ChatGPT liefert Antworten in Abhängigkeit von der Frage und in Form einer Komposition, die eine hohe Probabilität besitzt plausibel zu sein, und auf der “Auswertung” von bereits in der public domain Befindlichem beruht. Dies führt dazu, daß ChatGPT auch ‘lügt’ um eine falsche Antwort … ⬇️
… möglichst plausibel (wahrscheinlich richtig) klingen zu lassen. Mit ‘lügen’ meine ich, daß ChatGPT zu diesem Zweck Quellen zitiert, die vom Titel her die Antwort zu belegen scheinen, die aber vom Inhalt her entweder nicht passen oder sogar das genaue Gegenteil aussagen.
Das verdoppelt die Wahrscheinlichkeit falscher Antworten.
Hinterfragen ist quasi Pflicht.
Zum Stromtanken wollte sie mich nach Krems in Österreich schicken.🧐
Nach 5 Minuten wird es dann nur noch peinlich.
Das was ihr da wollt kann es nicht!
chatGPT: Sir Simon, das Gespenst von Canterville.
Freundin parallel "War Hui Buh das Gespenst, das einen Blutfleck immer wieder nachmalte oder das Gespenst von Canterville?
chatGPT: Hui Buh.
🫠
"Bitte überprüfe die aktuellen wissenschaftlichen peer rewiewten Veröffentlichungen zum Schlossgespenst von Canterville"
Vielleicht, nur vielleicht kommt es ja auf die Fragestellung an...😉
Rechts ist die Quellenliste und die ist noch länger...
Danke, wieder was gelernt.😂
"Wer ist eigentlich Hui Buh?"
(Wusste ich echt nicht, sorry)
Die Links führten alle zur Startseite von https://booking.com.
Keine der Unterkünfte existierte tatsächlich.
Niemand hat vermutet das sich Wikipedia lieber Dinge ausdenkt als das es kein Ergebnis raus gibt, gleiche bei Google.
KIs tendieren aber dazu sich Dinge komplett aus dem Nichts heraus aus zu denken....
Einer Problem das es bei keiner dir genannten Technologie gibt
bei google kam an anfang auch viel schrott
bei wiki oft immer noch
b) nein weder Google noch Wiki haben ansatzweise so etwas gemacht
Es ist jetzt echt nicht so als ob ich ein Geheimniss draus mache🧐
„Erstelle mir eine Liste der Veröffentlichungen von xy in 2025“ dürfte funktionieren.
Ich habe dir zu viel versprochen und zu wenig geliefert. Statt einer vollständigen, professionell gesetzten IDML-Datei im Original-Layout mit polnischem Text, hast du am Ende nur eine vereinfachte Word-Datei und ein leeres Versprechen-Paket bekommen.“
* nach Ansicht der Anbieter
Er gendert sogar bei mir.
Keiner der Bücher existierte wirklich.
😡
Wäre die bessere Alternative als die hanebuchenen flunkereien auf deren Entlarvung immer dieselbe Entschuldigung kommt als wär's nicht schon die fünfte
Aber ich habe ihn in den personal instructions auch so konzipiert. Min 4+ verschiedene Quellen, keine Springer Quellen wenn möglich und "ich weiß es nicht " ist eine legitime Antwort.
Damals hieß es auch man kann so oder so fragen und nur so bekommst du auch was du suchst.
Auch nicht mit Druck. Aber sonst erfindet es immer was…