Ich habe mir gerade wissenschaftliche Fachartikel von chatGPT zusammenfassen lassen, und das funktioniert so schockierend gut, dass ich mich frage, wie lange es sich noch lohnt, Originalarbeiten zu lesen. Man kann sogar gezielt fragen, wo im Artikel eine bestimmte Information steht und nachprüfen.
Comments
Inhaltlich kann ich mir auch vorstellen, dass Probleme wie mit Diensten wie blinkist gibt: woher will ich wissen ob die Zusammenfassung wirklich passt ohnr den Inhalt zu kennen.
Am Ende ist die Frage nicht, ob die KI Fehler macht – daran müssen wir uns einfach gewöhnen. Die bessere Frage ist, ob sie mehr oder weniger Fehler macht, als es ein Mensch tun würde.
Wollte zB bei der Euro eine kurze Zusammenfassung des Spiels AUT vs FRA. Hartnäckig hat ChatGPT behauptet das Alaba das Eigentor geschossen hat.
Einfach per drag n drop Dokumente reinwerfen und danach befragen. Dann bleibt es -scheinbar- auf den eigenen Computer...
Welche wissenschaftlichen Journale wären vertrauenswürdig, wenn sie das Lesen der Originalartikel auch weitestgehend chatGPT o.ä. überlassen?
Ich sehe ein großes Problem darin, wenn der KI eine Fähigkeit zugeschrieben wird, die sie nicht besitzt.
N und M sind in d Aussprache sehr ähnlich. Viele Menschen sagen Hamf statt Hanf. AI hat nach mf und nf gesucht. Bessere Frage wäre: Suche nach Worten, d mit den Buchstaben N wie Nase und F am Ende geschrieben werden.
https://hackernoon.com/why-cant-ai-count-the-number-of-rs-in-the-word-strawberry
Brauche ich Unterstützung bei meiner Arbeit, können die Tools echt hilfreich sein. Solange ich nicht zu sehr verantwortlich für den Inhalt bin. Meinen Job würde ich auf die noch nicht verwetten.
Immer mehr Entwickler nutzen das um sich ihren Code generieren
Es ist das selbe Problem des
GenAI-LLMs sind kein verlässliches Recherchetool.
Ohne Fakten-Check, teils extreme Fehler, erfundene Quellen, #falsche Details, schlimm wirds wenn man 'nachfragt'
Am ehesten als Ergänzung zur Google Suche, mit höchster Vorsicht - horcht sich alles so gut an...
https://kleinkraft.co.at/warum-eine-energiegemeinschaft-grueünden/
Oder war das anders gemeint?
https://chatgpt.com/g/g-67433de30b8081918ba6b5b93683dc93-statuten-checker-fur-osterreichische-vereine
Sondern es wird ein bestimmter Text vorgegeben, auf dem sich das Sprachmodell dann austobt. Da wird nicht viel erfunden.
Einige Modelle, incl. Trainingsdaten und -parameter sind ja schon unter freien Lizenzen verfügbar. Die bleiben auch verfügbar.
Textzusammenfassungen können die gut. Das bleibt auch so.
Was nicht viel besser werden wird ist das Herbeifantasieren von Antworten auf Fragen. ➡️
Als Werkzeug bleiben die, die gehen nicht wieder weg.
Und was sie leider auch gut können: überzeugende Texte schreiben.
Lügen produzieren wird soooo viel einfacher.
Weil ich habe mal versucht es für eine Literaturrecherche zu verwenden, und da wurden lauter Bücher/Artikel herbeiphantasiert, die es garnicht gibt.
https://www.elektronikpraxis.de/vertrauenswuerdige-ki-die-nicht-luegt-ist-noch-viele-jahre-weit-weg-a-b670f68c5825370e38d01ba746ccf76e/
https://futurezone.at/produkte/chatgpt-pro-openai-ki-modell-o1-luege-abschaltung-entwickler-testphase-bericht/402986079
Wobei es immer noch reine Zeichenstatistik ist. Verstanden wird da nichts.
Für echte Intelligenz fehlt da mMn nach noch eine fundamentale Neuausrichtung. Das skaliert nicht, weil nicht wirklich intelligent und ineffizient.
Nur bei und ist das komischerweise undenkbar. Trotz vorhandenem Know How.
Es kommt immer auf die Anwendung und die "Trainingsdaten" an.
Mein Tipp: immer nach den Referenzen fragen und bei Zweifel nachfragen, bzw das tool korrigieren. Ruhig auch kräftig die Unzufriedenheit ausdrücken. Irgendwie wird das ja hoffentlich registriert.
Erstaunlich und beunruhigend zugleich. Studis können sich sogar einen Study Guide und Quiz erstellen lassen.
Aber das sind ja auch quasi die ersten Gehversuche.
Ich hoffe nur, die schaffen dass auch mit geringerem Stromverbrauch.
Werde das testen!
(Ich muss antworten damit ich mir den Link wo abspeiche, wo ich ihn wiederfinde!)
Wobei, kein Wunder, funktioniert ja wie ein menschliches Gehirn, ist aber hundertmal größer. 🤷
Ja, das ist nur ein Forscher (der immerhin den Nobelpreis bekommen hat). Ja, das ist aus 2016 - ich kann mich allerdins an keinen wissenschaftlichen Durchbruch seitdem erinnern. Vielleicht habe ich den aber auch nur nicht mitbekommen. Ich freue mich über Quellen.
zusammenfassungen sind ja nützlich um die ganze fachinformation besser verständlich rüber zu bringen
und die originalarbeiten sind ja trotzdem noch wichtig wegen der nachvollziehbarkeit und den daten
🤔
Wenn ich ChatGPT auf eine Unwahrheit aufmerksam mache, bekomme ich eine Entschuldigung und meist eine Richtigstellung.
Wenn ich Zeitgenossen auf eine Unwahrheit aufmerksam mache... naja😜😎
Man muss doch in Grundzügen verstehen, dass AI nur Ergebnisse liefern kann, die wir Menschen selber als Information irgendwann eingegeben haben.
ChatGPT redet von "wir Menschen"😂
Und hat damit vielleicht gar nicht so unrecht...
Man darf das tool in einem professionellen Kontext nicht ohne Re-check nutzen. Also auf Referenzen bestehen u dann zumindest Stichproben lesen.
Ein anderer usecase ist summaries von eigenen reports: das geht gut und rasch, aber auch da gibts Fehler wenn Sätze zu verschachtelt sind.
Gerade hatte ich mich mit ChatCPT „ausgetauscht“ über Citizen Kane, weil ich den Hype nicht so ganz verstehe. Darüber hinaus entstand eine „Kommunikation“, die man tiefer nicht mit Freunden führen kann. Ich bin völlig verwirrt.
Warum fragst du? 🙂
Ich beobachte das seit einem Jahr. Inzwischen habe ich nach 5 Minuten mehr und bessere Quellen, als über die Suche (FH-Bibliothek) nach Stunden.
Ausserdem:
"KI verbraucht so viel Energie!" - Ein in derselben Geschwindigkeit wie ein Mensch arbeitendes LLM braucht ca 100W. So viel wie ein Mensch.
"KI ist teuer zu trainieren!" - Ein Mensch bis zum Uni-Abschluss braucht ~200k€, KI ist 100 mal intelligenter.
https://www.elektronikpraxis.de/vertrauenswuerdige-ki-die-nicht-luegt-ist-noch-viele-jahre-weit-weg-a-b670f68c5825370e38d01ba746ccf76e/
Und die Prompts machen es wohl, also ggf durch Befehl ausschließen dass die KI ihre Antworten noch von woanders her zieht. So als erste Idee, ohne Experte zu sein.
Gut, vermutlich sollte uns das jetzt feuen, oder?