Schade, es sind so schöne Beispiele, bei denen man zeigen kann, dass man der KI nicht blind vertrauen kann.
Vor einem Jahr hat Chat GPT einen Vogelstrauß fliegen lassen.
Das ist auch meine Erfahrung, wenn ich mit SuS über KI spreche bzw. eine Einführung mache. Die nutzen ChatGPT meist völlig unreflektiert - auch in der Oberstufe.
Vielen Dank fürs Teilen, schönes Beispiel für die Unfähigkeit von LLM zu zählen. Vermutlich wird ChatGPT diesen Fehler aber bald nicht mehr machen, wenn wir alle das eingeben.
Seltsamerweise hat ChatGPT genau mit solchen Anfragen große Probleme. Es ist auch nicht in der Lage, korrekte Anagramme zu bilden oder Wörter zu nennen, die nur bestimmte Buchstaben oder bestimmte Buchstaben nicht enthalten sollen.
Comments
Vor einem Jahr hat Chat GPT einen Vogelstrauß fliegen lassen.
https://tino-eberl.de/ki-news/chatgpt-und-buchstaben-zaehlen-warum-das-nicht-funktioniert-und-welche-alternativen-es-gibt/