#ChatGPT est une catastrophe… Un groupes d'étudiant·es nous a rendu un rapport de projet tuteuré avec cette bibliographie… complètement hallucinée. Y a rien qui va !
Comments
Log in with your Bluesky account to leave a comment
Les IA génératives de texte, en particulier ChatGPT, sont connues pour inventer des réponses, surtout dans les notes de bas de page et dans les biblios.
Ce ne sont pas des moteurs de recherche, mais des générateurs de mots, et si elles ne trouvent pas de mots qui paraissent satisfaisants, elles
Là, je dirais que le problème est plus au niveau du groupe d'étudiantes-étudiants qu'au niveau de ChatGPT qui fait ce pour quoi il est programmé : aligner des mots en fonction de probabilités.
Il faut demander à ChatGPT de corriger le rapport. Après les étudiant.es corrigerons la correction de ChatGPT et vous corrigerez la correction du corrigé. C'est simple.
Rien de neuf. Les GenAI ne génèrent que des séquences probables de tokens. Même avec un apprentissage renforcé comme on le fait maintenant, ça ne changera rien. Ça ne pense pas. Ça ne sera jamais viable. Ça n'est rien d'autre que des perroquets stochastiques.
Ce que les gens comprennent mal avec chatGPT c'est qu'il répondra toujours ce qu'on veut, il ne sait pas dire "j'ai pas d'idée", du coup il invente avec un aplomb assez dingue.
Le rapport effort/résultat est imbattable... Donc plutôt que rien rendre, ou bosser un peu (voire beaucoup) pour avoir 8, ça vaut objectivement le coup de déléguer à chatgpt.
Et on n'attrape que ceux qui ne font même pas l'effort de bien prompter et de relire, donc ceux qui n'auraient rien rendus.
(Et je ne parle même pas des alternances et stages dans les boites qui n'ont pas encore franchit le pas, où nos étudiants sont considérés comme des demi-dieux parce qu'ils codent plus vite que 10 ingés expérimentés.)
Les étudiant·es je vois pourquoi iels font ça, bien que ce soit une immense connerie, mais là vous discutez de son usage qui vous rend fou vous même apparemment. C'est ça qui me questionne.
Oui c’est même très chiant, même quand on lui demande explicitement de préciser si les informations ne sont pas claire, ou qu’il n’a pas de réponse sûre
Comments
Ce ne sont pas des moteurs de recherche, mais des générateurs de mots, et si elles ne trouvent pas de mots qui paraissent satisfaisants, elles
Tu demandes une tâche.
Il te dit ok je fais ça et je te dis quand c'est ok.
Ça n'arrive jamais.
Ils l'ont vraiment programmé pour répondre comme un ado bullshiteur qui te prend ouvertement pour un idiot.
Sinon je pense que c'est pas tellement à l'image d'un ado bullshitter mais à l'image de ses créateurs ce qui est… la même chose.
Et on n'attrape que ceux qui ne font même pas l'effort de bien prompter et de relire, donc ceux qui n'auraient rien rendus.