Dette er den eine tingen om språkmodellar det er vanskelegast å få folk til å gå med på: Hallusinasjon er ein ibuande del av teknologien, og du kjem aldri til å kunne justere eller skalere det vekk.
Again, @ft.com reporters or whoever else needs to hear this:
"Hallucinations" are not the result of "flaws," they are literally inherent in & inextricable from what LLM systems do & are.
Whether an "AI" tells you something that matches reality or something that doesn't, *it is working as designed*
"Hallucinations" are not the result of "flaws," they are literally inherent in & inextricable from what LLM systems do & are.
Whether an "AI" tells you something that matches reality or something that doesn't, *it is working as designed*
Comments
Den kan ikke resonnere, kan ikke skille rett fra galt, men den er skikkelig god på å bløffe med selvtillit.
Det tar ikke bort nytten fra å snakke med dem, og å diskutere problemstillinger med dem.
Det krever imidlertid at man er skeptisk til alle påstander, tenker gjennom hva de sier, og sjekker kilder.