Dette er den eine tingen om språkmodellar det er vanskelegast å få folk til å gå med på: Hallusinasjon er ein ibuande del av teknologien, og du kjem aldri til å kunne justere eller skalere det vekk.
Again, @ft.com reporters or whoever else needs to hear this:

"Hallucinations" are not the result of "flaws," they are literally inherent in & inextricable from what LLM systems do & are.

Whether an "AI" tells you something that matches reality or something that doesn't, *it is working as designed*

Comments