Hallucinaties zijn fundamenteel probleem en blijven dat, 3 years down the line. Er is zelfs een (voorzichtig) bewijs dat LLMs dat probleem altijd zullen hebben: https://arxiv.org/abs/2409.05746
AI chatbots unable to accurately summarise news, BBC finds
AI chatbots unable to accurately summarise news, BBC finds
Comments
https://x.com/emollick/status/1886150157772767252?t=7uQ0yb1lVhcp-T5QddHVbg&s=19
Zeker wanneer je er bij vraagt hoe zeker GPT is van zijn antwoord. Dan gaat hij netjes nuanceren waar hij mogelijks hallucineert.
Zie mij hier nu zitten, 10 jaar later.
Wat hebben die piewies gebracht? Meer spam.