Er vi fremdeles på stadiet hvor folk oppdager at språkmodeller bare genererer svar, uten forutsetninger for å vurdere om svarene er riktige? For sånn er det altså, og det prøvde jeg å fortelle dere for to år siden
Reposted from
Andreas Halse
Så jeg spurte ChatGPT om eksempler på boligprosjekter med bildeling.
Fikk klart svar om Hovseterhagen som samarbeider med Miint, og Snøhvit Borettslag med Bilkollektivet.
Men Hovseterhagen fins ikke, og adm.dir i Bilkollektivet hadde aldri hørt om Snøhvit.
Fascinerende skråsikkert, men helt feil.
Fikk klart svar om Hovseterhagen som samarbeider med Miint, og Snøhvit Borettslag med Bilkollektivet.
Men Hovseterhagen fins ikke, og adm.dir i Bilkollektivet hadde aldri hørt om Snøhvit.
Fascinerende skråsikkert, men helt feil.
Comments
Folk er fremdeles der at de sluker alt de leser på internett for god fisk.
Folk er håpløst naive når det kommer til teknologi.