Mä nään tossa jonkin verran kyl haasteita. Ajattelen että LLM on ensisijaisesti hallusinointikone ja että se ei vaan koskaan ole sen takia täysin luotettava. Mitä parempi siitä tulee, sitä hienovaraisempia virheitä koodiin jätetään.

Comments