Estão criando LLMs para receitar dosagem de remédios, mas elas não sabem ler notação científica. Com isso, o que era pra ser uma dose pequena acaba sendo recomendado numa dose de leão.
Reposted from Carl T. Bergstrom
This may seem to be harmless silliness, but as Joe points out, people are developing LLMs for things like drug dosing, and the goddamn things can’t even read scientific notation.

Training data: “An otherwise healthy adult should take 10^-3 g of drug X”

LLM: Take 7g of drug X.”

Comments