Nein, das Apple Paper hat nicht herausgefunden, dass Large Reasoning Models nicht denken, die haben sich den Text in der „Thinking“-Box angeguckt und, oh wunder, festgestellt, dass das nicht immer korrekt ist.
Comments
Log in with your Bluesky account to leave a comment
Naja, „nicht immer korrekt“ ist schon eine Untertreibung. Das in dem Papier sind nicht alles komplett neue Erkenntnisse, aber LRMs sind ab einer gewissen Komplexität der Aufgabenstellung einfach komplett unbrauchbar und liefern einfach gar keine Lösung.
Comments