Interessante Studie: ChatGPT übertrifft Ärzte bereits in der Diagnose. Besonders überraschend für mich: ChatGPT alleine übertrifft auch Ärzte, die ChatGPT verwenden. Ich hätte erwartet, dass Mensch mit Maschinenunterstützung derzeit die beste Variante ist.
https://www.derstandard.at/story/3000000245363/dr-chatgpt-uebertrifft-aerzte-bei-der-diagnose-im-alleingang
https://www.derstandard.at/story/3000000245363/dr-chatgpt-uebertrifft-aerzte-bei-der-diagnose-im-alleingang
Comments
(Untersuchungen dazu sind leider immer noch immer binär & auf cis Geschlechtlichkeit angelegt).
https://www.journalmed.de/news/lesen/chirurgie_einfluss_geschlecht
Der satz wär wichtig gewesen noch in dem Artikel mit zu übersetzen... "This was driven by worse outcomes for female patients treated by male physicians without a corresponding association among male patients treated by female physicians." https://jamanetwork.com/journals/jamasurgery/fullarticle/2786671
Ich denke, es gibt die berechtigte Hoffnung, dass damit auch sehr seltene Krankheitsbilder einer sinnvollen Behandlung zugeführt werden können.
Es macht leider immer wieder den Eindruck, als sei das Teil der Kultur innerhalb der Medizin.
In die Gegenrichtung wird ja häufig von exakt dem gleichen Problem gesprochen :-)
Eine Chance.Statt Menschen durch alle fachärztliche Instanzen zu schleifen, kann treffsicherer, ressourcenschonender untersucht und behandelt werden. 😌
Außerdem: kein Wunder, da Medizin ja weitreichend mit Statistik und Wahrscheinlichkeitslehre verwandt ist (Prof. Theodore Woodward „If you hear hoofbeat, think of horses, not zebras“)
"The chatbot responses were preferred over physician responses and rated significantly higher for both quality and empathy."
Besser gewertet in Empathie finde ich auch sehr spannend.
KEINE Schulmedizin
Danke
Schulmedizin ist die an Universitäten und wissenschaftlichen Hochschulen weltweit gelehrte und allgemein anerkannte Medizin. Sie basiert auf wissenschaftlichen Methoden und folgt dem Prinzip von Ursache und Wirkung.
Mein Eindruck ist, das hier veraltete Informationen genutzt werden und die letzten 30 Jahre Notfallmedizin nicht im Datensatz sind.
Von denselben Neuros.
Das ist der Punkt.
https://hub.jhu.edu/2024/11/11/surgery-robots-trained-with-videos/
Diagnose ist meist ein Prozess und ohne Kontakt zum Patienten eher unseriös
Aber als Hilfsmittel in manchen Fächern kann ich es mir KI vorstellen
Mit dem selben Argument könntest du gegen industriellen Fortschritt sein.
Eigentlich war es schon ein Fehler von den Bäumen runtergekommen zu sein.
https://de.wikipedia.org/wiki/Eric_Horvitz
https://www.microsoft.com/en-us/research/people/horvitz/
Falls die IT-Infrastruktur in deutschen Kliniken für die KI ausreichend ist 😬
Inspiration 🥰
Was nicht heißen soll dass LLMs nicht hilfreich sein können, aber momentan sicher nicht als Ersatz für eine kompetente Anamnese. (2/2)
Grund: Radiologen nutzen die KI-Informationen falsch. Es gibt hierzu noch viel Forschungsbedarf! #KI
Die Übertragungsfunktion Fallbeispiel->Diagnose lässt sich gut aus vorhanden Daten lernen, für Patient-> Diagnose stehen viel weniger Daten zur Verfügung.
Wenn Du im "Science"-Feed auftauchen möchtest, gibt es hier eine Anleitung:
https://bsky.app/profile/danirabaiotti.bsky.social/post/3kl33otd6ob2s
Also können sie auch genauer analysieren was es sein könnte.
Dazu kommt, dass Programme auch sog. Zebras besser erkennen könnten auch wenn es gegen jede Wahrscheinlichkeit ist.
Möglicherweise könnte KI auch Diagnosen abliefern, die Patient*innen verstehen.
Oder schlimmer, die Diagnosen & Behandlungsmethoden gleich umgesetzt werden.
https://bsky.app/profile/obichan.bsky.social/post/3layc5bxpuc2n
Nie Zeit, zugehört wird sowieso nicht und Diagnose nur oberflächlich und bisher mehrfach falsch. Da kann KI nur gewinnen. Wenn die jetzt auch noch Rezepte stellt...
Die Abschnitt im Paper dazu und zu den Limitierungen sind auch spannend. Auch hier kein Wort zum Thema Kontamination. Dafür aber der Hinweis, dass Prompting-Experten den GPT-4 only test-run gemacht haben.
Prinzipiell würd ich bei dieser Art Studie immer eher auf das Paper selbst schauen, anstatt auf die mediale Zusammenfassung. Speziell wenn MS Teil der Studie war :)
https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2825399
Die Aussage "GPT alleine ist besser" trifft nur auf die structured reflection score zu. Also jenen score, der von Trainingsdatenkontamination profitiert. Nicht aber auf die finale Diagnose.
Keine Chance!
Die Fehldiagnosen der KIs vor allem bei seltenen Krankheiten war erschreckend.
Andererseits: z. B. in der Radiologie für die erste Einschätzung von Auffälligkeiten super!
Ich bin sicher, dass die vorgetäuschte Abstraktionsfähigkeit der KI, weil sie eben nachahmt, bald weit besser sein wird, als die vorgetäuschte von den allermeisten Menschen.
Konkurrenz der Wirklichkeiten.
Wer Google bedienen kann, kann ChatGPT bedienen.
Und wer Google bedienen kann, spart sich auch ChatGPT...
Hier gibts einen guten Überblick zum Thema: https://www.promptingguide.ai
ist dann das intelligentere System wirklich intelligenter?
Ich hätte dann doch lieber einen echten Arzt.
Sollten Ärzte am besten selber einsetzen, um zu kontrollieren, ob die Übersetzung wirklich korrekt ist.
Dass -These- das Füttern mit menschlichem Erfahrungswissen und Erkenntnistand der KI beim Lernen gar nicht hilft, sondern learnin from 0 besser ist?
https://de.wikipedia.org/wiki/AlphaGo