12.02.2026
Dr. ChatGPT“ als Arzt-Ersatz
Die ZEIT Verlagsgruppe I ZEIT ONLINE hat ein Thema gefeatured, das sowohl bei uns am ZMI als auch bei ScaDS.AI Dresden/Leipzig technologisch zunehmend an Bedeutung gewinnt: Selbstdiagnose und Therapieentscheidungen mit Hilfe von KI und Large Language Models - LLMs wie ChatGPT.
Unser wissenschaftlicher Mitarbeiter Dr. Markus Wolfien hat der ZEIT ONLINE ein ausgiebiges Interview gegeben und berichtet über das Phänomen der Konsultation von KI-Modellen bei medizinischen Fragen, von der Symptomanalyse bis hin zur vermeintlichen Diagnosestellung. Er adressiert Möglichkeiten & Grenzen der Large Language Models, Do's & Dont's beim Prompten und gibt praxisnahe Hinweise zum Umgang mit KI.
Unser Leiter des Forschungsbereichs Data Science & KI richtet ein Schlaglicht auf reale Fallstricke:
- Overtrust: Modelle vermitteln Sicherheit, auch wenn sie falsch liegen.
- Halluzinationen / Fehlschlüsse des Modells sind für Laien schwer identifizierbar
- „Dr. Google 2.0“-Effekt: Plötzlich wirken falsche Selbstdiagnosen oder dramatische Differentialdiagnosen plausibel
- Datensicherheit: Offenbarung sensibler Dokumente (PDFs, Befunde, Arztbriefe)
Fazit: KI kann unterstützen, ersetzt jedoch selbstredend keine Ärzt:innen. Unreflektierte, unkritische Anwendung kann hierbei Fehldiagnosen und Sicherheitsrisiken für persönliche Daten verursachen.
➡️ Zum vollständigen Artikel: https://lnkd.in/dZJg3Rtq?
➡️ Zu den LinkedIn-Beiträgen:
- https://www.linkedin.com/posts/markus-wolfien_digitalhealth-ki-llm-share-7427315485546790913-jJQA?utm_source=share&utm_medium=member_desktop&rcm=ACoAAC_Q12YBoCc9PILuHR2JqsE_b84P9e-DlxQ
- https://www.linkedin.com/posts/dr-claudia-heine-2b27b11a4_selbstdiagnose-mit-ki-ist-dr-chatgpt-ein-activity-7427392111114858496-_sk7?utm_source=share&utm_medium=member_desktop&rcm=ACoAAC_Q12YBoCc9PILuHR2JqsE_b84P9e-DlxQ