Digital Companion statt Dr. Google: Warum KI den Arzt nicht ersetzt, sondern rettet
Gastbeitrag von Lucanus Polagnoli, Gründer von Calm/Storm
KI im Gesundheitswesen wird oft als „Allheilmittel“ für Patient:innen oder als Konkurrenz zu Ärzt:innen gesehen. In der Praxis ist sie jedoch beides nicht. Eher das Gegenteil: Patient:innen hilft KI meist nur dann, wenn sie von einer gut informierten Person benutzt wird. Wenn sie genau weiß, wonach sie sucht bzw. ihre Krankengeschichte fachgerecht erläutern kann. Und für Ärzt:innen ist KI keine Konkurrenz, sondern ein Assistenzsystem. Mit KI bekommen sie die Zeit für ihre Arbeit an Patient:innen zurück. Die Zeit, die sie heute mit Admin und Organisation vergeuden. KI kann aber noch mehr: Sie kann Ärzt:innen helfen, sich Rat zu holen oder Risiken zu senken – etwa bei der Prüfung von Wechselwirkungen. In manchen Fällen kann KI die chronische Versorgung überhaupt erst skalierbar machen. All das gelingt allerdings nur, wenn KI richtig trainiert ist und an den richtigen Stellen eingesetzt wird.
Wer heute ein Symptom googelt, sucht selten nur Informationen. Die meisten Menschen suchen Einordnung, Beruhigung, Orientierung: Ist das harmlos oder muss ich handeln? Medizin hat sehr viel mit Kontext zu tun. Ohne Analyse der individuellen, situativen und sozialen Faktoren, die Patient:innen umgeben, kann eine Diagnose kaum richtig gestellt werden. Genau hier beginnt das Problem. Dr. Google kennt keinen Kontext und liefert auch keine Versorgung, sondern lediglich Trefferlisten. Die Ergebnisse sind nicht die richtigen Antworten, sondern die, die SEO-optimiert sind. Die Folgen reichen von unnötiger Panik bis zu gefährlicher Verzögerung.

Lucanus Polagnoli betont: „Die entscheidende Frage ist nicht, ob KI Ärzt:innen ersetzt. Sondern, ob wir es schaffen, KI so zu bauen und so zu regulieren, dass sie Ärzt:innen wieder Zeit für Medizin gibt.“
Auf der anderen Seite der Versorgungskette sieht es nicht besser aus. Fachpersonal im Gesundheitswesen kämpft mit Zeitdruck, Arbeitskräftemangel, Dokumentationspflichten und einer wachsenden Zahl komplexer Fälle. Einfache Problemstellungen brauchen Fachärzt:innen nicht zu googeln und über komplexe Fälle können sie sich kaum austauschen, geschweige denn können sie sie „googeln“. Dass in diesem Umfeld Fehler häufiger werden, überrascht niemanden. In einer Erhebung berichten 34 Prozent der Ärzt:innen von mehr medizinischen Fehlern infolge von Personalmangel.
In diese Gemengelage platzt die große Erzählung: „KI ersetzt Ärzt:innen.“ Doch das ist die falsche Debatte. Nicht, weil KI wirkungslos wäre. Sondern weil sie das eigentliche Problem verfehlt. Das Gesundheitssystem scheitert nicht an fehlender Intelligenz, sondern an steigender Nachfrage, die auf fehlende Kapazität trifft. Und genau dort liegt der Hebel.
Warum die „Ersatz“-Frage am Kern vorbeigeht
Die medizinische Versorgung besteht aus zwei sehr unterschiedlichen Arten von Arbeit: hochkomplexen Entscheidungen unter Unsicherheit und einer riesigen Menge repetitiver, regelbasierter Aufgaben. Manche davon sind trotzdem extrem wichtig, andere sind einfach nur dem (Admin-)System geschuldet. Wer KI als Ersatz im Gesundheitswesen diskutiert, vermischt zwei verschiedene Handlungsfelder.
Das Ergebnis ist entweder technischer Größenwahn („KI diagnostiziert bald alles“) oder reflexhafte Abwehr („Das darf nie passieren“). In der Realität ist die produktivste Rolle von KI allerdings schon heute viel klarer: Sie übernimmt die niederwertigen, aber zeitintensiven Tätigkeiten, die qualifizierte Fachkräfte aktuell davon abhalten, sich intensiv mit Patient:innen auseinandersetzen zu können. Denn Studien zeigen, dass die meisten Ärzt:innen 50-70 Prozent ihrer Arbeitszeit in andere Bereiche investieren (müssen). KI-getriebene Tools eignen sich besonders für „low-value tasks“, etwa virtuelle Assistenten für Ersteinschätzung („eTriaging“), Ressourcensteuerung oder das Zusammenführen von Dokumentationen für regulatorische Reports und Audits. Das ist nicht „Arzt spielen“. Vielmehr führt es dazu, dass medizinisches Fachpersonal wieder medizinisches Fachpersonal sein darf.
Drei Einsatzfelder, in denen KI heute wirklich hilft
1) Triage: Orientierung schaffen, bevor das System überläuft
Triage klingt nach Notaufnahme, ist aber in der Realität eigentlich ein Alltagsproblem: Welche Beschwerden gehören in die Praxis, welche in die Notaufnahme, welche kann man noch eine Weile in Ruhe beobachten? Je schlechter diese Sortierung, desto schneller kollabieren die ohnehin schon knappen Kapazitäten.
KI kann hier als digitaler Companion wirken. Und zwar nicht als Diagnostiker, sondern als strukturierter Gesprächspartner: Symptome erfassen, Warnzeichen abfragen, Anamnese vorstrukturieren, Dringlichkeit einordnen, passende Versorgungspfade vorschlagen. Mit der Betonung auf vorschlagen, nicht entscheiden! Entscheidend ist die Einbettung in den Kontext: Triage-Systeme müssen transparent machen, warum sie etwas empfehlen, und sie müssen eskalieren können, wenn es notwendig wird. Das Fachpersonal muss dies dann in den Kontext des Patienten einordnen.
Der Unterschied zu Dr. Google ist fundamental: Ein Companion arbeitet – wie das Wort sagt – in Zusammenarbeit und bringt keine Suchergebnisse, sondern eine Beurteilung im Kontext. Und er funktioniert nicht für Klicks, sondern für eine sichere Vorbereitung der Versorgung durch fachlich versiertes Personal.
2) Administration und Dokumentation: Der altbekannte, wachsende Zeitfresser
Wenn man Fachleute im Gesundheitswesen fragt, wo Zeit verloren geht, landet man schnell beim Thema Admin. Dass von der simplen Eingabe von Daten bis hin zur medizinischen Dokumentation weitgehend alles in den Händen von Ärzt:innen liegt und dort rund 44 Prozent der Arbeitszeit beanspruchen kann, ist ein systemischer Wahnsinn, der nicht nur teuer ist, sondern auch schnell riskant werden kann.
Hier ist KI kein Nice-to-have, sondern künftig notwendige Infrastruktur. Ein Beispiel aus dem Calm/Storm-Portfolio ist Kiroku: ein System, das medizinische Notizen per Spracheingabe strukturiert und automatisiert. Aus einem unstrukturierten Gespräch wird in Echtzeit eine verwertbare, nachvollziehbare Dokumentation inklusive Templates und standardisierter Inhalte.
Das hat drei Effekte, die oft übersehen werden: Erstens gewinnen Ärzt:innen Zeit, die sie näher an ihren Patient:innen nutzen können. Zweitens steigen Lesbarkeit und Standardisierung, was Übergaben sicherer macht. Drittens wird Qualität messbarer, weil Dokumentation nicht mehr nur eine Pflichtaufgabe bleibt, sondern die Datengrundlage für eine ganzheitliche Versorgung schafft.
3) Entscheidungsunterstützung: Fehler reduzieren, ohne Autonomie zu nehmen
Entscheidungsunterstützung ist das heikelste Einsatzfeld für KI im Gesundheitswesen. Und gleichzeitig ist es eines der Bereiche mit realem Nutzen, wenn man das Thema richtig angeht.
Dabei geht es nicht darum, dass ein Modell tatsächlich Entscheidungen trifft. Sondern dass es auf Basis von Leitlinien, Patientendaten und Mustern Hinweise gibt: Passt die Medikation? Gibt es Wechselwirkungen zwischen den Arzneimitteln? Fehlt ein Laborwert? Wurde ein Warnsignal übersehen? Gerade bei Medikationsprozessen ist das relevant: Rund 50 Prozent der medikationsbezogenen Probleme im Gesundheitswesen werden auf solche Fehler zurückgeführt.
Ein guter Assistent macht Vorschläge, markiert Unsicherheiten und dokumentiert seine Begründung. Die Verantwortung bleibt beim Behandlungsteam, welches durch die Unterstützung der KI entlastet wird und so automatisch weniger Fehler aufgrund von Stress und Zeitdruck macht.
Consumer Companions vs. Professional Tools
In der öffentlichen Debatte verschwimmt oft, ob wir über KI-Tools für Patient:innen oder für Fachkräfte sprechen. Doch diese Unterscheidung ist zentral.
Die bereits oben erwähnten Consumer Companions sind niedrigschwellig, 24/7 verfügbar und können Menschen früh abholen. Ihr Wert liegt in den Bereichen Orientierung, Prävention, Adhärenz und Navigation. Ihr Risiko liegt in falscher Sicherheit, Überdiagnostik und Datenschutz – vor allem, wenn sie sich als „medizinische Autorität“ inszenieren.
Professional Tools sitzen dort, wo Verantwortung ohnehin verankert ist: in Praxen, Kliniken, Pflege und Abrechnung. Hier ist der größte Hebel die Entlastung und damit die Fähigkeit, mehr Patient:innen sicher zu versorgen. Ein Beispiel dafür ist Nelly, ein Workflow-, Signatur- und Payment-System für medizinische Praxen, das Patient:innen-Onboarding und Zahlungsprozesse strukturiert. Das ist keine „medizinische KI“ im engeren Sinn, löst aber einen realen Engpass: administrative Herausforderungen, die die Versorgung unnötig teuer machen.
Beide KI-Typen sind sinnvoll, aber sie brauchen unterschiedliche Regeln, Qualitätsmaßstäbe und Kommunikationslogiken. Consumer-Systeme müssen besonders klar kommunizieren, wo ihre Grenzen liegen.
Der größte Hebel liegt bei chronischen Erkrankungen
Wenn wir über Entlastung sprechen, müssen wir über chronische Erkrankungen sprechen: Sie sind das Zentrum der Kostenkurve im Gesundheitswesen. Die Europäische Kommission beziffert, dass 70-80 Prozent der Gesundheitskosten in der EU – rund 700 Mrd. € – für chronische Erkrankungen anfallen. Gleichzeitig gehen 85 Prozent der Todesfälle in der EU (ca. 4 Mio. pro Jahr) auf chronische Erkrankungen zurück.
Das ist die unbequeme Wahrheit: Das Gesundheitssystem ist historisch auf Akutmedizin getrimmt, aber unsere Realität ist geprägt von Multimorbidität, Langzeitverläufen, Adhärenzproblemen und Versorgung über Jahre. Gleichzeitig wächst der gesundheitspolitische Konsens, dass stärker in Prävention und frühe Intervention investiert werden muss – weil viele chronische Erkrankungen vermeidbar oder zumindest deutlich verzögerbar wären und Investitionen in Prävention langfristig Kosten im System reduzieren. Hier sind digitale Companions keine netten Add-ons, sondern das fehlende Fundament: Sie ermöglichen nicht nur bessere Versorgung im Krankheitsverlauf, sondern auch frühere Intervention und kontinuierliche Prävention entlang der gesamten Patient Journey.
Remote Monitoring und „Virtual Wards“ ermöglichen beispielsweise medizinische Betreuung außerhalb von Einrichtungen – etwa durch kontinuierliche Messung von Glukose, Blutdruck oder Sauerstoffsättigung und eine gemeinsame Steuerung mit dem Behandlungsteam. Digital Therapeutics (DTx) können bereits heute dabei helfen, Therapiepläne einzuhalten und Verhaltensänderungen zu unterstützen – ein Punkt, der gerade bei Chronik entscheidend ist, weil Adhärenz oft der Unterschied zwischen Stabilität und Eskalation ist.
Ein konkretes Beispiel: Suvera entwickelt eine proaktive virtuelle Klinik für Patient:innen mit mehreren chronischen Erkrankungen und unterstützt Ärzt:innen bei strukturierten Neubewertungen sowie in der laufenden Nachbetreuung. Die Lösung ist in bestehende Arzt-Systeme integriert und unterstützt das Langzeit-Krankheitsmanagement durch Fernüberwachung und klar definierte Arbeitsabläufe. Besonders bei Diabetes, Hypertonie oder COPD kann eine solche Lösung einen echten Mehrwert bieten. Ziel ist es, Verschlechterungen frühzeitig zu erkennen und Versorgung nicht erst bei akuter Eskalation zu steuern, sondern kontinuierlich zu begleiten.
Ethische und regulatorische Grenzen: Ohne Leitplanken wird KI gefährlich
Dass KI helfen kann, heißt nicht, dass jedes KI-System helfen wird. Gerade im Gesundheitswesen entscheidet Vertrauen. Und das entsteht insbesondere durch nachvollziehbare Regeln.
1) Verantwortung darf nicht verdampfen.
Ein Companion kann unterstützen, aber nicht „schuldlos entscheiden“. Es muss klar sein, wer am Ende verantwortlich ist und wie die Eskalation zum Menschen konkret aussieht.
2) Transparenz schlägt Magie.
Je höher das Risiko, desto stärker muss ein System erklären können, auf welcher Basis es Empfehlungen gibt, welche Unsicherheiten bestehen und welche Daten genutzt wurden. Ein Tool, das „selbstbewusst falsch“ ist, ist gefährlicher als eines, das Grenzen klar markiert.
3) Datenschutz ist kein Feature, sondern Voraussetzung.
Gesundheitsdaten gehören zu den sensibelsten Informationen überhaupt. Wer sie nutzt, braucht minimierte Datenerhebung, saubere Rechtsgrundlagen, echte Sicherheitsarchitektur und eine transparente, offene Kommunikation.
Wenn wir diese Leitplanken ernst nehmen, dann wird aus KI im Gesundheitswesen kein Blackbox-Risiko, sondern ein echter Qualitätshebel.
Was das für Ärzt:innen, Kassen und Unternehmen bedeutet
Die praktische Konsequenz ist unbequem, aber klar: Wir sollten KI nicht dort zuerst einsetzen, wo sie am spektakulärsten wirkt. Sondern dort, wo sie Kapazität freisetzt und Fehler reduziert.
- Für Leistungserbringer heißt das: Priorität auf Dokumentation, Workflow, Triage, Follow-up – also die „unsichtbaren“ Prozesse, die im Alltag Zeit fressen.
- Für Kostenträger heißt das: Chronische Versorgung als Plattform denken, nicht als Abfolge von Einzelmaßnahmen – inklusive Fernüberwachung und Adhärenzunterstützung, wo sinnvoll.
- Für Unternehmen (insbesondere Arbeitgeber und Versicherer) heißt das: Companions sind kein Wellness-Gadget, sondern ein Instrument, um Versorgungslücken pragmatisch zu schließen, wenn man Outcome-Logik und Governance sauber definiert.
Und ja: Dazu gehört auch, die öffentliche Erzählung zu drehen. „KI ersetzt Ärzt:innen“ ist eine Schlagzeile. „KI rettet Ärzt:innen“ kommt der Realität näher, weil Technik die Arbeit des Fachpersonals wieder machbar macht.
Fazit: KI für den Menschen
Die KI-Lösungen, die aktuell im europäischen HealthTech-Ökosystem entstehen, sind kein Angriff auf die Medizin. Sie bieten die Chance auf eine neue Arbeitsteilung: Maschinen übernehmen strukturierbare Routinen, Menschen kümmern sich um Beziehung, Urteilskraft und Verantwortung.
KI ist kein technischer Selbstzweck, sondern eine Antwort auf eine nüchterne Rechnung: chronische Erkrankungen treiben Kosten und Belastung, Personal ist knapp, Bürokratie ist real. Und ohne Assistenzsysteme wird die Versorgung nicht skalieren können.
Die entscheidende Frage ist daher nicht, ob KI Ärzt:innen ersetzt. Sondern, ob wir es schaffen, KI so zu bauen und so zu regulieren, dass sie Ärzt:innen wieder Zeit für Medizin gibt.
Weitere Infos unter: https://www.calmstorm.vc/
Lizenzhinweis Text:
Dieser Beitrag steht unter der Lizenz Creative Commons CC BY-ND 4.0
https://creativecommons.org/licenses/by-nd/4.0/
Autor: Lucanus Polagnoli
Bildrechte: Lucanus Polagnoli













