Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

Wissenschaftler treiben KI den Hochmut aus

Forscher des Massachusetts Institute of Technology (MIT) bringen Künstlicher Intelligenz (KI) Zurückhaltung und Bodenhaftung bei. Dies vor allem bei Ärzten und Finanzfragen.   
© Gemini

Diese soll sich selbst nicht als allwissend empfinden - insbesondere, wenn die KI zur Unterstützung bei der Diagnose von Krankheiten oder bei Fragen zur Finanzveranlagung zum Einsatz kommt. Wenn sie sich bei einer Entscheidung nicht sicher ist, soll sie das offen zugeben und den Nutzer zum Einholen weiterer Informationen auffordern.

KI als Co-Pilot «degradiert»

«Wir nutzen KI derzeit als Orakel, aber wir können KI auch als Coach einsetzen», sagt MIT-Forscher Leo Anthony Celi, der auch als Arzt am Beth Israel Deaconess Medical Center tätig ist und als ausserordentlicher Professor an der Harvard Medical School lehrt. «Wir wollen KI lieber als Co-Piloten nutzen. Das würde nicht nur unsere Fähigkeit verbessern, Informationen abzurufen, sondern auch unsere Handlungsfähigkeit stärken, um Zusammenhänge herzustellen.»

Celi und seine Kollegen haben ein Rahmenwerk entwickelt, das KI-Entwicklern als Leitfaden dienen soll, um Systeme zu entwerfen, die zur Selbstkritik fähig sind. Das könnte es Ärzten und KI-Systemen ermöglichen, als Partner zusammenzuarbeiten und dazu beitragen, dass KI keinen gefährlich grossen Einfluss auf die Entscheidungen von Ärzten nimmt.

Ärzte nicht überstimmen

Die Vision der Wissenschaftler: Stellt das System fest, dass die Beweise, die für eine Entscheidung herangezogen werden, nicht ausreichen, kennzeichnet es seine Unsicherheit und empfiehlt zusätzliche Tests oder die Konsultation eines Spezialisten. Das Ziel ist daher eine KI, die nicht nur Antworten liefert, sondern auch signalisiert, wann diese womöglich mit Vorsicht zu geniessen sind.

Übermässig selbstbewusste KI-Systeme können laut dem MIT-Team zu Fehlern vor allem im medizinischen Umfeld führen. Frühere Studien haben gezeigt, dass sich beispielsweise Ärzte auf der Intensivstation auf KI-Systeme verlassen, die sie als zuverlässig empfinden - selbst wenn ihre eigene Intuition dem Vorschlag der KI widerspricht. Sowohl Ärzte als auch Patienten neigen dazu, falsche KI-Empfehlungen zu akzeptieren, selbst wenn diese als merkwürdig wahrgenommen werden, heisst es. (pressetext.com)

Forschung Wissenschaft
Anzeige

Neueste Beiträge

Heimisches Biomethan kann die Schweiz unabhängiger machen
Durch die intelligente Nutzung von Biomasse könnte die Schweiz einen substanziellen Anteil des eigenen Gasbedarfs selbst decken. Das geht aus einer Studie unter Leitung des Paul Scherrer Instituts PSI hervor. 
5 Minuten
17. Apr 2026
Giacun Coray wird Market Unit Lead Cross Market bei isolutions
Giacun Coray startet per 1. Mai 2026 als Market Unit Lead Cross Market und Teil des Management Boards.
2 Minuten
17. Apr 2026
Gemini für Mac
Google führt die Gemini App jetzt auch für Mac ein.
2 Minuten
16. Apr 2026

Das könnte Sie auch interessieren

«Swiss IT-Studie» - KI im Business - Computerworld Ausgabe 1/2026
Am Thema KI kommt niemand mehr vorbei. Das sehen auch die befragten Schweizer Unternehmen. Wo und wie man diese einsetzen könnte und welchen Nutzen damit verbunden ist, da scheiden sich die Geister. Die Schweiz im KI-Dilemma?
2 Minuten
Roboter verstehen natürliche Sprache - Research & Studies
Ein zentrales Hindernis in der Robotik war bislang die fehlende Fähigkeit, natürliche Sprache direkt zu verarbeiten. Forschern von Huawei, der TU Darmstadt und der ETH Zürich haben ein Verfahren entwickelt, Text direkt in Robotik-Befehle zu übersetzen.
2 Minuten
Achtung, Manipulation: So missbrauchen Cyberkriminelle die KI
Künstliche Intelligenz ist längst nicht mehr nur ein Mittel zur Automatisierung und Effizienzsteigerung. Dieselben Modelle und Techniken, die Unternehmen für sich nutzen, werden zunehmend von Kriminellen missbraucht.
4 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige