Anzeige
Anzeige
Anzeige
Lesedauer 7 Min.

Offene Türen in die KI-Welt

Zwischen den KI-Hotspots USA und China liegt ein kleines Land, welches mit «Apertus» weltweit eine Spitzenposition einnimmt. Warum die Schweiz dank der ETH und der EPFL international mithalten kann, erklärt Dr. Imanol Schlág im Interview.

«Wir legen alle Daten und Entscheidungen offen. Im Gegen­satz zu US- oder chinesischen Anbietern.»

© Computerworld

Einmal mehr lässt die Schweiz die intellektuellen Muskeln spielen. Entwickelt von Wissenschaftlern der ETH und der EPFL, ist «Apertus» ein Open-Source-Modell für Künstliche Intelligenz, welches weltweit zu den besten seiner Art gehört. Wir haben mit Dr. Imanol Schlág über die Hintergründe gesprochen.

Computerworld: KI-Modelle haben sich in den letzten 10 Jahren stark verändert. Wo liegt heute der Benchmark für ein Modell, das «State of the Art» ist?

Imanol Schlág: Vor zehn Jahren ging es primär um Bildklassifikation und einfache Sprachverarbeitung. Heute definiert sich «State of the Art» über fortgeschrittenes Reasoning, also mehrstufiges, logisches Schlussfolgern, native Multimodalität agentische Werkzeugnutzung, starke Code-Generierung und Kontextfenster von bis zu einer Million Tokens. Klassische Benchmarks wie MMLU sind dabei weitgehend gesättigt, weshalb die Forschung auf schwierigere Evaluationen wie GPQA Diamond (Wissenschaft auf Doktoratsniveau) oder SWE-bench (reales Software-Engineering) umgestiegen ist.

CW: Ist Apertus die Schweizer Antwort auf diese Entwicklung? Welche Eigenschaften zeichnen Ihr Modell aus?

Schlág: Apertus ist weniger eine direkte Antwort auf das Frontier-Rennen als vielmehr eine bewusste Grundlage für die eigenständige, transparente KI-Entwicklung in der Schweiz und darüber hinaus. Das Modell zeichnet sich durch vollständige Offenheit aus: Gewichte, Trainingsdaten, Code und Rezepte unter Apache-2.0-Lizenz, Training auf über 1000 Sprachen und – das ist uns besonders wichtig – die konsequente Einhaltung des EU AI Act. Apertus ist kein fertiges Produkt wie ChatGPT, sondern ein Fundament, auf dem Forschung, Verwaltung und Industrie eigene Anwendungen aufbauen können.

CW: Die KI-Heatmap hat zwei Hotspots: USA und China. Ist die Schweiz als neutrales Land prädestiniert, ein objektives, unvoreingenommenes KI-Modell zu entwickeln?

Schlág: Kein Sprachmodell ist vollständig unvoreingenommen, denn jedes Modell reflektiert die Daten, auf denen es trainiert wurde. Was die Schweiz auszeichnet, ist die Kombination aus politischer Unabhängigkeit, erstklassiger Forschungsinfrastruktur und einer starken Tradition öffentlicher Institutionen. Wir orientieren uns an der Swiss AI Charter, legen sämtliche Trainingsdaten und -entscheidungen offen und ermöglichen so eine gesellschaftliche Überprüfbarkeit, die bei US- oder chinesischen Anbietern nicht gegeben ist.

CW: Ergänzend dazu: Was war der Impuls, Apertus zu entwickeln?

Schlág: Die leistungsfähigsten Modelle sind heute entweder geschlossen oder nur teilweise offen und werden von grossen Technologiekonzernen in den USA und China entwickelt, deren langfristige Absichten und Übereinstimmung mit dem öffentlichen Interesse unklar bleiben. Gleichzeitig verfügt die Schweiz mit dem Alps-Supercomputer und unseren technischen Universitäten über die nötige Infrastruktur und Expertise. Der Impuls war, diese Ressourcen zu bündeln, um ein Modell zu schaffen, das schweizerischen und europäischen Werten entspricht, unsere Landessprachen einschliesst und als transparente Grundlage für Forschung und Wirtschaft frei verfügbar ist.

«Wir verwenden ausschliesslich öffentlich zugängliche Daten, respektieren maschinenlesbare Opt-out-Mechanismen wie robots.txt und schliessen raubkopierte oder illegale Inhalte konsequent aus.»

Imanol Schlág

CW: Was unterscheidet Apertus technisch und konzeptionell von bestehenden Large Language Models wie GPT oder Gemini?

Schlág: Der wichtigste konzeptionelle Unterschied ist Transparenz und Compliance: Wir veröffentlichen Gewichte, Trainingsdaten, Code und Rezepte, schliessen illegale und raubkopierte Daten konsequent aus und verhindern die Memorisierung von Trainingsdaten durch kontrollierte Experimente in grossem Massstab, die wir unter Peer-Review publiziert haben. Ein wesentlicher Unterschied ist auch der Massstab der Entwicklung: Hinter Frontier-Modellen stehen tausende Ingenieure und Milliarden-Budgets, die eine Vielzahl von Fähigkeiten ermöglichen. Des Weiteren ist Apertus 1 bewusst kompakter dimensioniert (8B und 70B Parameter). Zum Schluss ist der Vergleich mit ChatGPT oder Gemini ein Kategorienfehler: Das sind vollständige KI-Systeme, während Apertus ein KI-Modell ist, also das Kernstück, welches solche Systeme nutzen können. Ein Beispiel für KI System, welches Apertus verwendet, ist vor unserer Haustüre: oss.zuericitygpt.ch.

CW: Welche Rolle spielen Offenheit und Transparenz im Projekt – wird Apertus ein echtes Open-Source-Modell sein?

Schlág: Apertus ist unter der Apache-2.0-Lizenz veröffentlicht, was uneingeschränkte kommerzielle Nutzung erlaubt. Damit gehen wir deutlich über den branchenüblichen Standard hinaus: Die meisten sogenannten «offenen» Modelle wie Llama veröffentlichen lediglich Gewichte unter restriktiven Lizenzen. Wir legen zusätzlich alle Trainingsdaten-Quellen, den vollständigen Trainingscode, die Trainingsrezepte und Zwischenresultate offen. Das ermöglicht echte Reproduzierbarkeit und unabhängige Überprüfung, was der EU AI Act zunehmend auch einfordert.

© Computerworld

CW: Ein zentrales Schlagwort ist digitale Souveränität. Was bedeutet dieser Begriff im Kontext von Apertus ganz konkret?

Schlág: Digitale Souveränität bedeutet konkret, dass Schweizer Organisationen das Modell auf eigener Infrastruktur betreiben können, ohne Abhängigkeit von ausländischen Technologieanbietern, ohne Vendor Lock-in und ohne dass sensible Daten das Land verlassen müssen. Mehrere Schweizer Anbieter wie Swisscom, aber auch internationale Plattformen wie Azure und AWS stellen das Modell bereits bereit, was zeigt, dass Souveränität und breite Verfügbarkeit sich nicht ausschliessen.

CW: Wie stellen Sie sicher, dass Trainingsdaten rechtlich sauber sind und europäischen Datenschutzanforderungen entsprechen?

Schlág: Wir verwenden ausschliesslich öffentlich zugängliche Daten, respektieren maschinenlesbare Opt-out-Mechanismen wie robots.txt und schliessen raubkopierte oder illegale Inhalte konsequent aus. Wir unterdrücken die wörtliche Memorisierung von Trainingsdaten durch technische Massnahmen, deren Wirksamkeit wir in kontrollierten Experimenten unter Peer-Review nachgewiesen haben. Sämtliche Datenquellen und Verarbeitungsschritte sind dokumentiert und öffentlich einsehbar, was den Transparenzanforderungen des EU AI Act entspricht und es Dritten ermöglicht, unsere Compliance unabhängig zu überprüfen.

CW: Der Betrieb grosser KI-Modelle erfordert enorme Rechenleistung. Auf welche Infrastruktur und Computer-Ressourcen greift das Projekt zurück?

Schlág: Apertus wird auf dem Alps-Supercomputer am Swiss National Supercomputing Centre (CSCS) trainiert, der mit über 10'000 NVIDIA GH200 Grace Hopper Superchips ausgestattet ist und auf der Top500-Liste aktuell Platz 8 weltweit belegt. Für das Training des 70B-Modells nutzten wir rund 4'096 GPUs über etwa drei Monate und verbrauchten dabei über 6 Millionen GPU-Stunden. Das System läuft zu 100% mit Wasserkraft und wird mit Wasser aus dem Luganersee gekühlt, wobei die Abwärme, soweit ich weiss, teils für Fernheizung genutzt wird. Wir als öffentliche Institutionen bieten selbst keinen Inference-Service an, dafür stellen Drittanbieter wie Swisscom, AWS, Azure oder Infomaniak das Modell für Endnutzer bereit.

CW: Europa erlebt derzeit mehrere KI-Initiativen wie Mistral AI oder Aleph Alpha. Wo positioniert sich Apertus in diesem Umfeld?

Schlág: Mistral AI und Aleph Alpha sind beides kommerzielle Unternehmen und daher nicht direkt vergleichbar. Aleph Alpha hat sich schon länger vom Training grosser Modelle zurückgezogen und positioniert sich heute als Enterprise-Middleware-Plattform. Mistral entwickelt zwar starke Modelle, behält jedoch das leistungsfähigste Modell zahlenden Kunden vor und gibt keine Einsicht in Trainingsdaten oder -methodik oder Modelideologie. Apertus verfolgt einen grundlegend anderen Ansatz: Als öffentlich finanziertes Projekt stellen wir alles vollständig offen zur Verfügung und schaffen damit eine transparente, regulierungskonforme Grundlage, auf der Forschung, Verwaltung und Industrie in der Schweiz und Europa aufbauen können.

CW: Wo steht das Projekt heute – und welche Meilensteine stehen in den nächsten ein bis zwei Jahren an?

Schlág: Im September 2025 haben wir Apertus 1.0 in zwei Grössen (8B und 70B Parameter) veröffentlicht und seither über 2,2 Millionen Downloads erreicht. Aktuell arbeiten wir an der nächsten Modellgeneration und haben eine Roadmap für Erweiterungen in Bereichen wie Reasoning, Coding, tool-use und Multimodalität etabliert. 

Zur Person

Imanol Schlág
Co-Projektleiter der Schweizer KI-Initiative Apertus und Wissenschaftler an der ETH Zürich im Bereich Künstliche Intelligenz, Dateninfrastrukturen und digitaler Souveränität.

Apertus

Forschende der EPFL, ETH Zürich und des CSCS haben mit Apertus ein vollständig offenes Large Language Model (LLM) entwickelt – eines der grössten seiner Art. Als Basistechnologie ermöglicht Apertus weitere Innovationen und stärkt die KI-Expertise in Forschung, Gesellschaft und Wirtschaft, indem andere darauf aufbauen können. Apertus ist derzeit über den strategischen Partner Swisscom, die KI-Plattform Hugging Face und beim Netzwerk Public AI verfügbar.

https://apertvs.ai

Interview Schweiz People
Anzeige

Neueste Beiträge

Allen Cao wird neuer Huawei-CEO in der Schweiz - Executive Change
Allen Cao übernimmt als neuer CEO die Führung der Schweizer Landesgesellschaft von Huawei. Der neue Schweiz-Chef war zuvor im Unternehmen für die Märkte in Europa und Südamerika tätig, bevor er nun im Rahmen einer normalen Rotation auf Michael Yang nachfolgt.
2 Minuten
Mobility startet E-Auto-Trainings für Nutzende
Die Mobility Genossenschaft organisiert in grossen Schweizer Städten E-Auto-Trainings für Kunden. Unter dem Motto «Aus der Community für die Community» agieren Mobility-Mitglieder als Coaches, begleiten Interessierte bei den ersten Fahrten und helfen, Unsicherheiten abzubauen.
3 Minuten
12. Apr 2026
Lederarmbänder werden zu Stromspeichern
Forscher der Jilin-Universität machen aus ledernen Jacken, Trachtenhosen und Uhrarmbändern Batterien. Dabei bleibt ihre ursprüngliche Funktion erhalten.
3 Minuten
12. Apr 2026

Das könnte Sie auch interessieren

«Swiss IT-Studie» - KI im Business - Computerworld Ausgabe 1/2026
Am Thema KI kommt niemand mehr vorbei. Das sehen auch die befragten Schweizer Unternehmen. Wo und wie man diese einsetzen könnte und welchen Nutzen damit verbunden ist, da scheiden sich die Geister. Die Schweiz im KI-Dilemma?
2 Minuten
Stadt Zürich lanciert eigene KI-Assistenz
Seit Kurzem steht den Mitarbeitenden der Stadt Zürich mit «ZüriA» eine KI-Assistenz zur Verfügung, die die Bearbeitung von internen, vertraulichen und streng vertraulichen Informationen ermöglicht. 
2 Minuten
18. Mär 2026
Roboter verstehen natürliche Sprache - Research & Studies
Ein zentrales Hindernis in der Robotik war bislang die fehlende Fähigkeit, natürliche Sprache direkt zu verarbeiten. Forschern von Huawei, der TU Darmstadt und der ETH Zürich haben ein Verfahren entwickelt, Text direkt in Robotik-Befehle zu übersetzen.
2 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige