Aktualisiert am 11. Januar 2026
Wie würden Sie ein Sprachmodelle für Künstliche Intelligenz (Large Language Models, LLMs) nennen, dass offen und transparent ist? Offen? Nein, das wäre zu simple. Open? Ne, das ist zu platt. Wie wäre es mit Apertus – lateinisch für offen. Und genau das hat die Schweiz vor kurzem öffentlich gemacht. Denn die Diskussion um Künstliche Intelligenz (KI) ist längst nicht mehr nur ein Thema für große Tech-Konzerne und Forschungseinrichtungen. Sie hat inzwischen die Mitte der Gesellschaft erreicht, prägt den Alltag und verändert ganze Branchen. Gleichzeitig wächst damit das Bedürfnis nach Transparenz, Sicherheit und Vertrauen, denn viele Menschen fragen sich: Wie werden diese Modelle eigentlich trainiert? Wer kontrolliert die Datenbasis? Und welche Risiken verbergen sich hinter dem Einsatz leistungsstarker Systeme? Und da kommt jetzt Apertus ins Spiel.
Was ist Apertus?
Apertus ist ein Open-Source-KI-Modell, mit dem die Schweiz einen neuen Weg in der Entwicklung und Verbreitung von Large Language Modellen (LLM) geht. Das Model wurde entwickelt von Eidgenössische Technische Hochschule Zürich (ETH Zürich), École Polytechnique Fédérale de Lausanne (EPFL) und Swiss National Supercomputing Centre (CSCS). Dieses neue Modell soll einen Meilenstein setzen. Während viele große Sprachmodelle (LLMs) wie ChatGPT oder Claude zwar öffentlich nutzbar sind, aber im Inneren wie eine Blackbox funktionieren, stellt Apertus radikal auf Offenheit und Nachvollziehbarkeit ab. Damit könnte dieses Projekt nicht nur in der Forschung, sondern auch in der Wirtschaft und in öffentlichen Organisationen eine neue Ära der vertrauenswürdigen KI einleiten (t3n, 2025).
Auf BauVolution habe ich Ihnen bereits des öfteren von den Potentialen aber auch von den Schattenseiten der KI berichtet. So haben wir bereits beleuchtet, wie Künstliche Intelligenz und ihre dunklen Seiten unseren Alltag beeinflussen, oder zum Thema KI-Washing wie Sie KI-Washing identifizieren und echte Innovationssprünge erkennen. Vor diesem Hintergrund ist es spannend zu sehen, dass mit Apertus nun ein Modell existiert, das Transparenz nicht nur verspricht, sondern praktisch umsetzt.
Der Ursprung von Apertus: Ein europäischer Gegenentwurf
Im Gegensatz zu anderen Modellen ist Apertus nicht in einem Silicon-Valley-Konzern entstanden, sondern in einem öffentlichen Konsortium in der Schweiz. Schon der Name, abgeleitet vom lateinischen „apertus” für „offen”, verweist auf die Grundidee: ein Modell, das vollständig nachvollziehbar und zugänglich ist. Anders als Meta mit seinen Llama-Modellen oder OpenAI mit GPT setzt das Schweizer Projekt auf eine kompromisslose Offenlegung.
Die Initiative folgt einem klaren Ziel: Europa soll nicht nur Anwender von KI sein, sondern Gestalter. Mit dem europäischen Fokus auf Datenschutz, demokratische Werte und technologische Souveränität will Apertus beweisen, dass leistungsfähige Sprachmodelle auch ohne intransparente Geschäftsgeheimnisse entwickelt werden können (ETH Zürich, 2025).
Ein wesentlicher Unterschied ist dabei, dass nicht nur die Modellgewichte, sondern auch die Trainingsdaten, der gesamte Trainingsprozess sowie der Quellcode offengelegt werden. Für Forschung und Bildung eröffnet das eine nie dagewesene Möglichkeit, Modelle zu verstehen, zu prüfen und weiterzuentwickeln.
Was sind bei Modellgewichte bei Large Language Modellen?
Modellgewichte sind wie die Erinnerungen eines KI-Modells.
Beim Lernen merkt sich die KI viele kleine Regeln. Jede Regel hat eine Zahl, die sagt, wie wichtig sie ist. Diese Zahlen nennt man Gewichte. Ohne die Gewichte wüsste das Modell nichts – mit ihnen kann es Texte verstehen und Antworten geben.
Technische Eckdaten von Apertus: Ein Blick in die Architektur
Die technischen Eckdaten von Apertus verdeutlichen, dass es sich nicht um ein Experiment im kleinen Maßstab handelt, sondern um ein ernstzunehmendes Modell, das international mithalten kann.
| Eigenschaft | Apertus |
| Entwickler | ETH Zürich, EPFL, CSCS (Lugano) |
| Supercomputer | „Alps” am CSCS |
| Modelle | 8 Milliarden und 70 Milliarden Parameter |
| Trainingsdaten | 15 Billionen Tokens |
| Sprachen | Über 1.000, darunter Schweizerdeutsch und Rätoromanisch |
| Nicht-englische Daten | Ca. 40 % der Trainingsbasis |
| Lizenz | Vollständig Open Source, für Forschung, Bildung und kommerzielle Nutzung |
| Verfügbarkeit | Hugging Face, Swisscom, Public AI Inference Utility |
Das Training wurde auf dem Supercomputer Alps in Lugano durchgeführt – einer der leistungsstärksten Hochleistungsrechner in Europa. Bemerkenswert ist der sprachliche Fokus: Während viele Modelle stark anglozentriert sind, setzt Apertus bewusst auf eine mehrsprachige Basis. Damit eignet sich das Modell für Anwendungen in internationalen Kontexten, in denen Mehrsprachigkeit unverzichtbar ist (ETH Zürich, 2025; The Verge, 2025).
Benchmarks und internationale Einordnung von Apertus
Natürlich stellt sich die Frage, wie Apertus im Vergleich zu anderen Modellen dasteht. In Benchmarks bewegt es sich etwa auf dem Niveau von Meta Llama 3 (2024). Es übertrifft also nicht die neuesten Giganten wie GPT-5, zeigt aber, dass Transparenz und Leistungsfähigkeit durchaus vereinbar sind (The Verge, 2025).
Wesentlich ist hier nicht, ob Apertus an der absoluten Spitze liegt, sondern ob es eine glaubwürdige Alternative bietet. Und genau das ist der Fall. Mit 8- und 70-Milliarden-Parameter-Varianten deckt das Modell sowohl Entwicklerbedarfe als auch komplexe Forschungsszenarien ab. Und das mit absoluter Offenheit und Transparenz.
Damit stellt sich die Frage: Geht es künftig nur noch darum, die größten Modelle zu bauen – oder ist der nachhaltigere Weg jener, der auf Offenheit, Vertrauen und Integrationsfähigkeit setzt? Und damit den Weg ebnet für (noch) mehr Akzeptanz von Künstlicher Intelligenz in unserer Gesellschaft.
Bei Apertus ist Transparenz das Leitprinzip
Die vollständige Offenlegung der Datensätze ist das Alleinstellungsmerkmal von Apertus. Alle verwendeten Daten stammen aus öffentlichen Quellen, personenbezogene Inhalte wurden entfernt, und Webseiten, die ein Opt-out wünschten, wurden respektiert. Damit grenzt sich das Modell klar von jenen Entwicklungen ab, die in der Vergangenheit Kritik auf sich zogen, weil Inhalte ohne Zustimmung übernommen wurden.
Die Transparenz betrifft aber nicht nur die Daten, sondern auch die Dokumentation des Trainingsprozesses. Entwicklerinnen und Entwickler können genau nachvollziehen, wie die Architektur entstanden ist und welche Optimierungen eingesetzt wurden. Das ist nicht nur ein Fortschritt für die Wissenschaft, sondern auch für die Organisationen, die diese Technologie in kritischen Bereichen wie Bildung, Gesundheit, Bauwesen oder Verwaltung einsetzen möchten.
Diese Haltung knüpft an Diskussionen an, die Sie auf BauVolution wahrscheinlich bereits gelesen haben: Im Beitrag 15 Auswirkungen der EU-KI-Verordnung auf die Bau- und Immobilienwirtschaft habe ich Ihnen konkret aufgezeigt, dass Regulierung allein nicht ausreicht, sondern dass eine Kultur der Offenheit nötig ist. Apertus ist ein Beispiel dafür, wie Regulierung, Technologie und Gemeinwohlorientierung Hand in Hand gehen können und damit auch gesellschaftlich hochrelevant.
10 Jahre ‘Simulation and Gaming in Construction Business’
Heute vor 10 Jahren, am 22. Dezember 2014 …
WeiterlesenBehind Digitalization: Thomas Eugene Kurtz
Liebe Leserinnen und Leser meines Blogs. Anfang …
WeiterlesenEthische Dimensionen: Vertrauen schaffen
Und gerade die gesellschaftliche Akzeptanz bei der breiten Nutzung von KI ist ein relevanter Faktor für die Verbreitung. Deshalb ist ein Kernanliegen von Apertus, Vertrauen zurückzugewinnen. In einer Zeit, in der viele Menschen die Blackbox-Natur von KI kritisieren, sendet das Projekt ein klares Signal: Es geht auch anders.
Das ist eng verbunden mit den Fragen, die im Beitrag Künstliche Intelligenz und ihre dunklen Seiten im Detail aufgegriffen werden. Dort haben ich Ihnen gezeigt, dass Risiken wie Bias, Diskriminierung oder ungewollte Nebenwirkungen real sind. Indem Apertus offenlegt, welche Daten verwendet wurden, können genau diese Risiken besser adressiert werden.
Darüber hinaus entspricht die Entwicklung von Apertus sowohl den Schweizer Datenschutzgesetzen als auch den Anforderungen des EU AI Act. Damit wird ein Rahmen geschaffen, der nicht nur technologisch, sondern auch rechtlich Vertrauen stiftet (Artificial Intelligence News, 2025).
Praktische Zugänglichkeit: Von Swisscom bis Hugging Face
Ein weiteres Plus von Apertus ist seine Zugänglichkeit. Organisationen und Entwicklerinnen bzw. Entwickler können das Modell über verschiedene Plattformen nutzen:
- Hugging Face stellt zum Beispiel Apertus-8B-Instruct-2509 bereit.
- Swisscom integriert Apertus in seine souveräne AI-Plattform. Downlod:Apertus LLM Collection.
- Über die Public AI Inference Utility steht es weltweit als Chat interface auf PublicAI zur Verfügung. Probieren Sie Apertus dort aus!

Während der Swiss {ai} Weeks wurden zudem Hackathons gestartet, um neue Anwendungen auf Basis von Apertus zu entwickeln. Damit wird das Modell nicht nur theoretisch offen, sondern praktisch erfahrbar. Entwicklerinnen und Entwickler wie auch Organisationen können somit sofort experimentieren und eigene Lösungen aufbauen.
Doch bei allem Enthusiasmus und Tatendrang, auch bei Apertus steht der kritischte Aspekt der KI-Nutzung vor dem Bildschirm – der Mensch und seine Fähigkeit angemessen und verantwortungsvoll zu Prompten.
Die Rolle von Prompts: Von der Theorie zur Praxis
KI-Modelle wie Apertus entfalten ihr Potenzial erst, wenn sie sinnvoll genutzt werden. Genau hier kommt das Thema Prompt Engineering ins Spiel. Auf BauVolution haben ich Ihnen in mehreren Beiträgen gezeigt, wie Sie Prompts entwickeln und verbessern können, etwa in KI-Prompts in 6 Schritten, 5 Gründe, warum Lehrkräfte gute Prompt Engineers wären oder in KI-Prompts optimieren: Strategien für eine bessere KI-Nutzung.
Besonders interessant: Mit Apertus können Sie Ihre Prompts nicht nur anwenden, sondern auch besser verstehen, wie das Modell auf sie reagiert. Weil der Trainingsprozess offengelegt ist, können Sie im Detail analysieren, warum eine bestimmte Eingabe zu einer spezifischen Antwort führt. Das ist ein entscheidender Vorteil gegenüber geschlossenen Systemen, die auf Nachfrage oft nur nebulöse Erklärungen liefern.
Wer praktisch einsteigen möchte, kann dafür auch den KI-Prompts-Generator nutzen, der zeigt, wie strukturierte Eingaben aussehen können. Mit Apertus haben Sie damit die Möglichkeit, Ihre Experimente mit einem Modell zu verbinden, das maximale Nachvollziehbarkeit bietet.
Und nun?
Apertus ist mehr als nur ein weiteres Sprachmodell. Es ist ein Symbol dafür, dass Künstliche Intelligenz auch anders gedacht werden kann: transparent, ethisch verantwortungsvoll und demokratisch zugänglich.
Für Sie als Leserinnen und Leser bedeutet das: Jetzt ist der Zeitpunkt, sich mit Apertus auseinanderzusetzen. Testen Sie das Modell, vergleichen Sie es mit anderen Systemen und überlegen Sie, wie es in Ihren Projekten eingesetzt werden kann. Wenn Sie tiefer einsteigen möchten, finden Sie auf BauVolution zahlreiche Beiträge, die Sie bei der Einordnung unterstützen – von den dunklen Seiten der KI bis hin zu praktischen Anleitungen für Prompts.
Die Zukunft der KI muss nicht intransparent sein. Mit Apertus liegt eine Möglichkeit vor uns, die zeigt: Technologie kann auch im Dienst der Öffentlichkeit entwickelt werden. Nutzen wir diese Möglichkeit und probieren Sie es aus.
Quellenverzeichnis
Artificial Intelligence News. (2025). Switzerland releases its own fully open AI model. online verfügbar
ETH Zürich. (2025). Apertus: A fully open, transparent multilingual language model. online verfügbar
t3n. (2025). Apertus: Schweiz startet Open-Source-KI-Alternative. online verfügbar
The Verge. (2025). Switzerland launches Apertus, a public open-source LLM. online verfügbar
Schlüsselwörter: Apertus Open-Source-KI, schweizerisches Sprachmodell, transparente KI, EU KI Verordnung, Bauwirtschaft KI, KI Prompts, digitale Transformation Bauwesen, ETH Zürich KI, EPFL Apertus
Diesen Beitrag zitieren:Karl, C. [Christian K. Karl]. (2025). Apertus Open-Source-KI: Wie die Schweiz Transparenz & Datenschutz definiert [Blog-Beitrag]. 09.09.2025.BauVolution, ISSN 2942-9145.online verfügbar
Häufig gestellte Fragen (FAQ)
Apertus ist ein vollständig offenes Sprachmodell (Large Language Model), das von der ETH Zürich, der EPFL und dem Swiss National Supercomputing Centre (CSCS) in der Schweiz entwickelt wurde. Es setzt auf Transparenz, indem nicht nur die Modellgewichte, sondern auch die Trainingsdaten und der Trainingsprozess offengelegt werden.
Im Gegensatz zu ChatGPT oder Llama legt Apertus nicht nur die Modellparameter offen, sondern auch die genutzten Datensätze, den Quellcode und die Trainingsmethoden. Damit bietet es ein bisher einzigartiges Maß an Nachvollziehbarkeit und Transparenz.
Durch seine Mehrsprachigkeit und Offenheit eignet sich Apertus für Forschung, Bildung, Unternehmen und öffentliche Institutionen. Insbesondere im Bauwesen und in internationalen Projekten kann es für Dokumentationen, Übersetzungen oder branchenspezifische Analysen genutzt werden.
Ja, Apertus ist unter einer offenen Lizenz frei verfügbar. Es kann über Plattformen wie Hugging Face, über die Swisscom-Cloud oder über die Public AI Inference Utility genutzt werden. So haben Entwicklerinnen, Unternehmen und Forschungseinrichtungen einfachen Zugang.
Apertus zeigt, dass leistungsfähige KI-Modelle auch in Europa unabhängig von Big Tech entwickelt werden können. Es stärkt die digitale Souveränität, entspricht europäischen Datenschutz- und Transparenzanforderungen und setzt neue Standards für vertrauenswürdige KI.
Dr.-Ing. Christian K. Karl ist Bauingenieur, Fachdidaktiker und Experte für die digitale Transformation in der Bau- und Immobilienwirtschaft. Er leitet die Fachdidaktik Bautechnik an der Universität Duisburg-Essen und forscht zu BIM, Künstlicher Intelligenz, Future Skills und Resilienzbildung in der Bau- und Einsatzpraxis. Zudem ist er Vorsitzender des Richtliniengremius VDI/bS 2552 Blatt 8 zur BIM-Qualifizierung. Neben seiner akademischen Tätigkeit engagiert er sich ehrenamtlich in der DLRG sowie als Berater und Coach für digitale Transformationsprozesse. Auf BauVolution.de verbindet er wissenschaftliche Expertise mit praxisnahen Einblicken. Abseits der Forschung ist er Familienvater, Filmenthusiast, Taucher, Fallschirmspringer und Motorsport-Fan.






