Künstliche Intelligenz: Die Schweiz mischt vorne mit In anderen Ländern entstehen laufend neue Alternativen zu Chat-GPT, jüngst etwa Grok von Elon Musk. Selbst ein deutsches KI-Jungunternehmen hat gerade eine 500-Millionen-Dollar-Finanzspritze bekommen. Und die Schweiz?

In anderen Ländern entstehen laufend neue Alternativen zu Chat-GPT, jüngst etwa Grok von Elon Musk. Selbst ein deutsches KI-Jungunternehmen hat gerade eine 500-Millionen-Dollar-Finanzspritze bekommen. Und die Schweiz?

(Bild: Alex Knight auf Unsplash)

Deutschland hat gerade seine Unabhängigkeit ausgerufen. Unter Beisein des Vizekanzlers Robert Habeck kündete eine Reihe grosser Firmen wie der Maschinenbauer Bosch oder der Software-Konzern SAP eine Kapitalspritze von 500 Mio. $ für das Heidelberger Jungunternehmen Aleph Alpha an. Dessen künstliche Intelligenz Luminous sei eine Investition in die Souveränität der Wirtschaft.

Deutschland will nicht länger abhängig sein von grossen Sprachmodellen (Large Language Models oder LLM) aus den USA. Die Ankündigung erfolgte, wenige Tage nachdem Elon Musk sein LLM namens Grok ins Rennen geschickt hatte.

Es ist ein Elefantenrennen, bei dem Open-AI, Microsoft, Alphabet, Meta, IBM und viele andere Amerikaner mittun. Auch chinesische Akteure haben grosse Ambitionen. Dazu kommen die deutlich kleineren Player aus Europa – neben Aleph Alpha auch Mistral aus Frankreich und Stability aus Grossbritannien.

Und die Schweiz? Verpasst sie gerade den Anschluss? Im Gegenteil, sagen Experten. Sie finden den Hype um LLM fragwürdig.

«Es ist sicher gut, dass jetzt europäische LLM-Alternativen zu den turbokapitalistischen Anbietern in den USA und den überwachungskapitalistischen Anbietern in China entstehen», sagt Thilo Stadelmann, Professor für KI und maschinelles Lernen an der Hochschule ZHAW. Konkurrenz belebe das Geschäft.

«Aktive Geldvernichtung»

Allerdings hält er die Finanzierung von immer neuen LLM «für eine aktive Geldvernichtung». Die Kosten seien exorbitant, und die Modelle würden bereits in wenigen Jahren wieder veraltet sein. «Der einzige Grund, ein eigenes Modell zu trainieren, ist, dass man derzeit Geld von Risikokapitalgebern hinterhergeworfen bekommt. Bezüglich des Nutzens wird die Rechnung nie aufgehen», sagt Stadelmann.

Die Kosten für KI-fähige Grafikkarten sind explodiert, der Stromverbrauch der LLM ebenfalls. Auch die Fachleute für deren Entwicklung haben ihren Preis: Ein Ingenieur im Dienste der KI-Jungfirma Anthropic, in die Amazon und Google Milliarden buttern, verdient laut Stelleninserat zwischen 280 000 und 555 000 $ pro Jahr.

Es scheint zunehmend sinnlos, sich in diese Materialschlacht zu stürzen: «Der Mehrwert, der entsteht, wenn man ein eigenes LLM baut, ist extrem klein», sagt Pascal Kaufmann, Mitgründer der Firma Alpine-AI und Schweizer KI-Unternehmer der ersten Stunde. «Es ist, wie wenn eine Firma die Welt kartografiert und diese Daten öffentlich verfügbar macht. Und dann kommt ein anderes Unternehmen und macht die ganze Arbeit noch einmal. Es wird bestenfalls zweitklassig sein.» 500 Mio. $ töne nach viel, aber dieser Betrag reiche für die Entwicklung und den Betrieb eines global einsetzbaren LLM bei weitem nicht.

«Als Unternehmen will ich das beste LLM der Welt nutzen, nicht die Nummer zwei oder drei», sagt Kaufmann. «Aber ich möchte es mit meinen eigenen Daten kombinieren können, ohne dass diese die Schweiz verlassen. Diese Möglichkeit bieten wir mit Swiss-GPT», sagt er.

Dieser Dienst der Firma Alpine-AI geht auf einen im August angekündeten Schulterschluss von Akteuren in der Schweiz zurück. Er stützt sich auf das LLM Falcon, das ursprünglich an der ETH Lausanne entwickelt wurde.

Swiss-GPT will vergleichbare Dienstleistungen anbieten wie Aleph Alpha – einfach ohne dafür Hunderte von Millionen zu investieren. «Der interessanteste Markt für Aleph Alpha dürfte sein, europäischen Unternehmen Dienstleistungen anzubieten, die aus der Kombination eines LLM mit den eigenen Geschäftsdaten entstehen – ohne dass die Kunden Angst haben müssen, dass ihre Daten das Land verlassen oder missbraucht werden», sagt Siegfried Handschuh, Professor für Data Science an der Universität St. Gallen.

«Natürlich gewährleisten das auch amerikanische Firmen wie Microsoft, doch bei diesem Thema ist auch die Wahrnehmung wichtig», sagt Handschuh. IBM fokussiert ebenfalls auf das Geschäft mit Unternehmenskunden, die viel höhere Anforderungen an die Sicherheit ihrer Daten haben als Private.

Künftig werden wir wohl weniger über LLM reden und mehr über Firmen, die deren Modelle und Rechenleistung nutzen. «Die eigentliche Wertschöpfung wird bei den Anwendungen entstehen, die konkrete Probleme lösen und die sich nahtlos in den Workflow einer Firma einpassen lassen», sagt Stadelmann. In diesem Bereich habe das Rennen gerade erst begonnen, und verschiedene Schweizer Unternehmen wie etwa Alpine-AI und Deepjudge seien mit entsprechenden Produktentwicklungen gut positioniert.

Die Zürcher Firma Deepjudge bietet eine KI-gestützte Plattform zur Verarbeitung von Rechtsdokumenten an und hat etwa die Kanzlei Homburger als Kunde. Das Unternehmen wurde von drei Ex-Googlern gegründet, die alle über einen Doktortitel in künstlicher Intelligenz der ETH Zürich verfügen.

Die nächste Firma kommt nach Zürich

Auch die Firma Squirro in Zürich sei sehr erfolgreich darin, Firmen zu helfen, ihre eigenen Daten nutzbar zu machen, sagt Handschuh. «Generell ist die Schweiz gut positioniert, um konkrete LLM-Anwendungen zu entwickeln.»

Das hiesige KI-Know-how hat bereits die nächste renommierte Firma bewogen, in der Schweiz Fuss zu fassen. Boston Dynamics, das als eines der besten Robotik-Unternehmen der Welt gilt, hat Anfang November angekündet, dass es in Zürich einen Forschungsstandort eröffnen werde.

«Die Schweiz ist eine KI-Nation, ein Taktgeber beim Thema: Darum forschen Disney, Google, Meta, IBM, Microsoft und andere hier, und nächstes Jahr kommt auch noch Boston Dynamics dazu», sagt Kaufmann. «Die wollen in Zürich KI-Center eröffnen und nicht etwa Roboter bauen, denn das können sie bereits.» Für Boston Dynamics sei klar, dass menschenähnliche Intelligenz nur möglich sei, wenn man KI einen Körper gebe, der die Welt wahrnehmen und mit ihr interagieren könne.

Auch Handschuh findet die Verknüpfung von Robotik und Sprachmodellen interessant. «Bisher sind Roboter zum Beispiel nicht in der Lage, eine x-beliebige Tür zu öffnen. Es ist unglaublich schwierig, das zu programmieren, da jede Türe leicht anders beschaffen ist», so der Professor. Doch die den LLM zugrunde liegenden Transformer-Modelle könnten dieses Problem in den Griff bekommen. «Ich bin daher überzeugt, dass wir in fünf Jahren Roboter haben werden, die uns den Geschirrspüler ausräumen.»

Roboter und Drohnen sind seit je ein Steckenpferd von Schweizer Hochschulen und Unternehmern. Auch wenn es darum geht, Computern das «Sehen» beizubringen, mischen hiesige Forscher vorne mit. Vielleicht wird KI für Roboter in den kommenden Jahren das ganz grosse Thema. LLM hingegen könnten bald so normal sein wie die Cloud-Dienste von Amazon oder Alphabet: eine digitale Infrastruktur. Lukrativ zwar für die grössten Anbieter, aber eine eher unspektakuläre Dienstleistung.

Markus Städeli, «Neue Zürcher Zeitung»

Das könnte Sie auch interessieren: