SUSECON, het jaarlijkse event van SUSE, leverde veel voorspelbare updates op in 2025. Centraal stonden het naderende SUSE Linux Enterprise Server 16, verbeteringen aan Kubernetes-tool Rancher en een uitgebreid partnership, dit jaar met Microsoft Sentinel. Maar SUSE AI, ietwat cryptisch aangekondigd in 2024, leverde de interessantste noviteiten op. Wat doet SUSE AI? En wat juist niet?
We vroegen ons in 2024 eigenlijk af wat SUSE AI precies was. Als fundament voor de IT-infrastructuur wilde SUSE met de nieuwe oplossing, toen nog niet gelanceerd, vooral de eigen principes in het GenAI-tijdperk aanjagen. Oftewel: net als met onder meer Linux en Rancher keuzes bieden, waar mogelijk open-source, controle over de eigen data en uitvoerige observability. In 2025 wordt dit concreet omgezet in een AI-infrastructuur, geleverd door SUSE samen met partners en integraties, maar niet alleen.
Zo bouwt SUSE zelf geen LLM’s en gaat het dat ook nooit doen. Dat stellen Abhinav Puri, VP & GM Portfolio Solutions & Services, en Thomas di Giacomo, Chief Technology & Product Officer van SUSE beiden in klare taal. Daarnaast eindigt SUSE AI waar de verticals beginnen. Er komt, zo lijkt het, nooit een kant-en-klaar verpakte SUSE AI voor retail, de gezondheidszorg, et cetera. Daarvoor schuiven partners aan, bijvoorbeeld door een oplossing in samenwerking met Infosys en HPE. Om echter duidelijk te krijgen welke rol SUSE speelt in dit proces, bespreken we de AI-pipeline in de SUSE-wereld van kop tot staart.
Niet modellen zelf, wel security eromheen
Puri geeft aan dat SUSE de infrastructuur levert voor AI-workloads, van het besturingssysteem tot workflows, container orchestrations en security. Inbegrepen is ondersteuning voor oplossingen van derden, zoals Red Hat Enterprise Linux en CentOS aan de OS-zijde en onder andere OpenWebUI en Ollama voor het opdienen van LLM’s.
“Eén van onze krachten is de secure supply chain”, vertelt Puri. “Wij weten hoe we veilige open-source pipelines bouwen”, zegt hij. Dit komt met een verwijzing naar de ruim drie decennia aan enterprise Linux-ondersteuning, langer dan welke concurrent ook. Zijn collega Sanjeet Singh, Director & Head of Cloud Product Management, voegt hier een concreet voorbeeld aan toe. Eén van de Fortune 50-bedrijven besteedt tegenwoordig het goedkeuren van open-source projecten voor AI uit aan SUSE. Het bedrijf in kwestie kent namelijk veel AI-engineers, maar mist de expertise voor deze selectie. SUSE kan veel sneller bekende CVE’s (kwetsbaarheden) elimineren om een open-source tool enterprise-grade te maken, vertelt Singh.
Een groot probleem is namelijk dat open-source maintainers security niet al te hoog in hun prioriteitenlijst hebben staan. En dit terwijl open-source juist software veiliger kan maken, zoals SUSE-CEO Dirk-Peter van Leeuwen ons vorig jaar al vertelde. Singh vat de rol van SUSE hierbij als volgt samen: “Wij bieden een CVE-vrij framework zodat organisaties open-source projecten op een veilige manier kunnen gebruiken.”
Meer dan kwetsbaarheden oplossen: guardrails en observability
Security is in relatie tot AI een breed begrip en gaat verder dan het oplossen van kwetsbaarheden. Neem guardrails, de generieke term voor het voorkomen van situaties waarin AI-modellen uit de bocht vliegen. SUSE gebruikt hierbij het open-source Guardrails AI-project als fundament. Een SUSE-greendoc legt de precieze implementatie hiervan uit, maar daar blijft het niet bij. De eerder genoemde partner Infosys beschikt tevens over een Guardrails-oplossing die te integreren is met SUSE. Het is een blauwdruk voor verdere uitbreidingen van deze kant van SUSE AI.
Observability is een groter thema waar SUSE een uitgebreid verhaal over te vertellen heeft. Daar zullen we dan ook in een later artikel uitgebreid op terugkomen. Op SUSE’s Observability for AI is het net zo goed wachten, tot april, terwijl gecureerde componenten, agentic AI-workflows en guardrails al wel beschikbaar zijn. Dit rijtje omschrijft Puri op het podium van SUSECON als de “meest dringende behoeften” voor organisaties. Op wat nu al mogelijk is, gaan we dieper in. Observability, dat onder meer de kosten van je API-gebruik in kaart brengt, knopen we daar net als SUSE later weer aan vast.
Wel is dit een beetje het paard voor de wagen spannen. Singh benadrukt namelijk: “Observability is de grootste zorg want de kosten zijn enorm.” Gebruikers moeten binnen hun organisatie aan de CFO kunnen verantwoorden dat ze efficiënt omgaan met hun AI-gebruik, of dat nu on-prem is, via public cloud instances of API’s. Dit alles is complex en vergt dus duidelijk nog wat tijd, maar SUSE’s plannen op dit gebied zijn helder. Zo wil het in dashboards niet alleen LLM-metrics tonen, maar ook GPU-prestaties en de inzet van vector databases, de basis voor GenAI-inzet met eigen gegevens.
Op weg naar agentic
De rol van SUSE AI draait zoals gezegd om het garanderen van veilige tooling. Echter willen organisaties snel innoveren en simpelweg GenAI-modellen draaien is niet genoeg. Agentic AI raakte het afgelopen jaar in een stroomversnelling, waarbij de technologie zelfstandiger optreedt. Binnen SUSE’s definitie (een vrij gangbare) draaien agentic workflows om het kunnen plannen, redeneren en ageren op basis van doelstellingen en data.
Dit wordt concreet gemaakt met OpenWebUI Pipelines, een open-source framework dat modellen, API’s en externe tools aan elkaar koppelt. SUSE zal dit project toevoegen aan de eigen AI Library. Dit betekent dat het binnen hetzelfde lijstje belandt als SUSE Security, SUSE Observability, SUSE Rancher Prime RKE2 en SUSE Linux Micro, waarop Nvidia-drivers geïnstalleerd zijn (support voor AMD volgt nog).
Dat zijn veel bouwstenen, die flexibiliteit bieden voor allerlei implementaties. Het is aan andere partijen om hier industriespecifieke toepassingen voor klaar te stomen. SUSE’s omschrijving blijft bij use cases, zoals “data-intensieve industrieën”. Het lijkt erop dat SUSE vooral niet wil concurreren met partners of zichzelf te breed wil verspreiden. Immers onderhoudt het al andermans Linux-distributies, biedt het langdurige support windows en cureert het open-source componenten.
Conclusie: waar SUSE AI begint en eindigt
SUSE gaat dus geen eigen modellen bouwen. De discussie over hoe ‘open’ de ‘open-source’ LLM’s op de markt zijn, woedt voort. Brent Schroeder, Global CTO bij SUSE, benadrukt dat niemand je open-source model kan reproduceren als je niet de code, het model én de data aanlevert. Neem DeepSeek’s aanpak, waarbij we inzicht krijgen in delen van de code en het model zelf kunnen draaien, maar geen inzicht hebben in de precieze trainingdata.
Het resultaat is dat SUSE AI tussen de gesloten werelden opereert. Enerzijds het domein van de AI-modelbouwers, waar de prominente partijen niet voldoen aan de eis om code, model en data vrij te geven. Aan de andere kant zit de AI-hardware, veelal Nvidia-GPU’s, en de betaalde implementaties van bedrijven als Infosys.
SUSE definieert de eigen taak als het leveren van de infrastructuur, met zoveel mogelijk keuze en flexibiliteit voor eindgebruikers. Bij SUSE AI wordt helder wat het wel en wat vooral níét de kerntaken zijn van het bedrijf. Het kan niet concurreren op modellen en kan niet extra vrijheid geven als bijna iedereen dezelfde AI-chips gebruikt. SUSE heeft niet de immense bandbreedte van implementeerders om voor elke sector een kant-en-klare SUSE AI-variant te maken.
Het eindresultaat is een mengelmoes van oplossingen, gecureerd en veilig, die aansluiten op wat het bedrijf al langer doet. Ondanks alle opschuddingen van de IT-wereld door GenAI blijft SUSE dus ietwat behoudend en voorspelbaar. SUSE AI zal meebewegen met industriële trends. Bovenal zal het organisaties gemoedsrust geven door het wegwerken van kwetsbaarheden en het leveren van integraties.
Lees ook: Hoe SUSE AI van visie naar platform ging