Microsoft ontwikkelt momenteel een nieuw LLM genaamd MAI-1, dat de concurrentie met LLM’s van andere aanbieders moet aangaan. Denk hierbij aan de modellen van Google, Meta en Anthropic, evenals OpenAI waarin Microsoft zelf een groot aandeel heeft.
De nieuwe MAI-1 LLM dat de techgigant intern ontwikkelt, bouwt mogelijk voort op kennis die de eerder dit jaar naar Microsoft overgestapte medewerkers van AI-startup Inflection AI hebben meegenomen. Voormalig CEO van Inflection en mede-oprichter van Google DeepMind Mustafa Suleyman zou het ontwikkeltraject leiden, zeggen bronnen tegen The Information.
Omvang van 500 miljard parameters
De nu in ontwikkeling zijnde MAI-1 LLM van Microsoft is substantieel groter dan de recent ontwikkelde Phi-familie van kleinere, maar wel krachtige AI-modellen. De omvang van de nieuwe LLM wordt geschat op ongeveer 500 miljard parameters, terwijl Phi mini 3,8 miljard parameters omvat. In vergelijking is bijvoorbeeld GPT-4 van OpenAI met 1 biljoen parameters natuurlijk nog veel groter.
De nieuwe LLM zou niet direct vanuit Inflection zijn meegenomen, maar gebruikt volgens bronnen mogelijk wel dezelfde training-datasets en delen van de technologie.
Meer concurrentie onder LLM’s
MAI-1 moet duidelijk de concurrentie aangaan met de LLM’s van andere aanbieders zoals Gemini (Google), Llama 3 (Meta), Claude 3 (Anthropic) en vooral dus OpenAI’s GPT-4, waarin Microsoft een belangrijk aandeel heeft.
Doordat de nieuwe LLM veel groter is, moet er voor het trainen natuurlijk meer rekenkracht worden gebruikt. De kosten van MAI-1 zullen daarom hoger zijn dan de Phi-LLM’s die Microsoft eerder op de markt bracht. Deze laatste modellen zijn specifiek gericht voor gebruik door kleinere bedrijven voor AI-toepassingen en -oplossingen.
Lees ook: Microsoft introduceert piepklein AI-model: Phi-3 Mini