Meta's nieuwe model, Llama 3.1, zou OpenAI ten val kunnen brengen

Innovatie met open gewichten

De release van Meta's nieuwste open-weight LLM-model, Llama 3.1, zou een bron van zorg kunnen zijn voor OpenAI en diverse andere bedrijven met closed-sourcemodellen. Voor het eerst behoort een open-sourcemodel tot de toppresteerders in de gestandaardiseerde evaluatieranglijsten. Ter vergelijking: alle closed-sourcemodellen (Anthropic Claude, OpenAI, Cohere, enz.) worden gebruikt via API's, waarbij de leveranciers de infrastructuur beheren en gebruikskosten verkopen (in dit geval is de meeteenheid Token).

Zodra we een model van gelijke of superieure kwaliteit hebben dat vrijelijk op onze eigen hardware kan worden gebruikt, verandert de situatie volledig. Elk bedrijf zal zijn eigen generatieve AI-innovaties in eigen huis kunnen ontwikkelen, waardoor de kosten van inferentie drastisch dalen. Dit vormt een ernstige bedreiging voor OpenAI, aangezien de meeste AI-applicaties die we vandaag de dag op de markt zien, niets meer zijn dan bedrijven die de API van OpenAI (ChatGPT) gebruiken en deze integreren in applicaties die voor een breed scala aan doeleinden worden gebruikt. Met een model zo goed als Llama 3.1, dat in eigen huis kan worden uitgevoerd, zullen deze bedrijven die deze applicaties implementeren, hun modellen tegen kostprijs kunnen gebruiken.

De kracht van de lama 3.1

Llama 3.1 vertegenwoordigt een belangrijke doorbraak in taalmodellering. Dit model, ontwikkeld door Meta, ondersteunt niet alleen meertaligheid, maar bevat ook verbeteringen in codering, redenering en tooling. Met 405 miljard parameters en een contextvenster tot 128 tokens kan Llama 3.1 zich meten met marktleiders zoals GPT-4.

De robuuste infrastructuur die wordt gebruikt om Llama 3.1 te trainen, met clusters van H100 GPU's, garandeert de efficiëntie en stabiliteit die nodig zijn om een ​​model van deze omvang te ontwikkelen. Bovendien wordt Llama 3.1 uitgebreid met multimodale mogelijkheden zoals beeld-, video- en spraakherkenning, waardoor het een nog krachtigere en veelzijdigere tool wordt voor diverse toepassingen.

Uitdagingen voor OpenAI

Aan de andere kant staat OpenAI voor aanzienlijke financiële uitdagingen. Volgens een analyse van The Information zou OpenAI dit jaar tot wel $ 5 miljard kunnen verliezen door hoge AI-trainings- en inferentiekosten, die kunnen oplopen tot $ 7 miljard. Bovendien zouden de personeelskosten kunnen oplopen tot $ 1,5 miljard. Deze kritieke situatie plaatst OpenAI in een kwetsbare positie, vooral gezien de noodzaak om de komende 12 maanden meer kapitaal aan te trekken.

De race om hardware

Nu, meer dan ooit, is de strijd gaande om de hardware te vinden die dit alles ondersteunt. Hoewel Nvidia verreweg de kampioen is in deze markt, ontwikkelen AMD, AWS, Intel en diverse andere bedrijven ook hun eigen chips voor training en inferentie. Het vermogen van een bedrijf om zijn eigen hardware-infrastructuur te ontwikkelen en te onderhouden, zal een cruciale factor zijn om te kunnen concurreren op de AI-markt.

Mudança de Paradigma

De beschikbaarheid van een open model zoals Llama 3.1, dat intern op bedrijfsinfrastructuren kan draaien, vertegenwoordigt een paradigmaverschuiving. Bedrijven zullen hun inferentiekosten drastisch kunnen verlagen en tegelijkertijd hun innovatievermogen op het gebied van generatieve AI kunnen vergroten. Dit zal de markt voor generatieve AI-toepassingen een boost geven. IA, dat momenteel sterk afhankelijk is van de API's van OpenAI, kan beginnen met migreren naar meer kosteneffectieve en efficiënte interne oplossingen.

Conclusie

Kortom, Llama 3.1 belooft niet alleen een revolutie teweeg te brengen in het veld van taalmodellen, maar legt ook aanzienlijke druk op OpenAI en andere aanbieders van closed-sourcemodellen, waardoor het AI-landschap ingrijpend en blijvend verandert. Nu de hardwarewedloop steeds heviger wordt, zal de toekomst van AI worden bepaald door zowel software-innovatie als hardware-ondersteuning, wat nieuwe uitdagingen en kansen voor de sector met zich meebrengt.

Aandeel