Llama 3.2: De Edge AI en Vision-revolutie met open en aanpasbare modellen

Het lijkt nog maar gisteren dat ik schreef over de impact van Llama 3.1, en nu staan ​​we voor een nieuwe belangrijke mijlpaal in kunstmatige intelligentie met de release van Llama 3.2 op 25 september 2024.

Introductie

Meta heeft zojuist aangekondigd dat Lama 3.2, een innovatie die belooft het edge- en vision-AI-landschap te transformeren. Deze nieuwe versie bevat grootschalige taalmodellen (LLM's) voor kleine en middelgrote vision-gebruikers (11B en 90B) en lichtgewicht tekstmodellen (1B en 3B), ontworpen om zich aan te passen aan mobiele en edge-apparaten. Deze modellen zijn beschikbaar in vooraf getrainde en instructiegerichte versies en bieden uitzonderlijke flexibiliteit en prestaties voor een breed scala aan toepassingen.

Wat is er nieuw in Llama 3.2

Mobiele en Edge-geoptimaliseerde sjablonen

De modellen Lama 3.2 van 1B en 3B ondersteunen nu een contextlengte tot 128 penningen, waarmee een nieuwe standaard wordt gezet voor apparaattoepassingen zoals:

  • Meertalige kennisopvraging en samenvatting
  • Instructie follow-up
  • Taken herschrijven die lokaal worden uitgevoerd

Deze modellen zijn geoptimaliseerd voor Qualcomm-, MediaTek- en ARM-processorhardware en maken efficiënte verwerking mogelijk zonder dat er een zware infrastructuur nodig is.

Vooruitgang in computer vision

De visiemodellen Lama 3.2 11B- en 90B-modellen kunnen hun tekstuele tegenhangers direct vervangen en presteren zelfs beter dan closed-sourcemodellen zoals Claude 3 Haiku bij taken met betrekking tot beeldbegrip. In tegenstelling tot andere open-source multimodale modellen zijn zowel vooraf getrainde als uitgelijnde modellen beschikbaar voor aangepaste afstemming met behulp van fakkelmelodie, en kan bovendien worden getest met de Meta AI-assistent.

Llama Stack: Ontwikkeling vereenvoudigen

Meta brengt de eerste officiële distributies uit van Lama Stapel, die de manier waarop ontwikkelaars met Llama-modellen in verschillende omgevingen werken aanzienlijk vereenvoudigen:

  • Enkelvoudig knooppunt
  • On-premises
  • In de wolk
  • Op het apparaat

Hierdoor is een kant-en-klare implementatie van RAG-toepassingen (Recovery Augmented Generation) en beveiligingsgeïntegreerde tools mogelijk, waardoor de ontwikkeltijd wordt versneld en de complexiteit wordt verminderd.

Strategische partnerschappen

In samenwerking met partners zoals AWS, Databricks, Dell, Fireworks, Infosys e Samen AIMeta breidt het bereik van de Llama Stack uit naar zakelijke klanten. De distributie naar apparaten vindt plaats via PyTorch ExecuTorch, terwijl distributie op één knooppunt wordt gefaciliteerd door Ollama.

Openheid die innovatie stimuleert

Meta blijft zijn werk delen omdat het gelooft dat openheid stimuleert innovatieLlama 3.2 loopt voorop op het gebied van openheid, aanpasbaarheid en kostenefficiëntie, waardoor meer mensen creatieve en transformatieve doorbraken kunnen realiseren met behulp van generatieve AI.

Beschikbaarheid

De modellen Lama 3.2 zijn beschikbaar om te downloaden op lama.com e Gezicht knuffelenen is bovendien direct toegankelijk voor ontwikkeling op een breed ecosysteem van partnerplatforms, waaronder:

  • AMD
  • Google Cloud
  • IBM
  • Microsoft Azure
  • NVIDIA
  • Oracle-wolk
  • En vele anderen

Eindreflexen

Het lijkt nog maar gisteren dat ik de impact van Llama 3.1 besprak, en nu is er Llama 3.2 om de lat nog hoger te leggen. De snelheid waarmee technologie zich ontwikkelt is werkelijk indrukwekkend. Ik ben benieuwd hoe deze ontwikkelingen in verschillende sectoren zullen worden toegepast en hoe ze onze projecten en oplossingen positief kunnen beïnvloeden.

Aandeel