Llama 3.2: A Revolução da IA de Borda e Visão com Modelos Abertos e Personalizáveis

Parece que foi ontem que escrevi sobre o impacto do Llama 3.1, e agora estamos diante de mais um marco significativo na inteligência artificial com o lançamento do Llama 3.2 em 25 de setembro de 2024.

Introdução

A Meta acaba de anunciar o Llama 3.2, uma inovação que promete transformar o cenário da IA de borda e visão. Esta nova versão traz modelos de linguagem de grande porte (LLMs) de visão de pequeno e médio porte (11B e 90B) e modelos leves somente de texto (1B e 3B), projetados para se adaptar a dispositivos móveis e de ponta. Disponíveis em versões pré-treinadas e ajustadas por instruções, esses modelos oferecem flexibilidade e desempenho excepcionais para uma ampla gama de aplicações.

Novidades do Llama 3.2

Modelos Otimizados para Dispositivos Móveis e de Borda

Os modelos Llama 3.2 de 1B e 3B agora suportam um comprimento de contexto de até 128K tokens, estabelecendo um novo padrão para aplicações em dispositivos, como:

  • Recuperação e resumo de conhecimento multilíngue
  • Acompanhamento de instruções
  • Tarefas de reescrita executadas localmente

Otimizados para hardware Qualcomm, MediaTek e processadores ARM, esses modelos permitem um processamento eficiente sem a necessidade de infraestrutura pesada.

Avanços em Visão Computacional

Os modelos de visão Llama 3.2 de 11B e 90B podem substituir imediatamente seus equivalentes de texto, superando em tarefas de compreensão de imagem até mesmo modelos fechados como o Claude 3 Haiku. Diferentemente de outros modelos multimodais abertos, tanto os modelos pré-treinados quanto os alinhados estão disponíveis para ajustes personalizados usando o torchtune, além de poderem ser testados com o assistente Meta AI.

Llama Stack: Simplificando o Desenvolvimento

A Meta está lançando as primeiras distribuições oficiais do Llama Stack, que simplificam significativamente a forma como os desenvolvedores trabalham com os modelos Llama em diferentes ambientes:

  • Single-node
  • On-premises
  • Na nuvem
  • No dispositivo

Isso permite a implementação turnkey de aplicações com geração aumentada por recuperação (RAG) e ferramentas com segurança integrada, acelerando o tempo de desenvolvimento e reduzindo a complexidade.

Parcerias Estratégicas

Em colaboração com parceiros como AWS, Databricks, Dell, Fireworks, Infosys e Together AI, a Meta está ampliando o alcance do Llama Stack para clientes corporativos. A distribuição para dispositivos é realizada por meio do PyTorch ExecuTorch, enquanto a distribuição em single-node é facilitada pelo Ollama.

Abertura que Impulsiona a Inovação

A Meta continua compartilhando seu trabalho porque acredita que a abertura impulsiona a inovação. O Llama 3.2 lidera o caminho em abertura, modificabilidade e eficiência de custos, permitindo que mais pessoas realizem avanços criativos e transformadores usando IA generativa.

Disponibilidade

Os modelos Llama 3.2 estão disponíveis para download em llama.com e Hugging Face, além de estarem acessíveis para desenvolvimento imediato em um amplo ecossistema de plataformas parceiras, incluindo:

  • AMD
  • Google Cloud
  • IBM
  • Microsoft Azure
  • NVIDIA
  • Oracle Cloud
  • E muitos outros

Reflexões Finais

Parece que foi ontem que discuti o impacto do Llama 3.1, e agora o Llama 3.2 chega para elevar ainda mais o nível. A rapidez com que a tecnologia evolui é realmente impressionante. Estou empolgado para ver como esses avanços serão aplicados em diferentes setores e como eles poderão influenciar positivamente nossos projetos e soluções.

Compartilhar