Parece que foi ontem que escrevi sobre o impacto do Llama 3.1, e agora estamos diante de mais um marco significativo na inteligência artificial com o lançamento do Llama 3.2 em 25 de setembro de 2024.
Introdução
A Meta acaba de anunciar o Llama 3.2, uma inovação que promete transformar o cenário da IA de borda e visão. Esta nova versão traz modelos de linguagem de grande porte (LLMs) de visão de pequeno e médio porte (11B e 90B) e modelos leves somente de texto (1B e 3B), projetados para se adaptar a dispositivos móveis e de ponta. Disponíveis em versões pré-treinadas e ajustadas por instruções, esses modelos oferecem flexibilidade e desempenho excepcionais para uma ampla gama de aplicações.
Novidades do Llama 3.2
Modelos Otimizados para Dispositivos Móveis e de Borda
Os modelos Llama 3.2 de 1B e 3B agora suportam um comprimento de contexto de até 128K tokens, estabelecendo um novo padrão para aplicações em dispositivos, como:
- Recuperação e resumo de conhecimento multilíngue
- Acompanhamento de instruções
- Tarefas de reescrita executadas localmente
Otimizados para hardware Qualcomm, MediaTek e processadores ARM, esses modelos permitem um processamento eficiente sem a necessidade de infraestrutura pesada.
Avanços em Visão Computacional
Os modelos de visão Llama 3.2 de 11B e 90B podem substituir imediatamente seus equivalentes de texto, superando em tarefas de compreensão de imagem até mesmo modelos fechados como o Claude 3 Haiku. Diferentemente de outros modelos multimodais abertos, tanto os modelos pré-treinados quanto os alinhados estão disponíveis para ajustes personalizados usando o torchtune, além de poderem ser testados com o assistente Meta AI.
Llama Stack: Simplificando o Desenvolvimento
A Meta está lançando as primeiras distribuições oficiais do Llama Stack, que simplificam significativamente a forma como os desenvolvedores trabalham com os modelos Llama em diferentes ambientes:
- Single-node
- On-premises
- Na nuvem
- No dispositivo
Isso permite a implementação turnkey de aplicações com geração aumentada por recuperação (RAG) e ferramentas com segurança integrada, acelerando o tempo de desenvolvimento e reduzindo a complexidade.
Parcerias Estratégicas
Em colaboração com parceiros como AWS, Databricks, Dell, Fireworks, Infosys e Together AI, a Meta está ampliando o alcance do Llama Stack para clientes corporativos. A distribuição para dispositivos é realizada por meio do PyTorch ExecuTorch, enquanto a distribuição em single-node é facilitada pelo Ollama.
Abertura que Impulsiona a Inovação
A Meta continua compartilhando seu trabalho porque acredita que a abertura impulsiona a inovação. O Llama 3.2 lidera o caminho em abertura, modificabilidade e eficiência de custos, permitindo que mais pessoas realizem avanços criativos e transformadores usando IA generativa.
Disponibilidade
Os modelos Llama 3.2 estão disponíveis para download em llama.com e Hugging Face, além de estarem acessíveis para desenvolvimento imediato em um amplo ecossistema de plataformas parceiras, incluindo:
- AMD
- Google Cloud
- IBM
- Microsoft Azure
- NVIDIA
- Oracle Cloud
- E muitos outros
Reflexões Finais
Parece que foi ontem que discuti o impacto do Llama 3.1, e agora o Llama 3.2 chega para elevar ainda mais o nível. A rapidez com que a tecnologia evolui é realmente impressionante. Estou empolgado para ver como esses avanços serão aplicados em diferentes setores e como eles poderão influenciar positivamente nossos projetos e soluções.