O Llama 4 Maverick 17B-128E é o maior e mais eficiente modelo do Llama 4. Ele usa a arquitetura de mistura de especialistas (MoE, na sigla em inglês) e a fusão antecipada para oferecer recursos de programação, raciocínio e imagem. Testar na Vertex AI Ver a ficha do modelo no Model Garden Disponibilidade do modelo Estados Unidos Processamento de ML Estados Unidos us-east5:
Propriedade Descrição ID do modelo llama-4-maverick-17b-128e-instruct-maas
Recursos
Data do limite de conhecimento Agosto de 2024 Versões
llama-4-maverick-17b-128e-instruct-maas
Regiões com suporte
us-east5
Multi-region
Limites de cota
Preços do Consulte a seção Preços.
Llama 4 Maverick 17B-128E
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2025-08-19 UTC.