La famille de modèles ouverts Gemma comprend différentes tailles, fonctionnalités et variantes spécialisées par tâche pour vous aider à créer des solutions génératives personnalisées. Voici les principaux chemins que vous pouvez suivre lorsque vous utilisez des modèles Gemma dans une application:
Sélectionner un modèle et le déployer tel quel dans votre application
Sélectionnez un modèle, ajustez-le pour une tâche spécifique, puis déployez-le dans une application ou partagez-le avec la communauté.
Ce guide vous aide à choisir un modèle, à tester ses fonctionnalités et, éventuellement, à ajuster le modèle que vous avez sélectionné pour votre application.
Cette section vous aide à comprendre les variantes officielles de la famille de modèles Gemma et à sélectionner un modèle pour votre application. Les variantes de modèle fournissent des fonctionnalités générales ou sont spécialisées pour des tâches spécifiques. Elles sont fournies dans différentes tailles de paramètres afin que vous puissiez choisir un modèle qui présente les fonctionnalités de votre choix et répond à vos exigences de calcul.
Liste des modèles Gemma
Le tableau suivant répertorie les principales variantes de la famille de modèles Gemma et les plates-formes de déploiement prévues:
Vous pouvez tester les modèles Gemma en configurant un environnement de développement avec un modèle téléchargé et un logiciel associé. Vous pouvez ensuite demander au modèle de répondre et d'évaluer ses réponses. Utilisez l'un des notebooks Python suivants avec le framework de machine learning de votre choix pour configurer un environnement de test et inviter un modèle Gemma:
Vous pouvez tester rapidement Gemma sans configurer d'environnement de développement à l'aide de Google AI Studio. Cette application Web vous permet de tester des requêtes avec Gemma et d'évaluer ses fonctionnalités.
Vous pouvez modifier le comportement des modèles Gemma en les ajustant. L'ajustement d'un modèle nécessite un ensemble de données d'entrées et de réponses attendues d'une taille et d'une variation suffisantes pour guider le comportement du modèle. Vous avez également besoin de ressources de calcul et de mémoire beaucoup plus importantes pour effectuer une exécution de réglage par rapport à l'exécution d'un modèle Gemma pour la génération de texte. Utilisez l'un des notebooks Python suivants pour configurer un environnement de développement d'optimisation et optimiser un modèle Gemma:
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/06/03 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/06/03 (UTC)."],[],[],null,["The Gemma family of open models includes a range of model sizes, capabilities,\nand task-specialized variations to help you build custom generative solutions.\nThese are the main paths you can follow when using Gemma models in an\napplication:\n\n- Select a model and **deploy it as-is** in your application\n- Select a model, **tune it for a specific task**, and then deploy it in an application, or share it with the community.\n\nThis guide helps you get started with [picking](#pick) a model, [testing](#test)\nits capabilities, and optionally, [tuning](#tune) the model you selected for\nyour application.\n| **Tip:** As you begin implementing AI applications, make sure your are following a principled approach to AI that serves all your users with the [Responsible Generative AI Toolkit](/responsible).\n\n[Try Gemma 3](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it)\n[Get it on Kaggle](https://www.kaggle.com/models?query=gemma3&publisher=google)\n[Get it on Hugging Face](https://huggingface.co/models?search=google/gemma-3)\n\nPick a model\n\nThis section helps you understand the official variants of the Gemma model\nfamily and select a model for your application. The model variants provide\ngeneral capabilities or are specialized for specific tasks, and are provided\nin different parameter sizes so you can pick a model that has your preferred\ncapabilities and meets your compute requirements.\n| **Tip:** A good place to start is the [Gemma 3 4B](https://www.kaggle.com/models/google/gemma-3) model in the latest available version, which can be used for many tasks and has lower resource requirements.\n\nGemma models list\n\nThe following table lists the major variants of the Gemma model family and their\nintended deployment platforms:\n\n| **Parameter size** | **Input** | **Output** | **Variant** | **Foundation** | **Intended platforms** |\n|--------------------|--------------|------------|-------------------------------------------------------------------------|------------------------------------------|-------------------------------------------|\n| 1B | Text | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Mobile devices and single board computers |\n| 2B | Text | Text | - [Gemma 2 (core)](/gemma/docs/core) | [Gemma 2](/gemma/docs/core/model_card_2) | Mobile devices and laptops |\n| 2B | Text | Text | - [Gemma (core)](/gemma/docs/core) - [CodeGemma](/gemma/docs/codegemma) | [Gemma 1](/gemma/docs/core/model_card) | Mobile devices and laptops |\n| 3B | Text, images | Text | - [PaliGemma 2](/gemma/docs/paligemma) | [Gemma 2](/gemma/docs/core/model_card_2) | Desktop computers and small servers |\n| 4B | Text, images | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Desktop computers and small servers |\n| 7B | Text | Text | - [Gemma (core)](/gemma/docs/core) - [CodeGemma](/gemma/docs/codegemma) | [Gemma 1](/gemma/docs/core/model_card) | Desktop computers and small servers |\n| 9B | Text | Text | - [Gemma 2 (core)](/gemma/docs/core) | [Gemma 2](/gemma/docs/core/model_card_2) | Higher-end desktop computers and servers |\n| 10B | Text, images | Text | - [PaliGemma 2](/gemma/docs/paligemma) | [Gemma 2](/gemma/docs/core/model_card_2) | Higher-end desktop computers and servers |\n| 12B | Text, images | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Higher-end desktop computers and servers |\n| 27B | Text, images | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Large servers or server clusters |\n| 27B | Text | Text | - [Gemma 2 (core)](/gemma/docs/core) | [Gemma 2](/gemma/docs/core/model_card_2) | Large servers or server clusters |\n| 28B | Text, images | Text | - [PaliGemma 2](/gemma/docs/paligemma) | [Gemma 2](/gemma/docs/core/model_card_2) | Large servers or server clusters |\n\nThe Gemma family of models also includes special-purpose and research models,\nincluding\n[ShieldGemma](/gemma/docs/shieldgemma),\n[DataGemma](/gemma/docs/datagemma),\n[Gemma Scope](/gemma/docs/gemmascope),\nand\n[Gemma-APS](/gemma/docs/gemma-aps).\n| **Tip:** You can download official Google Gemma model variants and community-created variants from [Kaggle Models](https://www.kaggle.com/models?query=gemma) and [Hugging Face](https://huggingface.co/models?search=google/gemma).\n\nTest models\n\nYou can test Gemma models by setting up a development environment with a\ndownloaded model and supporting software. You can then prompt the model and\nevaluate its responses. Use one of the following Python notebooks with your\npreferred machine learning framework to set up a testing environment and prompt\na Gemma model:\n\n- [Inference with Keras](./core/keras_inference)\n- [Inference with PyTorch](./core/pytorch_gemma)\n- [Inference with Gemma library](./core/gemma_library)\n\nTest Gemma 3 in AI Studio\n\nYou can quickly test Gemma without setting up a development environment using\nGoogle AI Studio. This web application lets you try out prompts with Gemma\nand evaluate its capabilities.\n\nTo try Gemma 3 in Google AI Studio:\n\n1. Open [AI Studio](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it).\n\n2. In the **Run settings** panel on the right side, in the **Model** field,\n select a different size **Gemma** model.\n\n3. At the bottom of the center panel, type a prompt, and select **Run**.\n\nFor more information about using AI Studio, see the\n[Google AI Studio quickstart](/gemini-api/docs/ai-studio-quickstart).\n\nTune models\n\nYou can change the behavior of Gemma models by performing tuning on them. Tuning\na model requires a dataset of inputs and expected responses of sufficient size\nand variation to guide the behavior of the model. You also need significantly\nmore computing and memory resources to complete a tuning run compared to running\na Gemma model for text generation. Use one of the following Python notebooks to\nset up a tuning development environment and tune a Gemma model:\n\n- [Tune Gemma with Keras and LoRA tuning](./core/lora_tuning)\n- [Tune larger Gemma models with distributed training](./core/distributed_tuning)\n\nNext Steps\n\nCheck out these guides for building more solutions with Gemma:\n\n- [Create a chatbot with Gemma](./gemma_chat)\n- [Deploy Gemma to production with Vertex AI](https://cloud.google.com/vertex-ai/generative-ai/docs/open-models/use-gemma)\n- [Use Genkit with Ollama and Gemma](https://firebase.google.com/docs/genkit/plugins/ollama)"]]