Ce guide vous explique comment régler un modèle Gemini à l'aide de l'affinage supervisé. Cette page aborde les sujets suivants : Le schéma suivant résume le workflow global : Avant de pouvoir régler un modèle, vous devez préparer un ensemble de données pour le réglage supervisé. Pour savoir comment procéder, consultez la documentation correspondant à votre modalité de données : Les modèles Gemini suivants sont compatibles avec le réglage supervisé : Vous pouvez créer un job d'affinage supervisé à l'aide de la console Google Cloud , du SDK Google Gen AI, du SDK Vertex AI pour Python, de l'API REST ou de Colab Enterprise. Le tableau suivant vous aide à choisir l'option la mieux adaptée à votre cas d'utilisation. Pour régler un modèle de texte à l'aide de la console Google Cloud , procédez comme suit : Dans la section Vertex AI de la console Google Cloud , accédez à la page Vertex AI Studio. Cliquez sur Créer un modèle réglé. Sous Informations sur le modèle, configurez les éléments suivants : Sous Paramètre d'optimisation, configurez les éléments suivants : (Facultatif) Pour désactiver les points de contrôle intermédiaires et n'utiliser que le dernier point de contrôle, sélectionnez l'option Exporter uniquement le dernier point de contrôle. Cliquez sur Continuer. La page Ensemble de données de réglage s'affiche. Sélectionnez votre ensemble de données de réglage : (Facultatif) Pour obtenir des métriques de validation pendant l'entraînement, sélectionnez le bouton Activer la validation du modèle. Cliquez sur Commencer le réglage. Votre nouveau modèle s'affiche dans la section Modèles réglés Gemini Pro de la page Régler et distiller. Une fois le job de réglage terminé, l'état est défini sur Réussi. Pour créer un job de réglage de modèle, envoyez une requête POST à l'aide de la méthode Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants : Méthode HTTP et URL : Corps JSON de la requête : Pour envoyer votre requête, choisissez l'une des options suivantes : Enregistrez le corps de la requête dans un fichier nommé Enregistrez le corps de la requête dans un fichier nommé Vous devriez recevoir une réponse JSON semblable à la suivante. Vous pouvez créer un job de réglage de modèle dans Vertex AI à l'aide du panneau latéral de Colab Enterprise. Le panneau latéral ajoute les extraits de code appropriés à votre notebook. Vous pouvez ensuite modifier les extraits de code et les exécuter pour créer votre job de réglage. Pour en savoir plus sur l'utilisation du panneau latéral avec vos jobs de réglage Vertex AI, consultez Interagir avec Vertex AI pour régler un modèle. Dans la console Google Cloud , accédez à la page Mes notebooks de Colab Enterprise. Dans le menu Région, sélectionnez la région qui contient votre notebook. Cliquez sur le notebook que vous souhaitez ouvrir. Si vous n'avez pas encore créé de notebook, créez-en un. À droite de votre notebook, dans le panneau latéral, cliquez sur le bouton Le panneau latéral développe l'onglet Réglage. Cliquez sur le bouton Régler un modèle Gemini. Colab Enterprise ajoute des cellules de code à votre notebook pour régler un modèle Gemini. Dans votre notebook, recherchez la cellule de code qui stocke les valeurs des paramètres. Vous utiliserez ces paramètres pour interagir avec Vertex AI. Mettez à jour les valeurs des paramètres suivants : Dans la cellule de code suivante, modifiez les paramètres de réglage du modèle : Exécutez les cellules de code que le panneau latéral a ajoutées à votre notebook. Une fois la dernière cellule de code exécutée, cliquez sur le bouton Le panneau latéral affiche des informations sur votre job de réglage de modèle. Une fois le job de réglage terminé, vous pouvez accéder directement à la page de test de votre modèle depuis l'onglet Détails du réglage. Cliquez sur Test. La console Google Cloud s'ouvre sur la page Chat textuel de Vertex AI, où vous pouvez tester votre modèle. Pour votre premier job de réglage, utilisez les hyperparamètres par défaut. Elles sont définies sur les valeurs recommandées en fonction des résultats d'analyse comparative. Pour en savoir plus sur les bonnes pratiques de réglage supervisé, consultez l'article de blog Réglage supervisé pour Gemini : guide des bonnes pratiques. Vous pouvez afficher la liste de vos jobs de réglage, obtenir les détails d'un job spécifique ou annuler un job en cours d'exécution. Pour afficher la liste des jobs de réglage dans votre projet, utilisez la console Google Cloud , le SDK Google Gen AI, le SDK Vertex AI pour Python ou envoyez une requête GET à l'aide de la méthode Pour afficher vos jobs de réglage dans la console Google Cloud , accédez à la page Vertex AI Studio. Vos jobs de réglage Gemini sont listés dans le tableau Modèles réglés Gemini Pro. Pour afficher la liste des jobs de réglage de modèle, envoyez une requête GET à l'aide de la méthode Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants : Méthode HTTP et URL : Pour envoyer votre requête, choisissez l'une des options suivantes : Exécutez la commande suivante : Exécutez la commande suivante : Vous devriez recevoir une réponse JSON semblable à la suivante. Pour obtenir les détails d'un job de réglage spécifique, utilisez la console Google Cloud , le SDK Google Gen AI ou le SDK Vertex AI pour Python, ou envoyez une requête GET à l'aide de la méthode Pour afficher les détails d'un modèle réglé dans la console Google Cloud , accédez à la page Vertex AI Studio. Dans le tableau Modèles réglés Gemini Pro, recherchez votre modèle et cliquez sur Détails. La page des détails du modèle s'ouvre. Pour obtenir les détails d'un job de réglage de modèle, envoyez une requête GET à l'aide de la méthode Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants : Méthode HTTP et URL : Pour envoyer votre requête, choisissez l'une des options suivantes : Exécutez la commande suivante : Exécutez la commande suivante : Vous devriez recevoir une réponse JSON semblable à la suivante. Pour annuler un job de réglage en cours d'exécution, utilisez la console Google Cloud ou le SDK Vertex AI pour Python, ou envoyez une requête POST à l'aide de la méthode Pour annuler un job de réglage dans la console Google Cloud , accédez à la page Vertex AI Studio. Dans le tableau Modèles réglés Gemini Pro, cliquez sur Cliquez sur Annuler. Pour annuler un job de réglage de modèle, envoyez une requête POST à l'aide de la méthode Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants : Méthode HTTP et URL : Pour envoyer votre requête, choisissez l'une des options suivantes : Exécutez la commande suivante : Exécutez la commande suivante : Vous devriez recevoir une réponse JSON semblable à la suivante. Une fois votre modèle réglé, vous pouvez interagir avec son point de terminaison de la même manière qu'avec un modèle Gemini de base. Vous pouvez utiliser le SDK Vertex AI pour Python ou le SDK Google Gen AI, ou envoyer une requête POST à l'aide de la méthode Pour les modèles qui prennent en charge le raisonnement, tels que Gemini 2.5 Flash, définissez le budget de réflexion sur 0 pour les tâches ajustées afin d'optimiser les performances et les coûts. Lors de l'affinage supervisé, le modèle apprend à imiter la vérité terrain dans l'ensemble de données d'affinage et omet le processus de réflexion. Par conséquent, le modèle ajusté peut gérer efficacement la tâche sans budget de réflexion. Les exemples suivants montrent comment envoyer une requête à un modèle ajusté avec la question "Pourquoi le ciel est-il bleu ?". Pour tester un modèle réglé dans la console Google Cloud , accédez à la page Vertex AI Studio. Dans le tableau Modèles réglés Gemini Pro, recherchez votre modèle et cliquez sur Tester. Une nouvelle page s'ouvre, sur laquelle vous pouvez créer une conversation avec votre modèle réglé. Pour tester un modèle réglé avec une requête, envoyez une requête POST et spécifiez le paramètre Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants : Si le modèle renvoie une réponse trop générique ou trop courte, ou s'il renvoie une réponse de remplacement, essayez d'augmenter la température. Spécifiez une valeur inférieure pour obtenir des réponses moins aléatoires et une valeur supérieure pour des réponses plus aléatoires. Pour chaque étape de sélection du jeton, les jetons top-K avec les probabilités les plus élevées sont échantillonnés. Les jetons sont ensuite filtrés en fonction du top-P avec le jeton final sélectionné à l'aide de l'échantillonnage de température. Spécifiez une valeur inférieure pour obtenir des réponses moins aléatoires et une valeur supérieure pour des réponses plus aléatoires. Spécifiez une valeur inférieure pour obtenir des réponses plus courtes et une valeur supérieure pour des réponses potentiellement plus longues. Méthode HTTP et URL : Corps JSON de la requête : Pour envoyer votre requête, choisissez l'une des options suivantes : Enregistrez le corps de la requête dans un fichier nommé Enregistrez le corps de la requête dans un fichier nommé Vous devriez recevoir une réponse JSON semblable à la suivante. Pour supprimer un modèle réglé : Appelez la méthode Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants : Méthode HTTP et URL : Pour envoyer votre requête, choisissez l'une des options suivantes : Exécutez la commande suivante : Exécutez la commande suivante : Vous devriez recevoir un code d'état indiquant le succès de l'opération (2xx), ainsi qu'une réponse vide. Vous pouvez configurer un job de réglage de modèle pour collecter et signaler les métriques de réglage et d'évaluation, qui peuvent ensuite être visualisées dans Vertex AI Studio. Pour afficher les métriques d'un modèle ajusté : Dans la section Vertex AI de la console Google Cloud , accédez à la page Vertex AI Studio. Dans le tableau Régler et distiller, cliquez sur le nom du modèle réglé que vous souhaitez afficher. Les métriques s'affichent dans l'onglet Surveiller. Les visualisations sont disponibles une fois que le job de réglage a démarré et sont mises à jour en temps réel. Le job de réglage de modèle collecte automatiquement les métriques de réglage suivantes pour Si vous fournissez un ensemble de données de validation lorsque vous créez le job de réglage, les métriques de validation suivantes sont collectées pour
Avant de commencer
Modèles compatibles
Créer un job de réglage
Méthode Description Cas d'utilisation ConsoleGoogle Cloud Interface utilisateur graphique permettant de créer et de gérer des jobs d'optimisation. Idéal pour commencer, pour l'exploration visuelle ou pour les tâches de réglage ponctuelles sans écrire de code. SDK Google Gen AI SDK Python de haut niveau axé spécifiquement sur les workflows d'IA générative. Idéal pour les développeurs Python qui souhaitent une interface simplifiée axée sur l'IA générative. SDK Vertex AI pour Python SDK Python complet pour tous les services Vertex AI. Recommandé pour intégrer l'ajustement de modèle dans des pipelines MLOps et des scripts d'automatisation plus volumineux. API REST Interface indépendante du langage permettant d'envoyer des requêtes HTTP directes à l'API Vertex AI. À utiliser pour les intégrations personnalisées, les environnements non Python ou lorsque vous avez besoin d'un contrôle précis des requêtes. Colab Enterprise Un environnement de notebook interactif avec un panneau latéral qui génère des extraits de code pour le réglage. Excellent pour l'expérimentation, le développement itératif et la documentation de votre processus d'ajustement dans un notebook. Console
gemini-2.5-flash
.
SDK Google Gen AI
SDK Vertex AI pour Python
REST
tuningJobs.create
. Certains paramètres ne sont pas compatibles avec tous les modèles. N'incluez que les paramètres applicables au modèle que vous réglez.
true
pour n'utiliser que le dernier point de contrôle.projects/my-project/locations/my-region/keyRings/my-kr/cryptoKeys/my-key
. Elle doit se trouver dans la région où la ressource de calcul est créée. Pour en savoir plus, consultez Clés de chiffrement gérées par le client (CMEK).roles/aiplatform.tuningServiceAgent
au compte de service. Attribuez également le rôle Agent de service de réglage roles/iam.serviceAccountTokenCreator
au compte de service géré par le client.POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
{ "baseModel": "BASE_MODEL", "supervisedTuningSpec" : { "trainingDatasetUri": "TRAINING_DATASET_URI", "validationDatasetUri": "VALIDATION_DATASET_URI", "hyperParameters": { "epochCount": "EPOCH_COUNT", "adapterSize": "ADAPTER_SIZE", "learningRateMultiplier": "LEARNING_RATE_MULTIPLIER" }, "export_last_checkpoint_only": EXPORT_LAST_CHECKPOINT_ONLY, }, "tunedModelDisplayName": "TUNED_MODEL_DISPLAYNAME", "encryptionSpec": { "kmsKeyName": "KMS_KEY_NAME" }, "serviceAccount": "SERVICE_ACCOUNT" }
curl
request.json
, puis exécutez la commande suivante :curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"PowerShell
request.json
, puis exécutez la commande suivante :$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand ContentExemple de commande curl
PROJECT_ID=myproject LOCATION=global curl \ -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/tuningJobs" \ -d \ $'{ "baseModel": "gemini-2.5-flash", "supervisedTuningSpec" : { "training_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_train_data.jsonl", "validation_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_validation_data.jsonl" }, "tunedModelDisplayName": "tuned_gemini" }'
Colab Enterprise
PROJECT_ID
: ID du projet dans lequel se trouve votre notebook. REGION
: région de votre notebook. TUNED_MODEL_DISPLAY_NAME
: nom de votre modèle réglé.
source_model
: modèle Gemini que vous souhaitez utiliser, par exemple gemini-2.0-flash-001
. train_dataset
: URL de votre ensemble de données d'entraînement. validation_dataset
: URL de votre ensemble de données de validation.
Régler les hyperparamètres
Afficher et gérer les jobs de réglage
Afficher la liste des jobs de réglage
tuningJobs
. Console
SDK Google Gen AI
SDK Vertex AI pour Python
REST
tuningJobs.list
.
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
curl
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand ContentObtenir les détails d'un job de réglage
tuningJobs
. Console
SDK Google Gen AI
SDK Vertex AI pour Python
REST
tuningJobs.get
et spécifiez TuningJob_ID
.
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID
curl
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID" | Select-Object -Expand ContentAnnuler un job de réglage
tuningJobs
. Console
SDK Vertex AI pour Python
REST
tuningJobs.cancel
et spécifiez TuningJob_ID
.
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel
curl
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d "" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel" | Select-Object -Expand ContentÉvaluer le modèle réglé
generateContent
. Console
SDK Google Gen AI
SDK Vertex AI pour Python
from vertexai.generative_models import GenerativeModel sft_tuning_job = sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>") tuned_model = GenerativeModel(sft_tuning_job.tuned_model_endpoint_name) print(tuned_model.generate_content(content))
REST
TUNED_ENDPOINT_ID
.
topP
et topK
sont appliqués. La température permet de contrôler le degré de hasard dans la sélection des jetons. Les températures inférieures sont idéales pour les requêtes qui nécessitent une réponse moins ouverte ou créative, tandis que des températures plus élevées peuvent conduire à des résultats plus diversifiés ou créatifs. Une température de 0
signifie que les jetons de probabilité les plus élevés sont toujours sélectionnés. Dans ce cas, les réponses pour une requête donnée sont principalement déterministes, mais une petite quantité de variation est toujours possible. 0.5
, le modèle sélectionne A ou B comme jeton suivant à l'aide de la température et exclut le jeton C comme candidat. 1
signifie que le prochain jeton sélectionné est le plus probable parmi tous les jetons du vocabulaire du modèle (une stratégie également appelée décodage glouton), tandis qu'une valeur top-K de 3
signifie que le jeton suivant est sélectionné parmi les trois jetons les plus probables à l'aide de la température. POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent
{ "contents": [ { "role": "USER", "parts": { "text" : "Why is sky blue?" } } ], "generation_config": { "temperature":TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "maxOutputTokens": MAX_OUTPUT_TOKENS } }
curl
request.json
, puis exécutez la commande suivante :curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent"PowerShell
request.json
, puis exécutez la commande suivante :$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent" | Select-Object -Expand ContentSupprimer un modèle réglé
SDK Vertex AI pour Python
from google.cloud import aiplatform aiplatform.init(project=PROJECT_ID, location=LOCATION) # To find out which models are available in Model Registry models = aiplatform.Model.list() model = aiplatform.Model(MODEL_ID) model.delete()
REST
models.delete
.
DELETE https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID
curl
curl -X DELETE \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID"PowerShell
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method DELETE `
-Headers $headers `
-Uri "https://REGION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/REGION/models/MODEL_ID" | Select-Object -Expand ContentMétriques de réglage et de validation
Métriques de réglage du modèle
Gemini 2.0 Flash
:
/train_total_loss
: perte de l'ensemble de données de réglage à une étape d'entraînement./train_fraction_of_correct_next_step_preds
: justesse du jeton à une étape d'entraînement. Une prédiction unique consiste en une séquence de jetons. Cette métrique mesure la justesse des jetons prédits par rapport à la vérité terrain dans l'ensemble de données de réglage./train_num_predictions
: nombre de jetons prévus à une étape d'entraînement.Métriques de validation de modèle
Gemini 2.0 Flash
. Si vous ne spécifiez pas d'ensemble de données de validation, seules les métriques de réglage sont disponibles.
/eval_total_loss
: perte de l'ensemble de données de validation à une étape de validation./eval_fraction_of_correct_next_step_preds
: justesse du jeton à une étape de validation. Une prédiction unique consiste en une séquence de jetons. Cette métrique mesure la précision des jetons prévus par rapport à la vérité terrain dans l'ensemble de données de validation./eval_num_predictions
: nombre de jetons prédits à une étape de validation.Étapes suivantes
Régler des modèles Gemini à l'aide de l'affinage supervisé
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/08/19 (UTC).