Tentang penyesuaian yang diawasi untuk model Gemini
Tetap teratur dengan koleksi Simpan dan kategorikan konten berdasarkan preferensi Anda.
Penyesuaian yang diawasi membantu Anda menyesuaikan model Gemini dengan kebutuhan spesifik Anda. Dengan memberikan set data contoh berlabel, Anda dapat menyesuaikan bobot model untuk mengoptimalkan performanya dalam tugas tertentu. Metode ini adalah opsi yang baik jika Anda memiliki tugas yang terdefinisi dengan baik. SFT sangat efektif untuk aplikasi khusus domain yang bahasa atau kontennya sangat berbeda dengan data yang digunakan untuk melatih model dasar. Anda dapat menyesuaikan model dengan data teks, gambar, audio, dan dokumen.
Halaman ini menjelaskan topik berikut:
Untuk mempelajari lebih lanjut manfaat penyesuaian, lihat Kapan harus menggunakan penyesuaian dengan pengawasan untuk Gemini dan Ratusan organisasi menyesuaikan model Gemini. Berikut kasus penggunaan favorit mereka.
Kasus penggunaan untuk fine-tuning yang diawasi
Model dasar adalah pilihan yang baik jika output atau tugas yang diharapkan dapat ditentukan dengan jelas dan ringkas dalam perintah, dan perintah secara konsisten menghasilkan output yang diharapkan. Jika Anda ingin model mempelajari sesuatu yang khusus atau spesifik yang menyimpang dari pola umum, pertimbangkan untuk menyesuaikan model tersebut. Misalnya, Anda dapat menggunakan penyesuaian model untuk mengajarkan model hal berikut:
- Struktur atau format spesifik untuk menghasilkan output.
- Perilaku spesifik, seperti kapan harus memberikan output yang singkat atau panjang.
- Output yang disesuaikan dan spesifik untuk jenis input tertentu.
Contoh berikut adalah kasus penggunaan yang sulit direkam hanya dengan petunjuk perintah:
Klasifikasi: Respons yang diharapkan adalah kata atau frasa tertentu. Menyesuaikan model dapat membantu mencegah model menghasilkan respons panjang.
Ringkasan: Ringkasan mengikuti format tertentu. Misalnya, Anda mungkin perlu menghapus informasi identitas pribadi (PII) dalam ringkasan chat. Pemformatan berupa penggantian nama dengan #Person1
dan #Person2
sulit dijelaskan dalam perintah, dan model dasar mungkin tidak secara alami menghasilkan respons tersebut.
Question answering ekstraksi: Pertanyaannya tentang konteks dan jawabannya adalah substring konteks tersebut.
Chat: Anda perlu menyesuaikan respons model untuk mengikuti persona, peran, atau karakter.
Anda juga dapat menyesuaikan model dalam situasi berikut:
- Perintah tidak selalu menghasilkan hasil yang diharapkan.
- Tugas terlalu rumit untuk ditentukan dalam perintah (misalnya, clone perilaku untuk perilaku yang sulit diuraikan).
- Anda memiliki intuisi kompleks tentang tugas yang sulit diformalkan dalam sebuah perintah.
- Anda ingin mengurangi panjang konteks dengan menghapus contoh few-shot dari perintah.
Model yang didukung
Model Gemini berikut mendukung fine-tuning yang diawasi:
Untuk model yang mendukung penalaran, nonaktifkan anggaran penalaran atau tetapkan ke nilai terendah. Hal ini dapat meningkatkan performa dan mengurangi biaya untuk tugas yang disesuaikan. Selama penyesuaian terawasi, model belajar dari data pelatihan dan menghilangkan proses berpikir. Oleh karena itu, model yang disesuaikan yang dihasilkan dapat melakukan tugas yang disesuaikan secara efektif tanpa anggaran pemikiran.
Batasan
Gemini 2.5 Flash
Gemini 2.5 Flash-Lite
Spesifikasi | Nilai |
Token pelatihan input dan output maksimum | 131.072 |
Token input dan output maksimum untuk penayangan | Sama seperti model Gemini dasar |
Ukuran maksimum set data validasi | 5.000 contoh |
Ukuran file set data pelatihan maksimum | 1 GB untuk JSONL |
Ukuran set data pelatihan maksimum | 1 juta contoh hanya teks atau 300 ribu contoh multimodal |
Ukuran adaptor | Nilai yang didukung adalah 1, 2, 4, 8, dan 16 |
Gemini 2.5 Pro
Spesifikasi | Nilai |
Token pelatihan input dan output maksimum | 131.072 |
Token input dan output maksimum untuk penayangan | Sama seperti model Gemini dasar |
Ukuran maksimum set data validasi | 5.000 contoh |
Ukuran file set data pelatihan maksimum | 1 GB untuk JSONL |
Ukuran set data pelatihan maksimum | 1 juta contoh hanya teks atau 300 ribu contoh multimodal |
Ukuran adaptor | Nilai yang didukung adalah 1, 2, 4, dan 8 |
Gemini 2.0 Flash
Gemini 2.0 Flash-Lite
Spesifikasi | Nilai |
Token pelatihan input dan output maksimum | 131.072 |
Token input dan output maksimum untuk penayangan | Sama seperti model Gemini dasar |
Ukuran maksimum set data validasi | 5.000 contoh |
Ukuran file set data pelatihan maksimum | 1 GB untuk JSONL |
Ukuran set data pelatihan maksimum | 1 juta contoh hanya teks atau 300 ribu contoh multimodal |
Ukuran adaptor | Nilai yang didukung adalah 1, 2, 4, dan 8 |
Masalah umum
- Menerapkan pembuatan terkontrol saat mengirimkan permintaan inferensi ke model Gemini yang telah disesuaikan dapat menurunkan kualitas model. Selama penyesuaian, pembuatan terkontrol tidak diterapkan, sehingga model yang disesuaikan tidak dapat menanganinya dengan baik pada waktu inferensi. Karena penyesuaian terawasi menyesuaikan model untuk menghasilkan output terstruktur, Anda tidak perlu menerapkan pembuatan terkontrol saat membuat permintaan inferensi pada model yang disesuaikan.
Mengonfigurasi region tugas penyesuaian
Saat Anda menjalankan tugas penyesuaian, data Anda, termasuk set data yang diubah dan model yang disesuaikan akhir, disimpan di region yang Anda tentukan. Untuk menggunakan akselerator hardware yang tersedia, komputasi mungkin di-offload ke region lain dalam multi-region US
atau EU
. Proses ini transparan dan tidak mengubah tempat penyimpanan data Anda.
Anda dapat menentukan region untuk tugas penyesuaian dengan cara berikut:
Vertex AI SDK: Tentukan region saat Anda melakukan inisialisasi klien.
import vertexai vertexai.init(project='myproject', location='us-central1')
REST API: Jika Anda membuat tugas penyesuaian terawasi dengan mengirimkan permintaan POST
ke metode tuningJobs.create
, gunakan URL untuk menentukan region. Ganti kedua instance TUNING_JOB_REGION
dengan region tempat tugas berjalan.
https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Google Cloud Konsol: Dalam alur kerja pembuatan model, pilih region dari menu drop-down Region di halaman Detail model.
Kuota
Kuota membatasi jumlah tugas penyesuaian serentak yang dapat Anda jalankan. Setiap project memiliki kuota default untuk menjalankan setidaknya satu tugas penyesuaian. Ini adalah kuota global, yang dibagikan di semua region yang tersedia dan model yang didukung. Untuk menjalankan lebih banyak tugas secara serentak, Anda perlu meminta kuota tambahan untuk Global concurrent tuning jobs
.
Harga
Untuk mengetahui detail harga, lihat Harga Vertex AI.
- Biaya penyesuaian: Biaya penyesuaian dihitung dengan mengalikan jumlah token dalam set data pelatihan Anda dengan jumlah epoch.
- Biaya inferensi: Setelah tuning, harga inferensi standar berlaku untuk permintaan prediksi yang dibuat ke model yang telah di-tune. Harga inferensi sama untuk setiap versi stabil Gemini. Untuk mengetahui informasi selengkapnya, lihat Versi model stabil Gemini yang tersedia.
Langkah berikutnya