La progettazione dei prompt è il processo di creazione di prompt, o richieste in linguaggio naturale, che generano risposte accurate e di alta qualità da un modello linguistico.
Questa pagina introduce concetti, strategie e best practice di base per iniziare a progettare prompt per ottenere il massimo dai modelli di AI Gemini.
Guide per prompt specifiche per argomento
Cerchi strategie di prompt più specifiche? Consulta le nostre altre guide ai prompt su:
- Prompt con file multimediali
- Prompt per la generazione di immagini
- Prompting per la generazione di video
Puoi trovare altri prompt di esempio nella galleria dei prompt, pensata per mostrare in modo interattivo molti dei concetti condivisi in questa guida.
Istruzioni chiare e specifiche
Un modo efficace ed efficiente per personalizzare il comportamento del modello è fornire istruzioni chiare e specifiche. Le istruzioni possono essere sotto forma di domanda, attività passo passo o complesse come la mappatura dell'esperienza e della mentalità di un utente.
Input
L'input è il testo richiesto nel prompt a cui vuoi che il modello fornisca una risposta. Gli input possono essere una domanda a cui il modello risponde (input di domanda), un'attività eseguita dal modello (input di attività), un'entità su cui il modello agisce (input di entità) o un input parziale che il modello completa o prosegue (input di completamento).
Tipo di input | Prompt | Output generato |
---|---|---|
Domanda |
|
|
Attività | Give me a simple list of just the things that I must bring on a camping trip. The list should have 5 items. | 1. **Tent:** Your shelter from the elements. 2. **Sleeping Bag:** Stay warm and comfortable. 3. **Sleeping Pad:** Insulation and cushioning for a good night's sleep. 4. **Headlamp or Flashlight:** Light for nighttime activities. 5. **First Aid Kit:** Be prepared for minor injuries. |
Entità |
|
|
Completamento parziale dell'input
I modelli linguistici generativi funzionano come uno strumento avanzato di completamento automatico. Quando fornisci contenuti parziali, il modello può fornire il resto dei contenuti o ciò che ritiene sia la continuazione di questi contenuti come risposta. In questo modo, se includi esempi o contesto, il modello può tenerne conto.
L'esempio seguente fornisce un prompt con un'istruzione e un input di entità:
For the given order, return a JSON object that has the fields cheeseburger, hamburger, fries, or drink, with the value being the quantity. Order: A burger and a drink. { "cheeseburger": 0, "hamburger": 1, "fries": 0, "drink": 1 } |
Anche se il modello ha eseguito l'attività richiesta, scrivere le istruzioni in linguaggio naturale a volte può essere difficile e lascia molto all'interpretazione del modello. Ad esempio, il menu di un ristorante potrebbe contenere molti articoli. Per ridurre le dimensioni della risposta JSON, probabilmente ti conviene omettere gli articoli che non sono stati ordinati. In questo caso, puoi fornire un esempio e un prefisso di risposta e lasciare che il modello lo completi:
Valid fields are cheeseburger, hamburger, fries, and drink. Order: Give me a cheeseburger and fries Output: ``` { "cheeseburger": 1, "fries": 1 } ``` Order: I want two burgers, a drink, and fries. Output: ``` { "hamburger": 2, "drink": 1, "fries": 1 } ``` |
Nota come "cheeseburger" sia stato escluso dall'output perché non faceva parte dell'ordine.
Vincoli
Specifica eventuali vincoli per la lettura del prompt o la generazione di una risposta. Puoi dire al modello cosa fare e cosa non fare. Ad esempio, puoi specificare un vincolo nel prompt sulla lunghezza del riepilogo:
Summarize this text in one sentence: Text: A quantum computer exploits quantum mechanical phenomena to perform calculations exponentially faster than any modern traditional computer. At very tiny scales, physical matter acts as both particles and as waves, and quantum computing uses specialized hardware to leverage this behavior. The operating principles of quantum devices is beyond the scope of classical physics. When deployed at scale, quantum computers could be used in a wide variety of applications such as: in cybersecurity to break existing encryption methods while helping researchers create new ones, in meteorology to develop better weather forecasting etc. However, the current state of the art quantum computers are still largely experimental and impractical.
Exploiting quantum mechanical phenomena, quantum computers can perform calculations exponentially faster than traditional computers for potential applications like cybersecurity and meteorology, although they are currently largely experimental and impractical. |
Formato della risposta
Puoi fornire istruzioni che specificano il formato della risposta. Ad esempio, puoi chiedere che la risposta venga formattata come tabella, elenco puntato, discorso di presentazione, parole chiave, frase o paragrafo. La seguente istruzione di sistema indica al modello di essere più colloquiale nella sua risposta:
All questions should be answered comprehensively with details, unless the user requests a concise response specifically. What is a smart way to make a business that sells DVD's in 2025? Starting a business selling DVDs in 2025 presents significant challenges due to the overwhelming dominance of digital streaming and on-demand services; a "smart" approach would therefore require a highly specialized niche, a strong value proposition beyond just the disc, and likely a focus on community or collector markets rather than mainstream consumption. Here's a breakdown of what a smart DVD business in 2025 would likely entail: 1. Extreme Niche Specialization: You cannot compete with streaming libraries. Your business must focus on what digital doesn't offer easily or at all. This could include: * Out-of-Print & Rare Titles: Sourcing films or TV shows that have never been released digitally or are currently unavailable on major streaming platforms. .... |
Formattare le risposte con la strategia di completamento
Anche la strategia di completamento può contribuire a formattare la risposta. Il seguente esempio chiede al modello di creare una struttura del saggio:
Create an outline for an essay about hummingbirds. Here is a possible outline for an essay about hummingbirds: I. Introduction A. Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). B. Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds. C. Thesis Statement: State the main point of the essay, which could be about the remarkable adaptations, behaviors, and ecological importance of hummingbirds. II. Appearance and Identification ..... |
Il prompt non ha specificato il formato della struttura e il modello ne ha scelto uno per te. Per fare in modo che il modello restituisca una struttura in un formato specifico, puoi aggiungere un testo che rappresenti l'inizio della struttura e lasciare che il modello la completi in base al pattern che hai avviato.
Create an outline for an essay about hummingbirds. I. Introduction * Okay, here is an outline for an essay about hummingbirds, starting from the introduction you provided: I. Introduction * Hook: Start with a captivating fact or description about hummingbirds (e.g., their speed, iridescent colors, or tiny size). * Background: Briefly introduce hummingbirds – where they are found (Americas), their reputation as unique birds, and their general characteristics. * Thesis Statement: State the main point of the essay, focusing on the remarkable adaptations, behaviors, and ecological significance that make hummingbirds extraordinary. ..... |
Prompt zero-shot e few-shot
Puoi includere nel prompt esempi che mostrino al modello come dovrebbe essere una risposta corretta. Il modello tenta di identificare pattern e relazioni dagli esempi e li applica quando genera una risposta. I prompt che contengono alcuni esempi sono chiamati prompt few-shot, mentre i prompt che non forniscono esempi sono chiamati prompt zero-shot. I prompt few-shot vengono spesso utilizzati per regolare la formattazione, la formulazione, l'ambito o il pattern generale delle risposte del modello. Utilizza esempi specifici e vari per aiutare il modello a restringere il campo e generare risultati più accurati.
Ti consigliamo di includere sempre esempi few-shot nei prompt. I prompt senza esempi few-shot hanno meno probabilità di essere efficaci. Infatti, puoi rimuovere le istruzioni dal prompt se gli esempi sono abbastanza chiari per mostrare l'attività da svolgere.
Il seguente prompt zero-shot chiede al modello di scegliere la spiegazione migliore.
Please choose the best explanation to the question: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Explanation1 is the better explanation because it provides more detail on the process, including how ice crystals combine and grow into snowflakes as they fall through the atmosphere. |
Se il tuo caso d'uso richiede che il modello produca risposte concise, puoi includere esempi nel prompt che danno la preferenza a risposte concise.
Il seguente prompt fornisce due esempi che mostrano la preferenza per le spiegazioni più brevi. Nella risposta, puoi notare che gli esempi hanno guidato il modello a scegliere la spiegazione più breve (Explanation2
) anziché quella più lunga (Explanation1
), come aveva fatto in precedenza.
Below are some examples showing a question, explanation, and answer format: Question: Why is the sky blue? Explanation1: The sky appears blue because of Rayleigh scattering, which causes shorter blue wavelengths of light to be scattered more easily than longer red wavelengths, making the sky look blue. Explanation2: Due to Rayleigh scattering effect. Answer: Explanation2 Question: What is the cause of earthquakes? Explanation1: Sudden release of energy in the Earth's crust. Explanation2: Earthquakes happen when tectonic plates suddenly slip or break apart, causing a release of energy that creates seismic waves that can shake the ground and cause damage. Answer: Explanation1 Now, Answer the following question given the example formats above: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Answer: Explanation2 |
Numero ottimale di esempi
Modelli come Gemini spesso riescono a individuare pattern utilizzando pochi esempi, anche se potresti dover sperimentare con il numero di esempi da fornire nel prompt per ottenere i risultati migliori. Allo stesso tempo, se includi troppi esempi, il modello potrebbe iniziare a fare overfitting della risposta agli esempi.
Pattern e anti-pattern
Utilizzare esempi per mostrare al modello un pattern da seguire è più efficace che utilizzare esempi per mostrare al modello un anti-pattern da evitare.
⛔ Pattern negativo:
Don't end haikus with a question: Haiku are fun A short and simple poem Don't you enjoy them? |
✅ Modello positivo:
Always end haikus with an assertion: Haiku are fun A short and simple poem A joy to write |
Formato coerente
Assicurati che la struttura e la formattazione degli esempi few-shot siano le stesse per evitare risposte con formati indesiderati. Uno degli obiettivi principali dell'aggiunta di esempi few-shot nei prompt è mostrare al modello il formato della risposta. Pertanto, è essenziale garantire un formato coerente in tutti gli esempi, prestando particolare attenzione a tag XML, spazi bianchi, interruzioni di riga e separatori di esempi.
Aggiungi contesto
Puoi includere istruzioni e informazioni in un prompt che il modello deve utilizzare per risolvere un problema, anziché presumere che il modello disponga di tutte le informazioni richieste. Queste informazioni contestuali aiutano il modello a comprendere i vincoli e i dettagli di ciò che gli chiedi di fare.
L'esempio seguente chiede al modello di fornire indicazioni per la risoluzione dei problemi di un router:
What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly. A yellow blinking light on your Google Wifi router usually indicates a problem with the internet connection. Here are some steps to troubleshoot and fix the issue: 1. Restart your router and modem: - Unplug your modem from the power outlet and wait for 30 seconds. - Plug your modem back in and wait for it to fully boot up. - Unplug your Google Wifi router and wait for 30 seconds. - Plug your Google Wifi router back in and wait for it to fully boot up. ..... |
La risposta sembra contenere informazioni generiche per la risoluzione dei problemi che non sono specifiche del router o dello stato delle spie luminose a LED.
Per personalizzare la risposta per il router specifico, puoi aggiungere alla richiesta la guida alla risoluzione dei problemi del router come contesto a cui fare riferimento quando fornisci una risposta.
Answer the question using the text below. Respond with only the text provided. Question: What should I do to fix my disconnected wifi? The light on my Google Wifi router is yellow and blinking slowly. Text: Color: Slowly pulsing yellow What it means: There is a network error. What to do: Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. Color: Fast blinking yellow What it means: You are holding down the reset button and are factory resetting this device. What to do: If you keep holding down the reset button, after about 12 seconds, the light will turn solid yellow. Once it is solid yellow, let go of the factory reset button. Color: Solid yellow What it means: Router is factory resetting. What to do: This can take up to 10 minutes. When it's done, the device will reset itself and start pulsing white, letting you know it's ready for setup. Color: Solid red What it means: Something is wrong. What to do: Critical failure. Factory reset the router. If the light stays red, contact Wifi customer support. Check that the Ethernet cable is connected to both your router and your modem and both devices are turned on. You might need to unplug and plug in each device again. |
Aggiungi prefissi
Un prefisso è una parola o una frase che aggiungi ai contenuti del prompt e che può servire a diversi scopi, a seconda di dove lo inserisci:
- Prefisso di input: aggiunta di un prefisso alle parti dell'input semanticamente significative per il modello. Ad esempio, i prefissi "Inglese:" e "Francese:" delimitano due lingue diverse.
- Prefisso di output:anche se l'output viene generato dal modello, puoi aggiungere un prefisso per l'output nel prompt. Il prefisso di output fornisce al modello informazioni su cosa è previsto come risposta. Ad esempio, il prefisso "JSON:" indica al modello che l'output deve essere in formato JSON.
- Prefisso di esempio:nei prompt few-shot, l'aggiunta di prefissi agli esempi fornisce etichette che il modello può utilizzare per generare l'output, il che rende più facile analizzare i contenuti dell'output.
Nell'esempio seguente, "Text:" è il prefisso di input e "The answer is:" è il prefisso di output.
Classify the text as one of the following categories. - large - small Text: Rhino The answer is: large Text: Mouse The answer is: small Text: Snail The answer is: small Text: Elephant The answer is: The answer is: large |
Suddividere i prompt in componenti
Per i casi d'uso che richiedono prompt complessi, puoi aiutare il modello a gestire questa complessità suddividendo le cose in componenti più semplici.
Suddividi le istruzioni:invece di avere molte istruzioni in un unico prompt, crea un prompt per ogni istruzione. Puoi scegliere quale prompt elaborare in base all'input dell'utente.
Prompt concatenati:per attività complesse che prevedono più passaggi sequenziali, rendi ogni passaggio un prompt e concatena i prompt in una sequenza. In questa catena sequenziale di prompt, l'output di un prompt nella sequenza diventa l'input del prompt successivo. L'output dell'ultimo prompt della sequenza è l'output finale.
Aggregare le risposte:l'aggregazione si verifica quando vuoi eseguire diverse attività parallele su diverse porzioni di dati e aggregare i risultati per produrre l'output finale. Ad esempio, puoi indicare al modello di eseguire un'operazione sulla prima parte dei dati, un'altra operazione sul resto dei dati e aggregare i risultati.
Sperimenta con i parametri del modello
Ogni chiamata inviata a un modello include valori parametro che controllano il modo in cui il modello genera una risposta. Il modello può generare risultati diversi a seconda dei valori parametro. Sperimenta con diversi valori parametro per ottenere i valori migliori per l'attività. I parametri disponibili per i vari modelli possono variare. I parametri più comuni sono i seguenti:
Token di output massimi:specifica il numero massimo di token che possono essere generati nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.
Temperatura:la temperatura controlla il grado di casualità nella selezione dei token. La temperatura viene utilizzata per il campionamento durante la generazione della risposta, che si verifica quando vengono applicati
topP
etopK
. Le temperature più basse sono ideali per i prompt che richiedono una risposta più deterministica o meno aperta, mentre le temperature più alte possono portare a risultati più diversificati o creativi. Una temperatura pari a 0 è deterministica, il che significa che viene sempre selezionata la risposta con la probabilità più alta.topK
: il parametrotopK
modifica il modo in cui il modello seleziona i token per l'output. UntopK
pari a 1 indica che il token selezionato è il più probabile tra tutti i token nel vocabolario del modello (chiamato anche decodifica greedy). UntopK
pari a 3 indica invece che il token successivo viene selezionato tra i tre token più probabili (utilizzando la temperatura). Per ogni fase di selezione dei token, vengono campionati itopK
token con le probabilità più alte. I token vengono poi ulteriormente filtrati in base atopP
e il token finale viene selezionato utilizzando il campionamento con temperatura.topP
: il parametrotopP
modifica il modo in cui il modello seleziona i token per l'output. I token vengono selezionati dal più probabile al meno probabile finché la somma delle loro probabilità non corrisponde al valore ditopP
. Ad esempio, se i token A, B e C hanno una probabilità di 0,3, 0,2 e 0,1 e il valore ditopP
è 0,5, il modello seleziona A o B come token successivo utilizzando la temperatura ed esclude C come candidato. Il valore predefinito ditopP
è 0,95.stop_sequences
: imposta una sequenza di interruzione per indicare al modello di interrompere la generazione di contenuti. Una sequenza di interruzione può essere qualsiasi sequenza di caratteri. Cerca di evitare di utilizzare una sequenza di caratteri che potrebbe essere presente nei contenuti generati.
Strategie di iterazione dei prompt
A volte la progettazione dei prompt richiede alcune iterazioni prima di ottenere in modo coerente la risposta che stai cercando. Questa sezione fornisce indicazioni su alcune cose che puoi provare a fare quando esegui l'iterazione dei prompt:
Usa una formulazione diversa:l'utilizzo di parole o formulazioni diverse nei prompt spesso produce risposte diverse dal modello, anche se significano la stessa cosa. Se il prompt non produce i risultati che ti aspettavi, prova a riformularlo.
Version 1: How do I bake a pie? Version 2: Suggest a recipe for a pie. Version 3: What's a good pie recipe?
Passa a un'attività analoga: se non riesci a far seguire al modello le tue istruzioni per un'attività, prova a fornirgli istruzioni per un'attività analoga che ottenga lo stesso risultato.
Questo prompt indica al modello di classificare un libro utilizzando categorie predefinite:
Which category does The Odyssey belong to: thriller sci-fi mythology biography
The Odyssey belongs to the category of **mythology**. Here's why: * **Mythology:** The Odyssey tells the story of Odysseus, a hero from Greek mythology, and his journey home after the Trojan War. It features gods, monsters, and supernatural events common to Greek mythology. .....
La risposta è corretta, ma il modello non è rimasto nei limiti delle opzioni. Inoltre, vuoi che il modello risponda solo con una delle opzioni invece di una frase completa. In questo caso, puoi riformulare le istruzioni come una domanda a scelta multipla e chiedere al modello di scegliere un'opzione.
Multiple choice problem: Which of the following options describes the book The Odyssey? Options:
- thriller
- sci-fi
- mythology
- biography
The correct answer is mythology.
Modificare l'ordine dei contenuti del prompt:l'ordine dei contenuti nel prompt a volte può influire sulla risposta. Prova a modificare l'ordine dei contenuti e vedi come influisce sulla risposta.
Version 1: [examples] [context] [input] Version 2: [input] [examples] [context] Version 3: [examples] [input] [context]
Risposte di riserva
Una risposta di riserva è una risposta restituita dal modello quando il prompt o la risposta attiva un filtro di sicurezza. Un esempio di risposta di riserva è "Non posso aiutarti con questa richiesta, perché sono solo un modello linguistico".
Se il modello risponde con una risposta di riserva, prova ad aumentare la temperatura.
Cose da evitare
- Evita di fare affidamento sui modelli per generare informazioni fattuali.
- Utilizzalo con attenzione per problemi di matematica e logica.
Modelli generativi
Questa sezione ha lo scopo di rispondere alla domanda: le risposte dei modelli generativi sono casuali o deterministiche?
La risposta breve è sì a entrambe le domande. Quando richiedi un prompt a un modello generativo, una risposta di testo viene generata in due fasi. Nella prima fase, il modello generativo elabora il prompt di input e genera una distribuzione di probabilità sui possibili token (parole) che potrebbero seguire. Ad esempio, se inserisci il testo di input "The dog jumped over the ... ", il modello generativo produce un array di probabili parole successive:
[("fence", 0.77), ("ledge", 0.12), ("blanket", 0.03), ...]
Questo processo è deterministico: un modello generativo produrrà la stessa distribuzione ogni volta che viene inserito lo stesso testo del prompt.
Nella seconda fase, il modello generativo converte queste distribuzioni in risposte di testo effettive tramite una delle diverse strategie di decodifica. Una strategia di decodifica semplice potrebbe selezionare il token più probabile a ogni passo temporale. Questa procedura sarebbe sempre deterministica. Tuttavia, potresti scegliere di generare una risposta tramite un campionamento casuale nella distribuzione restituita dal modello. Questo processo sarebbe stocastico (casuale). Controlla il grado di casualità consentito in questo processo di decodifica impostando la temperatura. Una temperatura pari a 0 indica che vengono selezionati solo i token più probabili e non c'è casualità. Al contrario, una temperatura elevata introduce un alto grado di casualità nei token selezionati dal modello, portando a risposte più inaspettate e sorprendenti.
Passaggi successivi
- Ora che hai una conoscenza più approfondita della progettazione dei prompt, prova a scrivere i tuoi prompt utilizzando Google AI Studio.
- Per scoprire di più sui prompt multimodali, consulta la sezione Prompt con file multimediali.
- Per scoprire di più sul prompting di immagini, consulta la guida ai prompt di Imagen.
- Per scoprire di più sui prompt video, consulta la guida ai prompt di Veo.