AI responsabile

Questa guida descrive le funzionalità di AI responsabile in Vertex AI, le potenziali limitazioni del modello e le best practice per lo sviluppo di applicazioni di AI generativa in modo sicuro e responsabile. Questa pagina tratta i seguenti argomenti:

  • Filtri di sicurezza e attributi: scopri di più sul filtro dei contenuti e sul punteggio degli attributi di sicurezza integrati disponibili nelle API di AI generativa di Vertex AI.
  • Limitazioni del modello: comprendi i potenziali limiti dei modelli generativi, come allucinazioni, bias e competenze di dominio limitate.
  • Pratiche consigliate: segui i passaggi consigliati per valutare i rischi per la sicurezza, eseguire test di sicurezza e monitorare la tua applicazione.
  • Segnala un comportamento illecito: scopri come segnalare un sospetto comportamento illecito o contenuti generati inappropriati.

Quando integri le API generative nel tuo caso d'uso e nel tuo contesto, potresti dover prendere in considerazione ulteriori fattori e limitazioni dell'AI responsabile. Per promuovere l'equità, l'interpretabilità, la privacy e la sicurezza, segui le best practice consigliate.

Filtri di sicurezza e attributi

Per scoprire come utilizzare filtri e attributi di sicurezza per un'API, consulta API Gemini in Vertex AI.

Limitazioni del modello

I modelli di AI generativa presentano limitazioni che potresti riscontrare, tra cui:

  • Casi limite: situazioni insolite, rare o eccezionali che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni delle prestazioni, come l'eccessiva sicurezza del modello, l'interpretazione errata del contesto o la generazione di output inappropriati.

  • Allucinazioni, fondatezza e veridicità del modello: i modelli di AI generativa possono produrre output che sembrano plausibili ma sono errati perché possono mancare di conoscenza del mondo reale o di una comprensione accurata delle proprietà fisiche. Per ridurre le allucinazioni, puoi basare i modelli sui tuoi dati specifici. Per saperne di più, consulta la panoramica del grounding.

  • Qualità e ottimizzazione dei dati: la qualità, l'accuratezza e la distorsione del prompt o dei dati di input influiscono in modo significativo sulle prestazioni del modello. Input imprecisi o distorti possono portare a un rendimento non ottimale o a output falsi.

  • Amplificazione dei bias: i modelli di AI generativa possono amplificare i bias esistenti nei dati di addestramento, generando output che rafforzano i pregiudizi sociali e il trattamento iniquo di determinati gruppi.

  • Qualità della lingua: le prestazioni del modello possono variare a seconda delle lingue, dei dialetti e delle varietà linguistiche. Le lingue o i dialetti sottorappresentati nei dati di addestramento potrebbero avere un rendimento inferiore. Sebbene i modelli abbiano capacità multilingue impressionanti, la maggior parte dei benchmark, comprese tutte le valutazioni di equità, sono in inglese. Per ulteriori informazioni, consulta il blog di Google Research.

  • Benchmark e sottogruppi di equità: le analisi di equità di Google Research non coprono tutti i potenziali rischi. Ad esempio, le analisi si concentrano sui pregiudizi relativi a genere, razza, etnia e religione, ma utilizzano solo dati e output del modello in lingua inglese. Per ulteriori informazioni, consulta il blog di Google Research.

  • Competenze di dominio limitate: i modelli possono non avere le conoscenze approfondite necessarie per argomenti altamente specializzati o tecnici, il che può portare a informazioni superficiali o errate. Per casi d'uso specializzati, valuta la possibilità di ottimizzare i modelli in base a dati specifici del dominio e di includere una supervisione umana significativa, soprattutto in contesti che possono influire sui diritti individuali.

  • Lunghezza e struttura di input e output: i modelli hanno un limite massimo di token (parti di parole) per input e output. Se l'input o l'output supera questo limite, il modello non applica i classificatori di sicurezza, il che può comportare prestazioni scadenti del modello. Inoltre, strutture di dati di input insolite o complesse possono influire negativamente sulle prestazioni.

Per utilizzare questa tecnologia in modo sicuro e responsabile, considera i rischi specifici del tuo caso d'uso, oltre alle protezioni tecniche integrate.

Ti consigliamo di procedere nel seguente modo:

  1. Valuta i rischi per la sicurezza della tua applicazione.
  2. Esegui test di sicurezza appropriati per il tuo caso d'uso.
  3. Configura i filtri di sicurezza, se necessario.
  4. Richiedi il feedback degli utenti e monitora i contenuti.

Segnala abuso

Per segnalare un sospetto abuso del servizio o qualsiasi output generato che contenga materiale inappropriato o informazioni imprecise, utilizza il modulo Segnala un sospetto abuso su Google Cloud.

Risorse aggiuntive