Memory Bank di Vertex AI Agent Engine ti consente di generare dinamicamente ricordi a lungo termine in base alle conversazioni degli utenti con il tuo agente. I ricordi a lungo termine sono informazioni personalizzate a cui un determinato utente può accedere in più sessioni. L'agente può utilizzare i ricordi per personalizzare le risposte all'utente e creare una continuità tra le sessioni.
Le funzionalità di Banca della Memoria includono:
Archiviazione permanente dei ricordi a cui è possibile accedere da più ambienti. Puoi utilizzare Sessioni e Memory Bank di Vertex AI Agent Engine con l'agente di cui è stato eseguito il deployment su Vertex AI Agent Engine, dal tuo ambiente locale o con altre opzioni di deployment.
Estrazione dei ricordi dalle sessioni basata su modelli linguistici di grandi dimensioni (LLM).
I ricordi vengono generati in remoto in modo asincrono, quindi l'agente non deve attendere la generazione dei ricordi.
Recupero di ricordi basato sulla ricerca per somiglianza con ambito limitato a un utente.
Se utilizzi la banca della memoria di Vertex AI Agent Engine con Agent Development Kit, l'agente legge e scrive automaticamente le memorie a lungo termine.
Memory Bank si integra con le sessioni di Vertex AI Agent Engine per generare ricordi dalle sessioni archiviate utilizzando la seguente procedura:
(Sessioni)
CreateSession
: all'inizio di ogni conversazione, crea una nuova sessione. La cronologia delle conversazioni utilizzata dall'agente è limitata a questa sessione. Una sessione contiene la sequenza cronologica di messaggi e azioni (SessionEvents
) per un'interazione tra un utente e il tuo agente. Tutte le sessioni devono avere un ID utente; i ricordi estratti (vediGenerateMemories
) per questa sessione vengono mappati a questo utente.(Sessioni)
AppendEvent
: man mano che l'utente interagisce con l'agente, gli eventi (ad esempio messaggi dell'utente, risposte dell'agente, azioni degli strumenti) vengono caricati in Sessioni. Gli eventi mantengono la cronologia delle conversazioni e creano un record della conversazione che può essere utilizzato per generare ricordi.(Sessioni)
ListEvents
: man mano che l'utente interagisce con l'agente, quest'ultimo recupera la cronologia delle conversazioni.(Banca dei ricordi) Generare o creare ricordi:
GenerateMemories
: a un intervallo specificato (ad esempio alla fine di ogni sessione o di ogni turno), l'agente può attivare la generazione di ricordi utilizzando la cronologia delle conversazioni. I fatti relativi all'utente vengono estratti automaticamente dalla cronologia delle conversazioni in modo che siano disponibili per le sessioni attuali o future.CreateMemory
: il tuo agente può scrivere ricordi direttamente in Banca della Memoria. Ad esempio, l'agente può decidere quando scrivere un ricordo e quali informazioni salvare (memoria come strumento). UtilizzaCreateMemory
quando vuoi che l'agente abbia un maggiore controllo sui fatti estratti.
(Memory Bank)
RetrieveMemories
: man mano che l'utente interagisce con l'agente, quest'ultimo può recuperare i ricordi salvati sull'utente. Puoi recuperare tutti i ricordi (recupero semplice) o solo quelli più pertinenti alla conversazione corrente (recupero tramite ricerca di similarità). Poi puoi inserire i ricordi recuperati nel prompt.
Guide rapide
Inizia a utilizzare Memory Bank con le seguenti guide rapide:
Guida rapida che utilizza l'API REST: segui la guida rapida all'API REST per effettuare chiamate API direttamente a Sessioni e Memory Bank di Vertex AI Agent Engine.
Guida rapida all'utilizzo di Agent Development Kit (ADK): segui la guida rapida di Agent Development Kit (ADK) se vuoi che l'agente ADK orchestri le chiamate a Sessioni di Vertex AI Agent Engine e Memory Bank per te.
Rischi per la sicurezza dell'injection di prompt
Oltre alle responsabilità in materia di sicurezza descritte in Responsabilità condivisa di Vertex AI, considera il rischio di prompt injection e memory poisoning che possono influire sul tuo agente quando utilizzi le memorie a lungo termine. L'avvelenamento della memoria si verifica quando vengono memorizzate informazioni false in Memory Bank. L'agente potrebbe quindi operare su queste informazioni false o dannose nelle sessioni future.
Per ridurre il rischio di memory poisoning, puoi procedere nel seguente modo:
Model Armor: utilizza Model Armor per esaminare i prompt inviati a Memory Bank o dal tuo agente.
Test avversariale: testa in modo proattivo la tua applicazione LLM per verificare la presenza di vulnerabilità di prompt injection simulando attacchi. Questa procedura è in genere nota come "red teaming".
Esecuzione in sandbox: se l'agente ha la possibilità di eseguire o interagire con sistemi esterni o critici, queste azioni devono essere eseguite in un ambiente sandbox con un rigoroso controllo dell'accesso e una revisione umana.
Per ulteriori informazioni, consulta L'approccio di Google per gli agenti di AI sicuri.