AI generativa

Documentazione e risorse per la creazione e l'implementazione di applicazioni di AI generativa con Google Cloud strumenti e prodotti.

  • Accedi a Gemini 2.0 Flash Thinking
  • Utilizzo mensile gratuito dei prodotti più apprezzati, tra cui API di AI e BigQuery
  • Nessun addebito automatico, nessun impegno

Continua a esplorare con oltre 20 prodotti sempre gratis

Accedi a oltre 20 prodotti gratuiti per casi d'uso comuni, tra cui API AI, VM, data warehouse e altro ancora.

Scopri di più sulla creazione di applicazioni di AI generativa

Accedi ai grandi modelli di AI generativa di Google in modo da poterli testare, ottimizzare ed eseguire il deployment per utilizzarli nelle tue applicazioni basate sull'AI.
Scopri com'è inviare richieste all'API Gemini tramite Vertex AI, la piattaforma AI/ML di Google Cloud.
Sfrutta la potenza di GKE come piattaforma AI/ML personalizzabile con serving e addestramento ad alte prestazioni ed economicamente vantaggiosi, con scalabilità leader del settore e opzioni di infrastruttura flessibili.
Identifica se l'AI generativa, l'AI tradizionale o una combinazione di entrambe potrebbe essere adatta al tuo caso d'uso aziendale.
Scopri come affrontare le sfide in ogni fase di sviluppo di un'applicazione di AI generativa.
Visualizza esempi di codice per casi d'uso comuni e implementa esempi di applicazioni di AI generativa sicure, efficienti, resilienti, ad alto rendimento ed economiche.
Scopri di più sui termini specifici associati all'AI generativa.

Strumenti di AI generativa

Elenco di strumenti di AI generativa, tra cui Vertex AI Studio, Colab Enterprise/Notebooks e Workbench elencati in Cloud Console e SDK/API elencati come elemento separato.

Flusso di sviluppo dell'AI generativa

Diagramma del flusso di sviluppo dell'AI generativa con sei fasi: selezione del modello (incluso Model Garden), ingegneria dei prompt (inclusi galleria dei prompt, Vertex AI Studio, confronto dei prompt e ottimizzazione dei prompt), ottimizzazione (inclusi addestramento e ottimizzazione), ottimizzazione (inclusa la distillazione), deployment (inclusi Model Registry, previsione online e previsione batch) e monitoraggio. Le fasi di selezione del modello, prompt engineering, ottimizzazione e messa a punto fanno parte di un sottociclo in loop etichettato Valutazione.

Esplorazione e hosting del modello

Google Cloud fornisce un insieme di modelli di base all'avanguardia tramite Vertex AI, incluso Gemini. Puoi anche eseguire il deployment di un modello di terze parti in Vertex AI Model Garden o eseguire l'hosting autonomo su GKE o Compute Engine.

Scopri, testa, personalizza ed esegui il deployment di modelli e asset Google da una libreria di modelli di ML.
Scopri, testa, personalizza ed esegui il deployment di modelli e asset OSS selezionati da una libreria di modelli di machine learning.
Scopri come eseguire il deployment dei modelli di generazione di testo HuggingFace su Vertex AI o Google Kubernetes Engine (GKE).
Collega le GPU alle istanze VM per accelerare i carichi di lavoro di AI generativa su Compute Engine.

Progettazione e ingegneria dei prompt

La progettazione dei prompt è il processo di creazione di coppie di prompt e risposte per fornire ai modelli linguistici contesto e istruzioni aggiuntivi. Dopo aver creato i prompt, li fornisci al modello come set di dati di prompt per il pre-addestramento. Quando un modello fornisce previsioni, risponde con le istruzioni integrate.

Progetta, testa e personalizza i prompt inviati ai modelli linguistici di grandi dimensioni (LLM) Gemini e PaLM 2 di Google.
Scopri il flusso di lavoro di prompt engineering e le strategie comuni che puoi utilizzare per influire sulle risposte del modello.
Visualizza esempi di prompt e risposte per casi d'uso specifici.

Grounding e RAG

Il grounding collega i modelli di AI a origini dati per migliorare l'accuratezza delle risposte e ridurre le allucinazioni. La RAG, una tecnica di grounding comune, cerca informazioni pertinenti e le aggiunge al prompt del modello, garantendo che l'output si basi su fatti e informazioni aggiornate.

Puoi basare i modelli Vertex AI sulla Ricerca Google o sui tuoi dati archiviati in Vertex AI Search.
Utilizza Grounding con la Ricerca Google per collegare il modello alle conoscenze aggiornate disponibili su internet.
Utilizza AlloyDB per generare e archiviare gli incorporamenti vettoriali, quindi indicizza ed esegui query sugli incorporamenti utilizzando l'estensione pgvector.
Archivia gli incorporamenti vettoriali in Postgres SQL, quindi indicizza ed esegui query sugli incorporamenti utilizzando l'estensione pgvector.
Utilizza LangChain per estrarre dati da BigQuery e arricchire e basare le risposte del modello.
Crea vector embedding dai tuoi dati Firestore, quindi indicizza ed esegui query sugli embedding.
Utilizza LangChain per estrarre dati da Memorystore e arricchire e basare le risposte del modello.

Agenti e chiamata di funzione

Gli agenti semplificano la progettazione e l'integrazione di un'interfaccia utente conversazionale nella tua app mobile, mentre la chiamata di funzioni estende le funzionalità di un modello.

Sfrutta i foundation model, l'esperienza di ricerca e le tecnologie di AI conversazionale di Google per applicazioni di AI generativa di livello enterprise.
Aggiungi la chiamata di funzione al tuo modello per attivare azioni come la prenotazione in base alle informazioni del calendario estratte.

Personalizzazione e addestramento dei modelli

Attività specializzate, come l'addestramento di un modello linguistico su una terminologia specifica, potrebbero richiedere un addestramento più approfondito rispetto a quello che puoi fare solo con la progettazione o la fondatezza dei prompt. In questo scenario, puoi utilizzare l'ottimizzazione del modello per migliorare le prestazioni o addestrare il tuo modello.

Valuta le prestazioni dei foundation model e dei modelli di AI generativa ottimizzati su Vertex AI.
I foundation model per uso generico possono trarre vantaggio dall'ottimizzazione per migliorare le loro prestazioni in attività specifiche.
Le TPU (Tensor Processing Unit) sono i circuiti integrati per applicazioni specifiche (ASIC) di Google sviluppati appositamente per accelerare i carichi di lavoro di machine learning, ad esempio l'addestramento di un LLM.

Inizia a creare

LangChain è un framework open source per app di AI generativa che ti consente di creare contesto nei prompt e di intraprendere azioni in base alla risposta del modello.
Visualizza esempi di codice per casi d'uso comuni e implementa esempi di applicazioni di AI generativa sicure, efficienti, resilienti, ad alte prestazioni ed economiche.