AI Generatif

Dokumentasi dan referensi untuk membangun dan menerapkan aplikasi AI generatif dengan alat dan produk. Google Cloud

  • Mendapatkan akses ke Gemini 2.0 Flash Thinking
  • Penggunaan bulanan gratis untuk produk populer, termasuk AI API dan BigQuery
  • Tidak ada biaya otomatis, tanpa komitmen

Terus jelajahi dengan lebih dari 20 produk yang selalu gratis

Akses 20+ produk gratis untuk kasus penggunaan umum, termasuk API AI, VM, data warehouse, dan lainnya.

Mempelajari cara membangun aplikasi AI generatif

Akses model AI generatif berukuran besar dari Google sehingga Anda dapat menguji, menyesuaikan, dan men-deploy-nya untuk digunakan dalam aplikasi yang didukung AI.
Lihat cara mengirim permintaan ke Gemini API melalui platform AI-ML Google Cloud, Vertex AI.
Manfaatkan kecanggihan GKE sebagai platform AI/ML yang dapat disesuaikan dengan menampilkan penayangan dan pelatihan berperforma tinggi yang hemat biaya dengan opsi infrastruktur yang fleksibel dan skala yang terdepan di industri.
Identifikasi apakah AI generatif, AI tradisional, atau kombinasi keduanya mungkin sesuai dengan kasus penggunaan bisnis Anda.
Pelajari cara mengatasi tantangan di setiap tahap pengembangan aplikasi AI generatif.
Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.
Pelajari istilah khusus yang terkait dengan AI generatif.

Alat AI generatif

Daftar alat AI generatif termasuk Vertex AI Studio, Colab Enterprise/Notebooks, dan Workbench yang tercantum di bagian Konsol Cloud, serta SDK/API yang tercantum sebagai item terpisah.

Alur pengembangan AI generatif

Diagram alur pengembangan AI generatif dengan enam tahap: pemilihan model (termasuk Model Garden), rekayasa perintah (termasuk galeri perintah, Vertex AI Studio, bandingkan perintah, dan optimalkan perintah), penyesuaian (termasuk pelatihan dan penyesuaian), pengoptimalan (termasuk distilasi), deployment (termasuk Model Registry, prediksi online, dan prediksi batch), serta pemantauan. Tahap pemilihan model, pembuatan perintah, penyesuaian, dan pengoptimalan adalah bagian dari sub-siklus berulang yang diberi label Evaluasi.

Eksplorasi dan hosting model

Google Cloud menyediakan serangkaian model dasar canggih melalui Vertex AI, termasuk Gemini. Anda juga dapat men-deploy model pihak ketiga ke Vertex AI Model Garden atau menghosting sendiri di GKE atau Compute Engine.

Temukan, uji, sesuaikan, dan deploy model serta aset Google dari library model ML.
Temukan, uji, sesuaikan, dan deploy model serta aset OSS tertentu dari library model ML.
Pelajari cara men-deploy model pembuatan teks HuggingFace ke Vertex AI atau Google Kubernetes Engine (GKE).
Pasang GPU ke instance VM untuk mempercepat workload AI generatif di Compute Engine.

Desain dan rekayasa perintah

Desain prompt adalah proses penulisan pasangan perintah dan respons untuk memberikan konteks dan petunjuk tambahan kepada model bahasa. Setelah menulis perintah, Anda memasukkannya ke model sebagai set data perintah untuk pra-pelatihan. Saat menayangkan prediksi, model akan merespons dengan menyertakan petunjuk Anda.

Desain, uji, dan sesuaikan perintah yang dikirim ke model bahasa besar (LLM) Gemini dan PaLM 2 Google.
Pelajari alur kerja rekayasa prompt dan strategi umum yang dapat Anda gunakan untuk memengaruhi respons model.
Lihat contoh perintah dan respons untuk kasus penggunaan tertentu.

Grounding dan RAG

Perujukan menghubungkan model AI ke sumber data untuk meningkatkan akurasi respons dan mengurangi halusinasi. RAG, teknik perujukan umum, menelusuri informasi yang relevan dan menambahkannya ke perintah model, sehingga memastikan output didasarkan pada fakta dan informasi terbaru.

Anda dapat men-grounding model Vertex AI dengan Google Penelusuran atau dengan data Anda sendiri yang disimpan di Vertex AI Search.
Gunakan Grounding dengan Google Penelusuran untuk menghubungkan model dengan pengetahuan terbaru yang tersedia di internet.
Gunakan AlloyDB untuk membuat dan menyimpan embedding vektor, lalu mengindeks dan mengkueri embedding menggunakan ekstensi pgvector.
Simpan embedding vektor di Postgres SQL, lalu buat indeks dan kueri embedding menggunakan ekstensi pgvector.
Gunakan LangChain untuk mengekstrak data dari BigQuery serta memperkaya dan mendasari respons model Anda.
Buat embedding vektor dari data Firestore Anda, lalu buat indeks dan kueri embedding.
Gunakan LangChain untuk mengekstrak data dari Memorystore serta memperkaya dan merujuk respons model Anda.

Agen dan panggilan fungsi

Agen memudahkan Anda mendesain dan mengintegrasikan antarmuka pengguna percakapan ke dalam aplikasi seluler, sementara panggilan fungsi memperluas kemampuan model.

Manfaatkan model dasar, keahlian penelusuran, dan teknologi AI percakapan Google untuk aplikasi AI generatif tingkat perusahaan.
Tambahkan panggilan fungsi ke model Anda untuk mengaktifkan tindakan seperti membuat reservasi berdasarkan informasi kalender yang diekstrak.

Penyesuaian dan pelatihan model

Tugas khusus, seperti melatih model bahasa dengan terminologi tertentu, mungkin memerlukan lebih banyak pelatihan daripada yang dapat Anda lakukan hanya dengan desain perintah atau perujukan. Dalam skenario tersebut, Anda dapat menggunakan penyesuaian model untuk meningkatkan performa, atau melatih model Anda sendiri.

Mengevaluasi performa model dasar dan model AI generatif yang telah disesuaikan di Vertex AI.
Model dasar serbaguna dapat memperoleh manfaat dari penyesuaian untuk meningkatkan performanya pada tugas tertentu.
TPU adalah ASIC yang dikembangkan khusus dari Google dan digunakan untuk mempercepat workload machine learning, seperti melatih LLM.

Mulai membuat aplikasi

LangChain adalah framework open source untuk aplikasi AI generatif yang memungkinkan Anda membangun konteks ke dalam perintah, dan mengambil tindakan berdasarkan respons model.
Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.