产品详细介绍

Vertex AI 是 Google Cloud 推出的企业级统一 AI 开发平台,将数据、模型、工具和基础设施整合在同一平台上,帮助企业快速构建和管理生成式 AI 与传统机器学习应用。平台提供 Vertex AI Studio、Agent Builder、Model Garden、训练与预测服务、MLOps 工具链等完整能力,适用于从原型验证到大规模生产部署的全生命周期场景。

  1. 支持 Gemini 3 等最新多模态大模型
    Vertex AI 提供对 Google 最新 Gemini 模型家族(包括 Gemini 3)的访问能力。Gemini 模型具备强大的推理、代码生成和多模态理解能力,能够处理文本、图片、视频和代码等多种输入,并生成多种形式的输出。开发者可以在 Vertex AI Studio 中直接对 Gemini 进行提示工程和测试,例如:
  • 从图片中提取文字并结构化为 JSON;
  • 将图片中的文本内容转换为可解析数据;
  • 针对上传的图片生成问答或说明,用于构建下一代智能应用。
  1. Model Garden:丰富的一方、三方与开源模型
    在 Model Garden 中,用户可以选择多种来源的模型:
  • 一方模型:Gemini、Imagen(图像生成)、Chirp(语音)、Veo(视频)等 Google 模型;
  • 三方模型:如 Anthropic 的 Claude 模型家族;
  • 开源模型:如 Gemma、Llama 3.2 等。
    通过扩展(Extensions),模型可以连接实时信息源和外部系统,实现检索实时数据、调用业务 API、触发工作流等能力。平台还提供多种微调与定制选项,便于针对特定行业或企业数据进行模型定制。
  1. 统一的生成式 AI 评估与治理能力
    Vertex AI 提供企业级的生成式 AI 评估服务(Vertex AI Evaluation),支持对模型进行客观、数据驱动的评估,包括:
  • 输出质量与相关性评估;
  • 安全性与合规性检查;
  • 不同模型与配置之间的对比测试。
    这些工具帮助企业在上线前充分验证模型表现,降低风险,提升可控性和可解释性。
  1. 一体化训练、调优与部署平台
    Vertex AI 为数据科学家和机器学习工程师提供完整的训练与部署工具:
  • Vertex AI Training:支持主流开源框架(如 TensorFlow、PyTorch、XGBoost 等),结合 Google 优化的 AI 基础设施,缩短训练时间;
  • Vertex AI Prediction:提供可扩展的在线预测与批量预测服务,简化模型上线与扩容;
  • Notebook 集成:支持 Colab Enterprise 和 Workbench,与 BigQuery 原生集成,在同一界面完成数据探索、特征工程和模型开发。
  1. 完备的 MLOps 工具链与协作能力
    Vertex AI 平台内置面向企业的 MLOps 能力,帮助团队标准化和自动化机器学习项目管理:
  • Vertex AI Pipelines:编排端到端 ML/AI 工作流,实现训练、评估、部署等步骤的自动化;
  • Model Registry:集中管理各类模型(包括外部模型),支持版本控制、审批与发布;
  • Feature Store:统一管理和复用特征,支持跨项目、跨团队共享,提升特征一致性和复用率;
  • 监控与告警:监测输入分布偏移(input skew)、数据漂移(drift)等问题,帮助及时发现模型性能下降并触发再训练流程。
  1. Vertex AI Agent Builder:企业级智能代理平台
    Vertex AI Agent Builder 是构建企业级智能代理(Agent)的开放平台,帮助企业基于自身数据快速搭建、扩展和治理智能代理系统:
  • 支持将企业内部文档、知识库、业务系统数据与大模型深度结合;
  • 提供从对话编排、工具调用到权限与安全控制的全栈能力;
  • 适用于客服助手、业务流程自动化、知识问答、智能运营等多种场景。
    借助 Agent Builder,企业可以在全球范围内大规模部署可靠的智能代理系统,提升业务效率和用户体验。
  1. 统一数据与 AI:加速企业 AI 落地
    Vertex AI 与 Google Cloud 的数据产品(如 BigQuery)深度集成,提供统一的数据与 AI 工作面:
  • 在同一环境中完成数据仓库分析、特征工程和模型训练;
  • 利用 BigQuery 中的数据直接驱动模型开发和评估;
  • 通过统一权限与审计机制,提升数据安全与合规性。
    新用户还可获得最高 300 美元的免费额度,用于试用 Vertex AI 及其他 Google Cloud 产品,加速从试验到生产的过渡。

简单使用教程

以下是基于 Vertex AI 快速上手构建生成式 AI 应用的简明步骤示例(以使用 Gemini 模型为例):

  1. 开通 Vertex AI 并创建项目
  • 登录 Google Cloud 控制台,创建或选择现有 GCP 项目;
  • 在“APIs & Services”中启用 Vertex AI 相关 API;
  • 确保项目已绑定结算账号,新用户可使用赠送的免费额度进行试用。
  1. 进入 Vertex AI 控制台与 Vertex AI Studio
  • 在左侧导航中找到“Vertex AI”,进入平台主页;
  • 点击进入 Vertex AI Studio,这是进行提示工程、模型测试和原型设计的可视化界面;
  • 在 Studio 中选择“Gemini”或其他所需模型(如 Claude、Gemma、Llama 3.2 等)。
  1. 在 Vertex AI Studio 中测试 Gemini 模型
  • 选择合适的模式(文本、聊天、多模态等);
  • 在提示框中输入你的需求,例如:
    • 文本问答:输入业务问题或文档摘要需求;
    • 图像理解:上传图片并输入“请提取图片中的文字并输出为 JSON”;
    • 代码辅助:输入代码片段并请求解释或重构建议;
  • 调整温度、最大输出长度等参数,观察不同配置下的输出效果;
  • 使用内置示例提示(sample prompts)快速体验常见场景。
  1. 从原型到应用:使用 Gemini API 或 SDK 集成
  • 在 Vertex AI 控制台中获取对应模型的调用方式(REST、Python、Java 等);
  • 在应用后端中配置服务账号和凭证,确保具备调用 Vertex AI 的权限;
  • 按文档示例构造请求体(包含 prompt、模型名称、参数等),调用 Gemini API;
  • 在应用中处理模型返回结果,例如将 JSON 解析为结构化数据,或将回答展示在前端界面。
  1. 使用 Agent Builder 构建企业智能代理(可选)
  • 在 Vertex AI 控制台中进入 Agent Builder
  • 连接企业数据源(如文档库、知识库、数据库或 API);
  • 配置代理的角色、工具调用逻辑和安全策略;
  • 在控制台中测试对话流程,确认代理能正确检索信息和执行操作;
  • 将代理通过 API、Webhook 或现成集成(如网页小组件、客服系统)接入实际业务场景。
  1. 训练与部署自定义模型(传统 ML 或微调)
  • 在 BigQuery 或 Notebook 中准备和清洗训练数据;
  • 使用 Vertex AI Training 提交训练任务,选择合适的计算资源和框架;
  • 训练完成后,将模型注册到 Model Registry,进行版本管理;
  • 使用 Vertex AI Prediction 部署在线或批量预测服务,对接业务系统;
  • 通过监控与 Vertex AI Evaluation 持续评估模型表现,必要时触发再训练或参数调整。
  1. 构建端到端 MLOps 流程(进阶)
  • 使用 Vertex AI Pipelines 定义从数据准备、训练、评估到部署的完整流水线;
  • 将流水线与 CI/CD 系统集成,实现模型的自动化更新与回滚;
  • 借助 Feature Store 管理和复用特征,确保线上线下一致;
  • 配置输入偏移和数据漂移监控,及时发现模型性能问题并进行修复。

通过以上步骤,团队可以在 Vertex AI 上快速完成从模型选型、原型验证到生产部署和持续运营的全流程,加速生成式 AI 与机器学习在企业中的落地与规模化应用。