国际站
    控制台
    • 产品简介
    • 快速开始
      • 导入 Git 仓库
      • 从模板开始
      • 直接上传
      • 从 AI 开始
    • 框架指南
      • 前端
        • Vite
        • React
        • Vue
        • 其他框架
      • 后端
      • 全栈
        • Next.js
        • Nuxt
        • Astro
        • React Router
        • SvelteKit
      • 自定义 404 页面
    • 项目指南
      • 项目管理
      • edgeone.json
      • 缓存配置
      • 错误码
    • 构建指南
    • 部署指南
      • 概览
      • 触发部署
      • 管理部署
      • 部署按钮
      • 使用 Github Action
      • 使用 CNB 插件
      • 使用 IDE 插件
      • 使用 CodeBuddy IDE
    • 域名管理
      • 概览
      • 自定义域名
      • HTTPS 配置
        • 概览
        • 申请免费证书
        • 使用 SSL 托管证书
      • 配置 DNS 的 CNAME 记录
    • 可观测性
      • 概述
      • 指标分析
      • 日志分析
    • Pages Functions
      • 概览
      • Edge Functions
      • Cloud Functions
        • 概览
        • Node Functions
    • KV 存储
    • 边缘 AI
    • API Token
    • EdgeOne CLI
    • Pages MCP
    • 集成指南
      • AI
        • 对话型大模型集成
        • 图片大模型集成
      • 数据库
        • Supabase 集成
        • Pages KV 集成
      • 电商
        • WooCommerce 集成
        • Shopify 集成
      • 支付
        • Stripe 集成
        • Paddle 集成指南
      • CMS
        • Sanity 集成
        • Contentful 集成
        • WordPress 集成
      • 身份验证
        • Supabase 集成
        • Clerk 集成
    • 最佳实践
      • 使用边缘 AI 模型快速搭建对话型 AI 站点
      • 使用 Shopify 搭建电商平台
      • 使用 Supabase 和 Stripe 搭建 SaaS 站点
      • 如何快速搭建公司品牌站点
      • 如何快速搭建博客站点
      • 使用通用大模型快速搭建AI应用
    • 迁移指南
      • 从 Vercel 迁移至 EdgeOne Pages:优化您在中国区域的网站部署
      • 从 Cloudflare Pages 迁移至 EdgeOne Pages:优化您在中国区域的网站部署
      • 从 Netlify 迁移至 EdgeOne Pages:优化您在中国区域的网站部署
    • 排障指南
    • 常见问题
    • 联系我们
    • 产品动态

    边缘 AI

    概述

    EdgeOne 将 AI 服务部署至全球边缘节点,为开发者提供低延迟、高性能、零运维的 AI 推理能力。这一功能旨在解决传统云端 AI 服务面临的延迟高、成本高等问题,让 Pages 用户能够更便捷地在其应用中集成 AI 功能,提升用户体验并降低开发和运维成本。
    
    目前,我们已在全球边缘节点部署了 DeepSeek 系列模型,使 Pages 项目能够快速接入和使用 AI 能力。所有用户均可免费体验该服务,您只需通过简单的 API 调用即可在网站中集成智能对话功能。
    

    核心优势

    即开即用的模型服务
    预置优化版 DeepSeek 系列模型
    从 Pages Functions 直接调用 AI 模型
    无需处理模型部署、版本管理等运维工作
    低延迟响应保障
    请求自动路由至最近边缘节点
    支持流式传输(streaming)降低首字延迟
    内置连接复用与传输优化
    无缝集成开发体验
    与 EdgeOne Pages 项目无缝集成
    自动继承域名与 HTTPS 配置
    提供标准化 API 调用模板
    

    接入流程

    1. 在 Pages 控制台点击“创建项目”
    2. 选择“DeepSeek for Edge”模板进行部署
    3. 将仓库克隆至本地,在项目的边缘函数中,以下示例代码即为调用 AI 模型的核心模块
    // 在边缘函数中(示例路径:/functions/v1/chat/completions/index.js)
    export async function onRequestPost({ request }) {
    // 解析用户输入
    const { content } = await request.json();
    
    try {
    // 调用边缘 AI 服务
    const response = await AI.chatCompletions({
    model: '@tx/deepseek-ai/deepseek-v3-0324',
    messages: [{ role: 'user', content }],
    stream: true, // 启用流式输出
    });
    
    // 返回流式响应
    return new Response(response, {
    headers: {
    'Content-Type': 'text/event-stream',
    'Cache-Control': 'no-cache',
    'Connection': 'keep-alive',
    'Access-Control-Allow-Origin': '*',
    'Access-Control-Allow-Methods': 'POST, OPTIONS',
    'Access-Control-Allow-Headers': 'Content-Type, Authorization',
    }
    });
    } catch (error) {
    return new Response(JSON.stringify({
    error: 'AI_SERVICE_ERROR',
    message: error.message
    }), { status: 503 });
    }
    }
    
    可选模型如下:
    模型 ID
    每日调用次数限制
    @tx/deepseek-ai/deepseek-v3-0324
    50
    @tx/deepseek-ai/deepseek-r1-0528
    20
    

    注意事项

    当前有API调用频率限制,请合理控制请求速度
    建议实现错误处理机制,提高应用稳定性
    禁止用于生成违法内容、高频自动化请求等场景
    当前为限时免费 Beta 服务,正式商用时间另行通知
    
    最佳实践可参考另一篇文档 使用边缘 AI 模型快速搭建对话型 AI 站点