AI 工具在中国为什么慢:诊断与判断指南

阅读时间约 6 分钟。涉及 ChatGPT、Claude、Gemini 等以美国为主要服务区的 AI 工具。

一、AI 工具对网络的特殊要求

与浏览网页或看视频不同,AI 工具对网络有三个独特的要求:

  1. 持续的低延迟:对话型 AI 用流式响应(SSE / WebSocket), 模型每生成几个 token 就要推一次给你。任何一段网络卡顿都会变成"打字机暂停"。
  2. 长连接稳定性:长 prompt 或长回答可能一次会话持续几十秒甚至几分钟, 期间任何一次连接中断都会让回答中途断掉。
  3. 抖动敏感度高:相比平均延迟,抖动的影响更大。 平均 200 ms 但抖动 30 ms 的网络,体验比平均 300 ms 但抖动 5 ms 的网络更差

所以测 AI 工具的网络,不能只看下载带宽,要重点看美西延迟 + 抖动

二、用 CrossNet 测一次

打开 CrossNet 主页跑一次完整测速,重点关注两个指标:

(ChatGPT 主服务器在美国,Gemini 也在美国,Claude 主区域同样在美国,所以美西节点的延迟最具代表性。)

三、判读表

美西 ping抖动体验预期
< 200 ms< 20 ms流式输出非常顺,几乎感觉不到延迟
200-300 ms< 50 ms对话流畅,长回答偶尔会有 1-2 秒停顿
300-500 ms50-100 ms明显感到打字机一卡一卡,长 prompt 偶尔超时
> 500 ms> 100 ms体验差,长回答容易中断,需要重试
下载< 1 Mbps 几乎无影响(AI 流式数据量很小)

四、常见症状对照

"打字机停顿明显,回答出来一段后突然卡几秒"

典型的抖动大症状。CrossNet 测出抖动 > 50 ms 时基本能复现。 解法:换时段(深夜抖动通常显著小)或换 ISP / 物理位置(写字楼比家里抖动通常稳定)。

"长回答到一半就断了,要点 retry"

可能是连接被中断:一种是延迟超过服务端 timeout 阈值(多数 AI 服务设的是 60 秒空闲), 另一种是 TCP 连接被中间链路 reset。 用 CrossNet 测,如果显示部分海外节点频繁超时,说明你的国际出口当前不稳,建议换时段。

"按下回车后等几秒才开始出字"

这是首字时间(TTFT, Time To First Token)过长。 它由网络 RTT + 服务端排队 + 模型 prefill 三部分组成。 如果 CrossNet 测出美西 ping 正常但首字仍慢,问题不在你的网络,而在 AI 服务端排队(高峰期 ChatGPT 经常如此)。

"国内大模型不慢,跨境的 AI 全慢"

国内大模型(豆包、文心、通义、Kimi、智谱等)的 API 在国内 IDC,延迟通常 < 50 ms,体验自然完全不同。 这不是 ChatGPT 等的"AI 模型本身慢",而是跨境网络导致的。

五、提升 AI 工具体验的几个思路

  1. 挑时段:深夜 / 清晨用国外 AI 工具体验明显更好,是因为跨境出口更空闲,且美西的服务端用户数也少。
  2. 挑工作环境:家庭宽带的国际出口波动较大,写字楼专线的稳定性通常好得多。 CrossNet 在两个地方各测一次,差距常常意外的大。
  3. 选支持就近 region 的 AI 服务:如 Anthropic Claude API 现在有亚洲区域, OpenAI Azure 部署也有日本、新加坡 region;商用部署时选这些区域延迟立减一半。
  4. 关闭流式输出:API 调用时若不需要流式,关闭 stream 模式可以减少对网络抖动的敏感度—— 慢一点但不会"一卡一卡",反而对脚本批量调用更稳。
  5. 避免超大 prompt:跨境网络下,把 50K 字 prompt 分批发,比一次性塞 200K 更不容易超时中断。

六、CrossNet 不能解决什么

本工具只测速,不提供任何代理 / 加速 / 网络转发服务。 如果你的工作高度依赖跨境 AI 工具,体验始终不达标,常规思路是:

七、给开发者的额外建议

如果你是在做 AI 应用集成(OpenAI / Anthropic / Google API 调用):

本文为 CrossNet 原创内容。文中提到的服务名称归各自公司所有。测速结果仅供参考。