Vibe Coding 不是玄学:我用 Google I/O 的思路,3步从零跑通了一个 AI Demo

你也看到那个演示了吗?

Google I/O 上,台上的工程师打开一个空白编辑器,用自然语言说了几句话,几秒钟后一个可以运行的 app 就出现在屏幕上。没有敲代码,没有查文档,就像在跟一个懂你的同事说"帮我做个这个",然后它真的做出来了。

我当时的第一反应是:这不可能是真的。

要么是提前准备好的脚本,要么是剪掉了中间反复调试的过程,要么就是——这东西只有 Google 内部才能用到的能力。

然后我去验证了。

这篇文章不是新闻转述,不是"Google I/O 十大亮点盘点"。这是一篇实操复盘:我按照演示的思路,实际跑了一遍,踩了坑,也跑通了,把整个过程完整拆给你看。

---

第0步(隐藏关卡):你得先承认自己不知道"vibe"什么

在讲三步之前,我要先说一个很多教程跳过的前提。

大多数人看完演示,打开 ChatGPT 或者 Claude,然后输入"帮我做一个 app"——然后卡住了。

不是模型不行,是你自己都不知道你要什么

Vibe coding 这个词最早是 Andrej Karpathy 提出的,他的原意是:用自然语言和 AI 协作,靠"感觉"驱动代码生成,不需要自己精通每一行代码。但"靠感觉"不等于"什么都不想清楚"。

Google I/O 演示里,那位工程师在开口之前,脑子里一定已经有了清晰的目标。演示流畅,是因为意图清晰,不是因为提示词魔法。

这是整篇文章最重要的一句话,先记住,后面会反复印证。

---

第一步:想清楚你要"vibe"什么——需求拆解比提示词更重要

我给自己定的 demo 目标是:一个能把输入的中文文本翻译成英文、并用语音朗读出来的小工具

听起来很简单,但在我第一次开口之前,我做了一件事——用三个问题把需求逼清楚。

三问框架

问题一:这个 demo 要给谁看?

是给自己验证技术可行性,还是要演示给不懂技术的人?

我的答案:给自己用,验证流程跑通就行,不需要好看的 UI。

问题二:核心功能只保留一个,是哪个?

翻译?朗读?还是整合在一起的完整流程?

我的答案:完整流程跑通,哪怕界面只是命令行输入也行。

问题三:成功标准是什么?

什么叫"跑通了"?

我的答案:输入一段中文,能听到英文语音输出,没有报错。

---

三问之后,我的需求从模糊的"做个翻译朗读工具",变成了这样一句话:

"用 Python 写一个命令行脚本,接收用户输入的中文文本,调用 API 翻译成英文,再调用 TTS 接口朗读出来,不需要 GUI,能跑通就行。"

这两种表达方式,给 AI 的效果是天壤之别:

| 模糊需求 | 收敛后的需求 | | 做个翻译朗读工具 | Python 命令行脚本 | | 功能要好用 | 翻译 + TTS,两步串联 | | 界面要好看 | 不需要 GUI | | 成功标准不清楚 | 能跑通、无报错 |
💡 关键认知:Vibe coding 卡壳,99% 是卡在这一步,而不是提示词写得不好。

---

第二步:用对话驱动代码生成——节奏比内容更关键

需求想清楚之后,我打开了 Claude,开始第一轮对话。

这里有一个新手最常犯的错误,我要先说:

不要把 AI 当搜索引擎用。

搜索引擎的逻辑是:你给完整问题,它给完整答案。但 vibe coding 的逻辑更像是结对编程——你是 PM,AI 是工程师,你们在来回沟通,逐步逼近目标。

一次性把所有需求全塞进去,往往得到一坨你看不懂、也改不动的代码。

正确的节奏是:第一轮搭骨架,第二轮补逻辑,第三轮修 bug。

---

第一轮:搭骨架

我发给 AI 的提示词:
帮我写一个 Python 脚本,实现以下功能:

1. 从命令行接收用户输入的中文文本

2. 调用 OpenAI 兼容的 API,把文本翻译成英文

3. 把翻译结果打印出来

先只做翻译这一步,TTS 我们后面再加。

API 的 base_url 我会自己替换,先用占位符。

注意最后两句——我主动把任务拆小了,而且告诉 AI"TTS 后面再加"。这样第一轮得到的代码是干净的,可以独立测试。

AI 给出的骨架代码(约20行):
import openai

import sys

client = openai.OpenAI(

api_key="YOUR_API_KEY",

base_url="YOUR_BASE_URL"

)

def translate_to_english(text: str) -> str:

response = client.chat.completions.create(

model="gpt-4o-mini",

messages=[

{"role": "system", "content": "你是一个翻译助手,请将用户输入的中文翻译成英文,只输出翻译结果,不要加任何解释。"},

{"role": "user", "content": text}

]

)

return response.choices[0].message.content

if __name__ == "__main__":

user_input = input("请输入中文文本:")

result = translate_to_english(user_input)

print(f"翻译结果:{result}")

我直接跑了一下,报错了:

Error: Connection refused. Could not connect to YOUR_BASE_URL

这是预期内的错误——我还没填真实的 API 地址。这不叫踩坑,这叫验证骨架是对的

---

第二轮:补逻辑(加 TTS)

骨架跑通之后,我发起第二轮对话:

骨架没问题,现在帮我加 TTS 功能:

把翻译后的英文文本,用 Python 的 pyttsx3 库朗读出来。

在翻译完成后直接调用,不需要额外的用户确认。

AI 很快补上了 TTS 逻辑,整个脚本扩展到约35行,结构依然清晰。

---

第三轮:修 bug

第二轮代码跑起来之后,我遇到了一个真实的坑:

在 macOS 上,pyttsx3 有时候会静默失败——不报错,但也没有声音。

我把报错信息(其实是没有声音这个现象)描述给 AI:

pyttsx3 没有报错,但是跑完之后没有听到声音,

macOS 系统,Python 3.11,请帮我排查可能的原因。

AI 给出了两个可能的原因,并建议换用 say 命令(macOS 内置)作为备选方案。我选了 say,一行代码解决:

import subprocess

subprocess.run(["say", result])

这就是"结对编程同事"的价值——你描述现象,它帮你分析,比自己去 Stack Overflow 翻快多了。

---

第三步:接通 API,让 demo 真的"活"起来

代码骨架有了,逻辑也通了,但 demo 能不能真正跑起来,关键在 API 这一环

这是 vibe coding 最容易断链的地方:代码是对的,但 API 连不上,或者 key 配置错了,或者模型名写错了——整个 demo 就卡死在这里。

我踩过的坑:

  • 用了一个不稳定的公共 API 代理,时不时 timeout,以为是代码问题,排查了半小时
  • 模型名写成了 gpt-4,但实际接口只支持 gpt-4o-mini,报了一个模糊的 model not found 错误
最省时间的做法:选一个稳定、低门槛的 API 入口,然后只改两行配置。

OpenAI 兼容接口的接入方式极其简单,只需要替换 base_urlapi_key

import openai

client = openai.OpenAI(

api_key="你的key",

base_url="https://api.884819.xyz/v1" # 替换这里

)

就这两行,其余代码完全不用动。

💡 实操提示:文中 demo 用的 API 接入点是 api.884819.xyz,OpenAI 格式完全兼容,直接替换 base_url 就能跑,不需要额外配置。8848AI 平台注册即送体验 token,国产模型(Deepseek/千问等)免费使用,没有月租。我测试下来延迟和稳定性都没拖后腿,适合拿来跑这类学习型 demo。

接通 API 之后,整个 demo 第一次完整跑通的瞬间,我输入了一句"今天天气真好",然后听到了 macOS 用英文朗读出来的"The weather is really nice today"——

说实话,有点破防。

不是因为技术多厉害,而是因为这个过程我完全没有查文档、没有翻 Stack Overflow、没有复制粘贴别人的项目。从零到能演示,我用了不到40分钟。

---

复盘:3步之外的真正收获

整个过程跑完,我最大的感受不是"AI 好厉害",而是:

Vibe coding 本质上是在训练你把意图表达清楚的能力。

Google I/O 演示的是上限——专业工程师、顶级模型、精心设计的演示场景。本文复盘的是普通人的可复制路径:想清楚、对话迭代、接通 API,三步走完,demo 就活了。

给不同层次读者的一句话建议

  • 完全没编程基础的小白:先别想"做什么",先跑通文中的翻译脚本,感受一下"AI 帮你写代码"是什么感觉,这比任何教程都有说服力。
  • 有一定编程基础的用户:把三问框架用起来,在开口之前先回答那三个问题,你会发现和 AI 的对话效率提升不止一倍。
  • 进阶用户:试着让 AI 帮你做你实际工作中的一个小工具,不是练习题,是真实需求。真实需求的模糊性和边界情况,才是 vibe coding 真正的训练场。

---

今天就可以试,5分钟够了。

打开任意一个支持 AI 对话的工具,用三问框架收敛一个你想做的小 demo,然后发出第一轮提示词——不要追求完美,只要发出去

Vibe coding 最大的门槛,从来不是技术,是你愿不愿意开口。

---

下篇预告:

>

这次 demo 我只用了对话生成代码。但 Google I/O 还演示了另一个更炸裂的能力——让 AI 直接"看"你的屏幕,然后帮你调 bug。不是截图,是实时的屏幕流。我在测试这个,踩了几个有意思的坑,下篇见。

---

本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。

#AI教程 #VibeCoding #GoogleIO #8848AI #AI编程 #ChatGPT #Gemini #人工智能