告别“收藏从未看”:用Gemini+飞书搭建你的全自动AI第二大脑
你的微信“文件传输助手”里,是不是堆满了各种文章链接? 你的浏览器收藏夹里,是不是躺着无数个“稍后阅读”的网页?
在这个信息爆炸的时代,我们都有严重的“信息仓鼠症”。看到好文章、长报告、干货视频,第一反应是先马(Mark)下来。但现实是,“稍后阅读”往往等于“永久吃灰”。
今天,我们将彻底终结这种信息焦虑。
这篇文章将手把手带你利用 Gemini 3.1 系列模型的超长上下文 与 飞书的极致协同,打造一个能自动阅读、深度总结并永久沉淀的“专属AI第二大脑”。
一、 为什么是“Gemini + 飞书”的王炸组合?
市面上的笔记软件和AI工具多如牛毛,为什么我们要单独挑出这两个工具?因为它们完美互补,能对传统的信息处理方式进行“降维打击”。
1. Gemini 3.1:能“一口吞下”整本书的算力怪兽
我们平时用AI总结文章,最怕遇到“超出字数限制”的报错。 而 Gemini 3.1 Pro 和 Gemini 3.1 Flash 最大的杀手锏,就是其恐怖的 1M 到 2M Tokens 的超长上下文窗口。
这意味着什么? - 一篇万字长文?小菜一碟。 - 一份100页的英文行业研报?直接扔进去。 - 一个小时的播客转录稿?它能一字不落地读完并交叉对比。
相比于需要把长文本“切碎”喂给AI的传统方案,Gemini 3.1 能够建立全局视角的理解,总结出的内容不会断章取义。而且,Gemini 3.1 Flash 的处理速度极快,性价比极高,简直是处理海量日常信息的完美劳模。
2. 飞书:国内体验最佳的“知识容器”
有了强大的AI大脑,我们还需要一个好看、好用的躯体。 飞书拥有目前国内体验最丝滑的文档编辑器、极其灵活的多维表格(Bitable),以及开放度极高的机器人(Bot)生态。
当 Gemini 的处理能力,遇上飞书的排版与结构化沉淀能力,一个完美的自动化闭环就诞生了。
二、 架构拆解与准备工作(基建通水)
不要被“架构”两个字吓倒,这套系统的运转逻辑其实非常符合直觉。
1. 核心运转逻辑
整个工作流可以抽象为一张简单的流程图:
你的信息源(微信/浏览器) ➔ 发送链接给飞书机器人 ➔ 触发中转API提取正文 ➔ 交给Gemini 3.1总结 ➔ 自动排版写入飞书文档/多维表格
2. 核心准备清单
你需要准备以下三个东西:
1. 一个飞书账号:前往飞书开发者后台(open.feishu.cn)创建一个企业自建应用,获取 App ID 和 App Secret。
2. 一个自动化工作流平台:小白推荐使用 Coze(扣子)或 Make.com,进阶用户可以直接写一段 Python 部署在云端。
3. 最关键的一步:稳定的 Gemini API 接口。
⚠️ 避坑指南:如何解决国内调用 Gemini API 的网络问题?
众所周知,在国内服务器或本地电脑上直接调用 Google 官方的 Gemini API,100% 会遇到网络阻断(Timeout报错)。如果你不想折腾复杂的海外服务器部署,或者频繁因为节点不稳定导致总结失败,强烈建议使用国内直连的 API 代理层。
这里我们直接使用 8848AI (api.884819.xyz) 提供的稳定接口。 - 零门槛:只需用户名+密码即可注册,连邮箱验证都不需要。 - 送额度:注册即送 5 元体验额度,足够你跑通几百篇长文总结。 - 免折腾:国内直连,毫秒级延迟,完全按量付费,没有昂贵的月租。 - 附加福利:平台还内置了AI对话功能,注册后直接就能在网页端体验各大主流模型(顺便提一嘴,里面的 Deepseek R1、通义千问 Qwen3 等国产大模型是完全免费的)。
在后续的代码或配置中,你只需要把官方的 Base URL 替换掉即可,极其简单。
三、 实战演练:从0到1跑通自动化工作流
为了照顾不同基础的读者,我们提供核心的配置思路和代码示例。
小白路线:利用 Coze (扣子) 无代码搭建
- 在 Coze 中创建一个 Bot。
- 接入
LinkReader插件:用于读取你发给机器人的网页链接正文。 - 选择大语言模型进行总结(在 Coze 中配置你的提示词)。
- 接入
Feishu插件:选择“追加内容到飞书文档”或“新增飞书多维表格记录”。 - 将这个 Bot 发布到你的飞书企业内部。 (整个过程只需拖拽连线,无需一行代码)
进阶路线:Python API 极客直连(高度定制化)
如果你想实现更复杂的逻辑(比如提取特定数据结构),可以直接写一段轻量级 Python 代码。
下面是一段核心的 API 调用演示,注意看如何通过 8848AI 解决网络问题:
import requests
import json
# 1. 你的 8848AI API Key
API_KEY = "sk-你的8848AI密钥"
# 2. 替换后的稳定请求地址(国内服务器直连,告别 Timeout)
# 官方原地址: "https://generativelanguage.googleapis.com/v1beta..."
BASE_URL = f"https://api.884819.xyz/v1beta/models/gemini-3.1-flash:generateContent?key={API_KEY}"
def summarize_with_gemini(text_content):
headers = {'Content-Type': 'application/json'}
payload = {
"contents": [{
"parts": [{"text": f"请提取以下文章的核心观点,并用飞书Markdown格式输出:\n\n{text_content}"}]
}]
}
response = requests.post(BASE_URL, headers=headers, data=json.dumps(payload))
return response.json()
# 测试运行
article = "这里是爬虫抓取到的网页长文本..."
result = summarize_with_gemini(article)
print(result['candidates'][0]['content']['parts'][0]['text'])
将这段代码与飞书的 Webhook 结合,你的私人机器人就拥有了灵魂。你只需把链接扔进飞书对话框,几秒钟后,一份排版精美的总结就会自动生成。
四、 高阶玩法:让你的第二大脑“活”起来
工具搭建好只是第一步,如何把它融入日常工作流才是关键。这里分享3个极具诱惑力的使用场景和独家 Prompt(提示词)。
场景一:一键吃透百页英文行业报告
把 PDF 链接发给飞书机器人,利用 Gemini 3.1 Pro 的超长上下文,让它不仅翻译核心内容,还为你提取数据图表背后的逻辑。 你可以用这个 Prompt:
"你是一个资深的行业分析师。请阅读这份长篇报告,完成以下任务: 1. 用一句话总结报告的终极结论。 2. 提取出报告中最重要的 5 个数据指标,并解释其商业意义。 3. 列出报告中提到的未来 3 个行业趋势。 请严格按照飞书 Markdown 格式输出,使用加粗和列表来优化阅读体验。"
场景二:B站/播客长视频文稿提炼
遇到两小时的干货播客没时间听?结合飞书的“飞书妙记”或外部字幕抓取工具,把转录文本丢给 Gemini 3.1 Flash:
"这是一段长视频/播客的逐字稿。请帮我去除所有的口语化废话(如‘嗯’、‘啊’、‘就是说’),将内容整理成结构化的金字塔原理笔记。要求标出各个观点的具体时间戳,方便我回溯原文。"
场景三:每日行业资讯自动日报
利用 Make.com 定时抓取你关注的 RSS 订阅源,每天早上 8 点统一打包发送给 Gemini 3.1 总结,然后自动写入你的飞书“每日简报”文档中。每天通勤路上,只需花 3 分钟就能掌握全行业动态。
五、 结语:工具只是手段,内化才是目的
搭建“Gemini + 飞书”的自动化知识库,本质上是把我们从繁琐的“收集-复制-粘贴-粗读”的体力劳动中解放出来。
当你不再为信息碎片化感到焦虑,当你的飞书文档里自动沉淀了一篇又一篇结构清晰的知识卡片时,你才有真正的精力去思考、去批判、去将这些知识内化为自己的认知。
今天就行动起来吧!去 8848AI 注册个账号,拿到免费额度,跑通你的第一段代码或第一个 Coze 机器人,哪怕一开始只用来总结每天的新闻,这也是对抗信息焦虑的一大步。
🎁 留个悬念:微信生态怎么打通?
到这里,你的“飞书+Gemini”第二大脑已经初步建成了。但你可能会问: “我平时看的大部分文章都在微信公众号里,难道每次都要手动复制链接,再打开飞书发给机器人吗?这太反人类了!”
当然不用这么麻烦! 在下一篇文章中,我将教大家如何利用这套底层架构,彻底打通微信生态——你只需要把公众号文章,随手转发给一个特定的“微信文件助手”,它就能自动流入你的飞书知识库并完成AI总结归档!
关注我,我们下期带你解锁真正的“全自动信息收割机”,让你的微信不再是信息的坟墓!
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。