Anthropic 调查了 81000 人的 AI 使用诉求:普通人最想要什么、最怕什么?
Anthropic 调查了 81000 人的 AI 使用诉求:普通人最想要什么、最怕什么?我把报告核心结论梳理成了3个真正有用的洞察
你每天打开 ChatGPT 或 Claude,第一句话通常问什么?
是“帮我搜索一下昨晚的中超赛果”,还是“请分析这份 200 页的行业报告,并提炼出三个针对中小企业的增长机会”?
如果你是前者,那么很遗憾,你可能还停留在 AI 使用的“石器时代”。
近期,AI 领域的少壮派巨头 Anthropic 发布了一份分量极重的调查报告。他们访问了全球 81,000 名 真实的 AI 用户,试图搞清楚一个核心问题:当硅谷的大佬们每天在推特上为 AGI(通用人工智能)何时到来吵得不可开交时,这 8 万多名普通用户,每天究竟在用 AI 干什么?他们真正的兴奋点和恐惧点在哪里?
81,000 人,这是一个极其庞大的样本量,足以过滤掉幸存者偏差,反映出最真实、最普世的用户心声。这份报告不仅是 Anthropic 的产品指南,更是整个 AI 行业的风向标。
透过这份厚重的报告,我为你提炼出了 3 个关于 AI 角色转变、核心能力诉求以及安全边界的颠覆性洞察。不管你是刚注册 8848AI 的小白,还是已经能熟练编写 Prompt 的进阶玩家,看完这篇,你都会对“如何驾驭 AI”有一个全新的认识。
洞察一:从“搜索引擎”到“第二大脑”——普通人对 AI 能力诉求的根本性转变
报告中最令人惊讶,但仔细一想又在情理之中的数据,关于用户的使用场景。
曾几何时,我们把 ChatGPT 当成一个“更聪明的百度”。遇到不懂的词汇、需要查找某个历史事件,习惯性地“百度一下”变成了“GPT 一下”。
但 Anthropic 的数据显示,这种类搜索任务(Search-like tasks)正在急剧减少。用户已经厌倦了让 AI 做简单的信息搬运和事实问答。
为什么会出现这种转变?
原因很简单:性价比太低。
对于一个已知的事实(比如:2024 年奥运会在哪举办?),传统的搜索引擎(如 Google、百度)加上垂直 App(如小红书、抖音)已经能提供足够好、且带有信源验证的答案。而现阶段的 AI,不仅有“幻觉”风险,还需要你花费 Token。
用户真正转向的,是那些类大脑任务(Brain-like tasks)。
报告显示,深度推理、长文本理解和复杂任务编排的需求呈现爆发式增长。
* 小白用法(正在被淘汰):
> 🧑💻 用户:2024 年最火的 AI 模型有哪些?
> 🤖 AI:有 GPT-4o, Claude 3.5 Sonnet, Gemini 1.5 Pro...(罗列一堆信息,用户看完还得自己去查每个模型的特点)
* 进阶用法(用户真正想要的):
> 🧑💻 用户:我是一名国内的独立开发者,想开发一款针对小学生的英语口语练习 App。请对比 GPT-4o、Claude 3.5 Sonnet 和国内的 Deepseek R1,在中文语义理解、API 价格、输出稳定性这三个维度的优劣,并给我一个最推荐的模型方案,说明理由。
> 🤖 AI:好的,基于您的具体需求,我为您做如下详细对比分析...(进行深度的逻辑推理、多维度对比,并给出决策建议)
针对中国用户的解读
对于广大的中国 AI 用户来说,这个洞察意味着:如果你还把 AI 当搜索引擎用,你就在浪费它的才华。
* 对小白: 停止问那些“一搜便知”的问题。开始尝试让 AI 帮你润色邮件、总结长文章、制定旅游计划、甚至辅导孩子写作业。让它参与到你的思考过程中。
* 对进阶用户: 这意味着你要开始刻意练习 Prompt 工程(提示词工程)。只有通过精准、有逻辑的提示词,才能解锁 AI 的深度推理能力。你需要学会如何给 AI 设定角色、提供背景信息、指定输出格式,让它真正成为你的“第二大脑”。
洞察二:比起“毁灭人类”,普通人更怕 AI “一本正经地胡说八道”——信任危机的新常态
在好莱坞电影和一些媒体的渲染下,我们似乎总在担心 AI 哪天会产生自我意识,然后毁灭人类(存灭风险,Existential Risk)。
但 Anthropic 的报告狠狠地击碎了这个幻想。
当问及用户“你最担心 AI 什么”时,“毁灭人类”这个选项排得非常靠后。81,000 名真实用户最担心的,是那些切实影响眼前使用体验和切身利益的问题。
用户恐惧排行榜(简化版)
1. 幻觉(Hallucination): 一本正经地胡说八道,编造事实、数据和代码。
2. 隐私泄露: 担心自己的聊天记录、私密数据被用于模型训练或被泄露。
3. 偏见与歧视: AI 输出的内容带有种族、性别或文化偏见。
4. ...
5. 存灭风险: 终结者式的场景。
这是一次必要的“祛魅”
这个数据告诉我们:现阶段,对 AI 保持“健康的怀疑”是成熟用户的标志。
AI 不是神,它只是一个基于概率预测下一个 token 的数学模型。它最大的软肋在于,它不知道自己不知道。
案例: 曾有一位律师使用 ChatGPT 撰写法律文书,结果 ChatGPT 编造了几个根本不存在的判例,导致该律师在法庭上大搞乌龙,受到法官处罚。这就是典型的“幻觉”带来的灾难性后果。
进阶玩家如何应对?
对于进阶用户来说,既然知道了“幻觉”是 LLM 的天性,我们就不能坐以待毙。
1. 带 RAG(检索增强生成)的 AI 服务: 优先使用那些能联网、能引用确切信源的 AI 工具。
2. 私有化部署与 API 接入: 许多企业和进阶开发者开始转向通过 API 接入模型,并在本地或私有云上构建应用。这样可以最大限度地控制数据流向,保障隐私安全。
3. 技术手段控制: 如果你通过 API 调用模型,你可以通过调整 temperature(温度)参数来控制模型的“创造力”。temperature 越低,模型越保守、越不容易胡说八道。
# 一个极简的 Python 代码示例,展示如何通过 API 调用模型
并强调 temperature 参数
import os
假设你使用的是一个聚合 API 平台,如 8848AI
from openai import OpenAI
初始化 Client,填入你的 API Key 和 Base URL
client = OpenAI(
api_key="你的_8848AI_API_KEY",
base_url="https://api.884819.xyz/v1"
)
场景一:需要精确答案(如编写代码、分析财报)
我们将 temperature 设置为 0.1,让 AI 极其克制,严谨
response_precise = client.chat.completions.create(
model="claude-3-5-sonnet-20240620", # 使用最新的 Claude 3.5 Sonnet
messages=[
{"role": "system", "content": "你是一个严谨的资深 Python 工程师。"},
{"role": "user", "content": "请写一个 Python 函数,计算斐波那契数列的第 N 项。"}
],
temperature=0.1, # 低温度,追求准确性
)
print("--- 精确模式输出 ---")
print(response_precise.choices[0].message.content)
场景二:需要创意脑暴(如写营销文案、科幻故事)
我们将 temperature 设置为 0.8,让 AI 充分发挥想象力
response_creative = client.chat.completions.create(
model="claude-3-5-sonnet-20240620",
messages=[
{"role": "system", "content": "你是一个充满想象力的科幻作家。"},
{"role": "user", "content": "构思一个关于‘赛博朋克风格的赛里木湖’的故事开头。"}
],
temperature=0.8, # 高温度,追求创意
)
print("\n--- 创意模式输出 ---")
print(response_creative.choices[0].message.content)
通过代码,你可以精准地操控 AI 的脾气,让它在“严谨”和“狂野”之间切换,从而更好地为你服务。
洞察三:AI 的尽头是“个性化代理”——普通人如何跨越小白与进阶的鸿沟?
报告的最后一部分,探讨了用户对未来 AI 的期望。
结论非常明确:用户不想要一个通用的 AI,而想要一个“懂自己”的 AI。
现在的 AI 网页版(不论是 ChatGPT 还是 Claude),每一次对话都是“初次见面”。它不记得你昨天的项目进度,不知道你的写作风格,更不清楚你的核心业务数据。
用户真正期望的,是 Agents(智能体)。
什么是 Agents?
它不是一个只会聊天的对话框,而是一个懂自己、有记忆、能自动执行任务的个性化助理。
* 现在的 AI(Chatbot): 你问它答,一问一答。
* 未来的 AI(Agents):
* 它有记忆: 记得你所有的历史偏好和项目背景。
* 它能规划: 面对“帮我筹备下周的模型发布会”这种复杂任务,它能自主拆解成:撰写新闻稿、设计海报、预定场地、邀请媒体等子任务。
* 它能行动: 它能通过工具(Tools/Function Calling)自主去操作你的邮箱、日历、Notion、甚至公司内部 CRM 系统,把任务真正做完。
如何跨越从小白到进阶的鸿沟?
Anthropic 的报告明确指出,未来的 AI 属于个性化 Agents。
这意味着,仅仅在网页端和 AI 聊天是远远不够的。 网页版是一个被阉割了能力的“沙盒”,它无法深入你的工作流。如果你想让 AI 真正接入你的私有数据,甚至自动帮你发邮件、订机票,你必须掌握 API 调用的能力。API 是连接 LLM 大脑和现实世界双手(各种软件、脚本)的桥梁。
对于国内用户来说,直接申请海外原生 API 往往门槛高(需要海外信用卡、IP 干净)、网络不稳定。如果你想低成本、稳定地实践报告中提到的进阶 Agents 玩法,不妨试试 api.884819.xyz。
这是一个专为国内开发者和进阶用户设计的 AI API 转发平台。
* 聚合顶级模型: 平台聚合了包括 Claude 最新模型(如 Claude 3.5 Sonnet)、GPT-4o、Gemini 等在内的多种顶级 LLM。
* 免复杂网络配置: 注册即用,国内网络直连,让你把精力真正放在构建属于自己的个性化 AI 代理上。
* 国产模型完全免费: 平台上的国产模型(如 Deepseek、通义千问等)完全免费。
* 按量付费: 没有月租、没有订阅,用多少付多少。新用户注册即送体验token。
看完报告,是时候动手写你的第一个 AI 脚本,迈出构建个性化 Agents 的第一步了。
结语:看清风向,做 AI 时代的弄潮儿
Anthropic 的这份 81,000 人调查报告,像是一面镜子,照出了 AI 行业的现状,也照出了普通用户最真实的内心。
它告诉我们:
1. 别把 AI 当搜索引擎: 它是你的“第二大脑”,要用它来做深度推理和复杂创作。
2. 对 AI 保持健康的怀疑: “幻觉”是常态,学会用技术手段(如 RAG、控制 temperature)去规避它。
3. Agents 才是未来: 掌握 API 调用能力,是从小白迈向进阶、构建个性化 AI 代理的必经之路。
AI 的迭代速度是惊人的,看懂报告只是第一步,行动才是关键。从对数据的恐惧转向对掌握工具的兴奋,你,准备好了吗?
---
看完了普通用户的诉求,你是不是对“如何低成本搭建属于自己的个性化 AI Agents”充满了好奇?
下一期,我将带来一份零基础实战指南:不写一句代码,如何利用刚才提到的 API 结合市面上的无代码工具(如 Make 或 Dify),在 10 分钟内搭建一个专属于你的“全网热点情报分析员”。敬请期待。
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI教程 #Claude #Anthropic #8848AI #AI学习 #Prompt技巧 #人工智能 #AI Agents