别让AI成了“盲盒”:国家生成式AI服务标识暂行规定,跟我们每个人有什么关系?
别让AI成了“盲盒”:国家生成式AI服务标识暂行规定,跟我们每个人有什么关系?
你有没有遇到过这种情况?
在某个社交平台上看到一张绝美的风景照,正准备点赞保存,却在评论区发现有人质疑:“这图是AI画的吧,光影不对。”你仔细一看,好像确实有点不自然,但又说不上来。
或者,你在深夜点开一篇情感推文,读得热泪盈眶,最后却发现作者栏写着“由AI辅助创作”。那一刻,感动瞬间烟化,只剩下一句:“原来我在跟机器共情?”
更糟糕的是,你可能在某个群里看到一段逼真的视频,里面某个公众人物正发表惊人言论,你转发给了亲友,后来才得知这是“深度伪造”(Deepfake)。
这些场景,在过去两年里,几乎每天都在我们身边上演。生成式AI(AIGC)像一股不知疲倦的潮水,迅速占领了我们的屏幕,但也模糊了真实与虚构的边界。
我们享受着AI带来的便利——写周报、画插画、做PPT——但同时也陷入了一种前所未有的“信任危机”:我眼前的这一切,到底是不是真的?
为了解决这个痛点,国家网信办等四部门联合发布了《生成式人工智能服务标识暂行规定》(以下简称《规定》),并将于近期正式实施。
这可不是什么枯燥的行政命令,它跟我们每个普通AI用户,乃至每一个每天刷手机的普通人,都息息相关。今天,作为8848AI的资深观察员,我就带大家剥开条文,看看这个《规定》到底在讲什么,对我们有什么影响。
---
01. 为什么要标识?给AI加上“健康码”
在深入解读之前,我们先搞清楚一件事:为什么要给AI生成的内容打标签?
打个比方。你去超市买肉,如果是合成肉或者临期肉,商家必须在包装上明确标注,这是为了保障你的知情权和选择权。你吃不吃是你的事,但商家不能隐瞒。
AI生成的内容,在某种程度上也像是一种“合成食品”。 它的原材料是海量的数据,加工者是算法模型。虽然它看起来像人话、像真图,但它本质上不是人类创作的。如果不加标识,会有什么后果?
1. 信任崩塌: 当网络上充斥着真假难辨的信息,人们会倾向于怀疑一切。真正的摄影师、作家、艺术家的作品会被质疑是AI生成的,而虚假信息则更容易传播。
2. 伦理与法律风险: 比如用AI模仿某人的声音进行诈骗,或者生成带有侮辱性的图片。如果没有标识,追踪和定责会变得非常困难。
3. 社会认知偏差: AI模型是有偏见的。如果大量带有偏见的AI内容不加标注地传播,可能会加剧社会偏见和刻板印象。
所以,《规定》的核心目的,就是要把“知情权”还给用户。 就像给AI生成的内容加上一个“健康码”,让你一眼就能看出它是“绿码”(人类原创)还是“黄码/红码”(AI生成/辅助)。
这不是为了打压AI,而是为了让AI在规则的框架内,更健康、更可持续地发展。正如36Kr某位资深作者所言:“监管不是发展的对立面,而是发展的护栏。”
---
02. 《规定》划重点:哪些内容必须“亮证”?
那么,到底哪些内容需要标识?怎么标识?我们梳理了《规定》中的几个关键点。
1. 覆盖全媒体形态:不只是文字和图片
《规定》明确,只要是利用生成式AI技术制作的文本、图片、音频、视频等信息,都需要进行标识。
这意味着,无论是你用ChatGPT写的一段文案,用Midjourney画的一张图,还是用Suno生成的一首歌,甚至是最近很火的Sora生成的短视频,只要是面向公众发布的,都得打上标签。
2. 区分两种标识方式:显性 vs. 隐性
这是《规定》中最具技术含量的部分。它要求服务提供者(也就是百度、阿里、字节跳动这些大模型厂商)采取两种方式进行标识:
* 显性标识(用户可见): 这就像是给图片盖个章,或者在视频开头加上一段声明。比如,在图片的角落标注“由AI生成”,或者在视频画面中持续显示“AI制作”的水印。
* 它的作用: 让普通用户在浏览时,第一时间就能做出判断,防止误导。
* 隐性标识(机器可见): 这是更高级的玩法,通常采用“数字水印”技术。它把标识信息隐藏在文件的元数据(Metadata)或者像素点、音频采样点中。肉眼看不出来,但通过特定的软件或工具可以检测出来。
* 它的作用: 溯源和版权保护。即使你把显性水印裁掉了,隐性水印依然存在。一旦发生版权纠纷或者传播虚假信息,可以通过隐性水印追踪到是谁、用哪个模型生成的。
3. 明确责任主体:厂商是第一责任人
谁来打这个标签?《规定》把主要责任压给了生成式AI服务提供者。
也就是说,如果你用文心一言生成了一篇文章,百度必须在生成结果中自动加上标识,或者提供添加标识的功能。如果你用剪映里的AI功能做了一个视频,字节跳动也得确保这个视频带有标识。
这对于我们用户来说是个好消息,意味着我们不需要具备复杂的IT知识去手动打标签,平台会帮我们搞定大部分工作。
---
03. 普通用户必看:这对我意味着什么?
讲了这么多宏观政策,最后还是要落实到我们每个人的日常使用上。这个《规定》实施后,我们的AI体验会发生哪些具体变化?
变化一:你的AI“朋友圈”将变得更透明
以后,当你刷微博、小红书或者抖音时,你会发现越来越多的内容带有“AI生成”的字样。
* 看图不再“开盲盒”: 那些美得不像话的风景照、精致得像真人的模特图,大概率会有一个小小的水印,告诉你这是AI的杰作。你不用再纠结这到底是不是真的,可以更纯粹地欣赏AI的创意。
* 读文多了一分理性: 看到观点犀利或者情感充沛的文章,如果标了“AI辅助创作”,你可能会下意识地思考:这是真实的体验,还是算法生成的套路?这有助于我们保持独立思考,不轻易被舆论带节奏。
变化二:作为“创作者”,你需要更有版权意识
如果你也是一名AI创作者,经常在网上发布AI生成的作品,那么你需要注意了:
* 尊重平台的标识规则: 大多数国内主流平台(如豆包、通义千问等)已经开始在生成内容时自动添加水印。千万不要试图通过裁剪、P图等方式刻意去除这些标识。 这不仅违反了平台规定,还可能面临法律风险。
* 合理使用隐性水印: 一些进阶的AI工具可能会提供自定义隐性水印的功能。你可以利用它来保护自己的权益。比如,你用AI画了一张图,加上了含有你个人信息的隐性水印,如果有人盗用,你可以通过检测水印来证明这是你的作品。
变化三:辨别能力将成为一项“生存技能”
虽然有了《规定》,但并不意味着网络上的所有AI内容都会乖乖打上标签。
* 技术漏洞与灰色地带: 显性水印容易被技术手段去除,隐性水印的检测标准目前还不统一。一些国外的开源模型(如Stable Diffusion)在本地运行时,很难强制要求用户添加标识。
* 恶意篡改与伪造: 真正的造谣者和诈骗犯,绝对不会主动给内容打上“AI生成”的标签。
因此,标识只是辅助,我们自己的辨别能力才是根本。 就像我们要学会看食品营养成分表一样,我们也要学会辨别AI内容的特征。
* 看细节: AI画图容易在手部、眼部、复杂纹理上出错;AI写文容易出现逻辑循环、事实性错误或者语气生硬。
* 查来源: 权威媒体、官方账号发布的内容,可信度更高。
* 多方求证: 看到惊人消息,不要急着转发,先在搜索引擎或其他平台上搜一下,看看有没有其他信源。
---
04. 结语:从“野生”走向“法治”,AI的成人礼
《生成式人工智能服务标识暂行规定》的发布,标志着我国AI产业正告别“野蛮生长”的野生时代,迈向规范化、法治化的新阶段。
这对于我们普通用户来说,是一件利大于弊的事情。 它虽然在短期内可能会让我们觉得有点“麻烦”(比如图片多了水印),但从长远来看,它构建了一个更透明、更可信、更安全的网络环境。 我们不需要害怕AI,但我们需要看清AI。当真实与虚构的界限被技术模糊,法律和规则就是那盏指路明灯。它不一定能照亮每一个角落,但它至少告诉我们,哪里是坚实的土地,哪里是虚幻的流沙。
作为8848AI的读者,我希望大家不仅能成为AI工具的熟练使用者,更能成为AI时代的理性守望者。在享受AI带来的便利的同时,保持一份清醒,保持一份对真实的敬畏。
毕竟,无论AI进化到何种程度,有些东西,比如真实的体验、真挚的情感、独立的思考,永远是人类独有的,也是最宝贵的。
* 本文由8848AI原创,转载请注明出处。