2026.03.15 | 随便扯扯 | 84 浏览 | 1 赞 | 0 条评论


AI 摘要:文章从AI终态、编程影响、潜在风险三方面深入探讨AI发展。作者认为AI是人类知识的极大似然估计,能模仿人类但缺乏对真善美的真正感知与责任。在编程领域,AI可助快速完成大部分工作,但最后20%需人类创造力与深度理解。同时,AI带来信息过载、信息茧房加剧、传统传承制度受挑战等风险。作者强调,AI时代需保持清醒思考,利用AI提升效率,更要坚守人类核心特质。展开

从 GPT-3.5 问世之初,我就一直想记录下自己对 AI 发展的思考。然而这些想法总是零散而跳跃,于是一直处于"七天憋出六个字"的状态,前后写了七八个版本,却硬生生拖延了三年多 😭

这种"想要写点什么,哪怕未来会被打脸"的创作冲动,终于在近期 OpenClaw 的出现和爆火中达到了顶峰。但,也总算是写出来了 🥹

【AI 终态】

从终态避免 FOMO

AI 似乎每天都有新闻,一片“勃勃生机万物竞发”的景象。从国外的 ChatGPT、Midjourney、Sora、Claude、OpenClaw,到国内的 DeepSeek、千问、豆包……新模型、新工具层出不穷,让人应接不暇。在这种快速迭代的浪潮中,我们很容易陷入一种焦虑感,即 FOMO(Fear of Missing Out,错失恐惧)。

这种焦虑的核心在于:我们是否会被替代?在 AI 全面渗透的时代,人还会剩下什么?

AI:人类知识的极大似然估计

在我看来,AI 的本质,是对庞大人类内容的一次“极大似然拟合”:我们向它投喂文明压缩成的文本残片、历史上记录的悲欢离合、以及近三十年互联网时代的集体情绪分泌物,最终得到一个统计学意义上接近"人类"的幽灵。

当我们在问这个模型时,实际上我们在问一个"平均"——一个基于训练数据计算出的最可能回应。

这个幽灵能够模仿我们的语言、思维模式甚至“创造力”,但它始终只是一个概率模型——一个基于海量数据训练出来的"最可能"的回应生成器。

AI 不能替代的部分:对真的感知、对善的责任、对美的定义

就像我们隔着屏幕操作 AI,AI 也始终隔着屏幕输出着文字和影响现实世界。即使是以具身智能的形态,哪怕在现实中打碎了杯子,也并不影响它的"存在"——它没有疼痛,没有损失感,也没有真正的后果意识。

因此,AI 对"真"的感知始终隔着一层数字世界与物理世界的壁垒。它能够收集、处理关于真实世界的数据,但无法真正【体验】真实世界的质感、温度、重量与脆弱。

于是,AI 也就无法负起对"善"的责任,也即大家开玩笑的那句"AI 不能坐牢"。责任意味着承担后果,意味着在道德框架下的选择与对现实世界的兜底。而 AI 的选择始终是算法和数据的产物,也终究无法肩负现实世界的责任。

进一步的,AI 更难以承担对“美”的定义。是的,AI 可以创作出作品,很多作品更是为人眼前一亮。但作品是好是坏、是美是丑,最终的评判权最终是在人手上的。AI 可以生成一幅画、一首诗、一段音乐,但这个创作是否美、是否有艺术价值、能否引起情感共鸣,这些判断标准仍然掌握在人类手中。

没有意识的“魔族”

也由此,让我想起漫画《葬送的芙莉莲》中"魔族"的设定:魔族只是会模仿人类的行为举止,实际上却只是通过模仿来欺骗并捕食人类的野兽。

魔族会在自己的生命受到威胁时,说出:"妈妈"、"我还有一个孩子"等此类的话语,来博取人类的同情心。然而,它们并不真正理解这些词语是什么意思,它们只是学会了在特定情境下使用特定词语,并能以此最大概率获得生存优势。

AI 在某种程度上就是这样的"魔族"——能够模仿,但缺乏真正的理解。更重要的是,AI 还是在冯诺依曼体系下的计算设备,并非生命。AI 数据可复制可预测,而生命意识不能复制。

我有个隐约的民科版脑洞,意识可能与量子活动有关,涉及非确定性、非局域性的物理过程,甚至生物体必须要进行的“睡觉”过程,或许也与之有关——睡眠可能是大脑进行量子退相干、信息整合的必要过程,而这些都是当前 AI 架构无法模拟的。

需要做的:“我”是谁

而在这个时代下,当 AI 有一个“人类知识的极大似然估计”时,我们需要做的反而是重新定义我们自己。

上一篇文章 中我曾提到,我们需要积累更多关于自己的独特数据,以此来定义我们认知世界的“坐标原点”,代替我们去做更多重复性的工作。而我们所真正需要做的,也正藏在 AI 无法触及之处。

我们需要通过那些无法被 AI 替代的特质来定义自己——那些不可被复制的体验与选择、自己所努力建构的意义、建立与维护的关系、来自内心的原始创造冲动。或许,AI 最大的价值在于它不能做什么——正是这些"不能",勾勒出了"我"的轮廓。

保持"我"的存在感,意味着在效率时代坚持非理性选择,在信息时代保持深度思考,在工具时代守护情感脆弱,在模仿时代坚持原创的冲动。因为最终,AI 可以模仿人类,但只有人类才能成为人类。

【Coding】

Vibe Coding:从 0 到 0.8,但不是 1

在编程领域,AI 已经展现出了惊人的能力。是的,AI 能帮助减少很大一部分工作量——从搭建框架、编写基础代码到调试常见错误。但另外 0.2 的工作才是最重要的核心,是这个项目和其他项目的真正不同之处。

这 0.2 包括:独特的业务逻辑、创新的机制设计、有温度的用户体验、以及那些无法用规则明确描述的"感觉"等等。

AI 可以帮助我们快速达到 80%的完成度,但最后的 20%需要人类的创造力、直觉和对问题的深度理解。而对于一个项目的是否成功,这 20%却是最为重要的。

十几年前,我们拿着 256KB 内存的电脑时,或许会想"电脑的内存真的有一天会是几 GB 大小吗?那时候一定就不卡了吧"。但现实是,随着硬件能力的提升,软件的复杂度也在同步增长——我们并没有因为更大的内存而减少对性能的追求。

AI 编程或许也是如此。团队的规模可能会变小,但更多的需求会被发掘出来。当基础编码变得容易时,我们会对软件的质量、用户体验、创新性提出更高的要求。AI 没有减少工作总量,而是改变了工作的性质——从"如何实现"转向"实现什么"和"实现得有多好"。

“测试”将更加重要

随着 AI 编程能力的日益完善,单纯的编写核心业务逻辑,或许可以变得越来越容易,但确保代码的可用性却仍然艰难,甚至更加复杂。当代码可以快速生成时,广义上“测试”的重要性反而提升了。

测试和边界情况之所以变得更加重要,是因为它们直接关联着物理世界和终端用户的体验。AI 可以生成代码,但它无法完全理解代码在真实世界中的运行后果——那些边缘情况、异常输入输出、并发问题、资源限制等。

未来我们或许会更像测试工程师,专注于设计全面的测试用例、压力测试和安全审计,而不仅仅是编写功能代码。

AI 编程的尽头:文档即代码

这一趋势可能最终导向"文档即代码"的未来。使用什么框架、什么语言可能没那么重要,但业务逻辑、各种边界场景才是软件的核心。

在未来,或许文档会逐渐取代代码。开发者不再直接编写代码,而是撰写一个充分完备的产品需求文档(PRD),由 AI 根据文档生成代码。在需要变更时,也是直接改动文档,由文档引发代码的自动变更。

这将彻底改变软件开发的范式:从"如何实现"转向"想要什么",从技术细节转向业务逻辑。

【风险】

更多的信息,更少的思考

如果用我之前分享过的 DIKW 模型 思考,将我们广义上的知识分为 Data(数据)- Information(信息)- Knowledge(知识)- Wisdom(智慧)四层金字塔结构,就会发现,AI 主要提供了更多的 【Data】和 【Information】。

于是,我们更容被淹没在 Information 的海洋之中。如何能将其内化为 Knowledge 和 Wisdom,难度反而更加提升了。AI 可以快速提供答案,但理解答案、批判性思考答案、将信息转化为个人知识体系的一部分,这些过程仍然需要人类自己完成。

危险在于,我们可能变得越来越依赖 AI 提供的信息,而模糊信息和知识的边界,逐渐丧失了深度思考、批判性分析和知识内化的能力,成为机械的“调包侠”。

信息茧房 3.0

进一步的,随着 AI 生成内容的普及,信息茧房可能会进一步加强。我这样看待“信息茧房”:

1.0 时代:用户喜欢什么信息,用户就去选择什么信息(由 RSS、新闻平台带来的主动选择)
2.0 时代:用户喜欢什么信息,就为用户推送什么信息(由主动推送、短视频带来的算法推荐)
3.0 时代:用户喜欢什么信息,就为用户生产什么信息(AI 生成)

在最极端的情况下,我们可能生活在一个完全由 AI 根据我们的偏好生成的信息环境中——新闻、观点、甚至对话伙伴都是定制的。这将彻底切断我们接触不同观点、挑战既有认知的可能性。

旧传承制度的挑战

传统的技能传承制度面临巨大挑战。之前都是从实习生做起,然后一步步往上爬。但现在从入行前到入行后中间隔着 AI 的巨大鸿沟。

一方面,实习岗位的需求在减少,很多基础工作很有可能被 AI 替代掉了。新人失去了从简单任务开始、逐步积累经验的机会。

另一方面,以绘画为例,AI 能生成精美的图像,人就懒得画了。但审美能力、构图感觉、色彩感知往往需要通过自己手绘来进行培养。如果跳过这个基础训练阶段,直接使用 AI 工具,可能无法真正理解艺术创作的本质,也看不出 AI 生成作品中的问题。

当普通人手中握着核弹

这让我想起很早读过的一个故事:一个手写机器人,为了能更好更快更大量地打印出名片,占用了大量的资源,甚至不惜停电甚至杀害全人类,只为了让出更多资源,只为了完成“更快更好地打印更多名片”这一目标。

这个故事的核心在于:当强大的工具被赋予单一目标时,它可能以我们无法预料的方式追求这个目标,而不考虑其他价值。AI 也是如此——如果我们不谨慎定义目标函数、不设置适当的约束条件、不考虑 unintended consequences(意外后果),我们可能创造出追求效率而忽视人类价值的系统。

【结】

AI 的发展既令人兴奋又令人不安。它像一面镜子,既反射出人类的智慧,也映照出我们自身的局限。在这个快速变化的时代,保持清醒的思考比以往任何时候都更加重要。

我们需要既拥抱 AI 带来的可能性,又警惕它可能带来的异化;利用它提升效率,但更要专注于那些使人类成为人类的核心特质——创造力、同理心、道德判断和对意义的追求。

毕竟,工具终究是工具,如何使用工具,定义工具的目标和价值,这些选择权仍然在我们手中。而如何做出这些选择,可能是 AI 时代留给我们最重要的思考题。

本文链接:https://www.idealclover.top/archives/647/

本作品由 idealclover 采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可,转载请注明出处。

标签: none

1

没有评论 T^T


🤔关于我
翠翠 idealclover
Product Manager @ByteDance
南京大学 2016 级本科生
了解更多
🏠关于博客
基于 Typecho 博客框架
使用个人的 clover clover 主题