做生意,对AI应用等新科技的前沿观察

彩虹网

做生意,对AI应用等新科技的前沿观察

做生意,对AI应用等新科技的前沿观察

未来,终究还是属于有生意头脑的人。

伊隆·马斯克就是一个典型例子——他本质上是一名商人,或者说,是一名企业家。

他之所以被高度评价,并不是因为他本人在技术层面有多“神”。

他真正的历史位置,并不在于具体掌握了多少前沿技术,而在于——像爱迪生一样,成功地将技术进行商业化、规模化并普及到社会层面,从而实质性地改变了人们的生活方式,推动了文明进程。

基于这一点,称他为美国伟大的企业家,并不为过,这本身也是一种极高的荣誉。

但正因如此:不要误把他当成科技权威。

即便他出身工程背景,在现实世界中,他的真实身份,早已不再以“工程师”身份行动。

而是以企业家、以商人的逻辑,在推动资源、资本与技术的重新组合。

『推动文明的,不是技术本身,而是把技术变成现实生活的人。』

爱迪生不是电灯的最早发明者,但他是“把电灯变成现实世界系统的人”。

所以,爱迪生既是发明家,更是以企业家身份影响历史的人。

文明进步,奖励的从来不是“最会发明的人”,而是“最会把发明变成世界运行方式的人”。

因此,这些人,在美国被广泛认可为“伟大的企业家”。

理解以上这些话,你就不会再有“商人误国”的思想了,也就不会再说“李超人没有发明什么,而只是顺势而为了”。

而是要清楚,顺势而为是商业的生存需要和活动,并且也能像伟大的企业家那样推进文明进程,不管你讨不讨厌他。

李并没有像马斯克、黄仁勋那样系统、频繁地公开谈论 AI 技术本身,但如果从他公开进话、基金会投资方向、企业布局来综合判断,他对 AI 的看法其实非常清晰,也一贯符合他的长期风格——冷静、务实、提前下注,但不鼓吹泡沫。

他几乎从不公开追逐技术热词,但他的资本动作往往非常早就开始投资:

AI 医疗(癌症筛查、影像诊断)

AI 教育平台

数据科学 + 医疗决策系统

他不只信“已经能落地、能改变效率的 AI。

他更关心:AI 会不会“改善人类”,而不是“多聪明”

其在多个公益、教育场合反复强调一句核心价值观:

“科技如果不能改善人的生活,就没有意义。”

所以,他关注 AI 的角度主要集中在:

医疗效率(救命)

教育公平(缩小差距)

老龄化社会(辅助照护)

而对纯技术炫技、军备竞赛式 AI,他基本不表态,也不追捧。

所以,很多人觉得这不酷,这不够伟大,那是因为很多人,还不知道这意味着什么,后面我会讲到。

李对 AI 的态度:谨慎乐观,而非狂热,他从不说“AI 将颠覆一切”。

他的典型立场是:AI 是工具,不是信仰,也不是救世主。

这和他的长期商业哲学一致:不押单一技术,不把未来寄托在“不可控的突破”上,更看重 风险分散 + 长期结构性趋势。

虽然,他很少直接谈 AI 风险,但在教育相关讲话中,他反复强调:技术变化太快、社会适应速度太慢、教育体系落后于技术。

从这些话可以推断出他的隐含担忧:AI 不会毁灭人类,但会拉大“有准备的人”和“没准备的人”的差距。

所以,你看到:他大量资金投入「教育改革」投入「终身学习」、「跨学科能力」。

李把 AI 当做:「能真正改善生活质量、提高效率的工具」。

他不仅关注 AI 技术本身,更注重从早期到中期都深度布局产业链;并不局限于单纯大模型或者营销热词,而是实打实的早期科技趋势投资。

也许,你觉得这样不酷,那是你不知道,人类目前科技最前沿的就是这样而已,不神话。

现实与神话,我举一下对比,你就清楚:

有一个「不被 AI 话术收割」的终极判断法就是,市场上任何人谈论 AI,我们只问自己三件事:

1️⃣ 他是在卖恐惧,还是卖工具?

2️⃣ 他靠 AI 赚钱,还是靠 AI 说话?

3️⃣ 他承担后果吗?还是你承担?

能看清楚,就不会被带节奏。

马斯克会告诉你:“这局有多危险”。

他是权力型,底层逻辑是:

“未来很危险,所以我必须在场。”

他讲的不是产品,是世界结构。

奥特曼会告诉你:“别怕,我能管”。

他是制度型,底层逻辑是:

“未来很美好,而且我们能管好。”

他是最会让人“放心把权力交出去”的那种人

黄仁勋会告诉你:“来,先把钱付了”。

他是买铲子的,底层逻辑是:

“你们不管怎么折腾,都得买我的芯片。”

他是三个人里,说话最接近“现金流现实”的。

李的AI投资组合在医疗、边缘计算、自然语言处理等领域都有显著投入。

其认为 AI 是不可逆的全球性变革力量;

更注重 AI 真正改善人类生活的应用价值,如医疗、教育等。

2026年1月6日马斯克的访谈,主要就是在告诉我们:“这局牌我已经坐在桌上,而且是主桌。”

是宣传,是为了融资,这一定带有战略夸张,而且时间表被刻意压缩。

他的这些话,如果拆比例说,我觉得:

技术趋势判断:70% 是真的。

时间节点判断:50% 是真的。

自己所处位置的描述:40% 真 + 60% 战略表达。

他不是为了融资而编故事,但他一定在“顺手把故事讲得更大”。

也就是说,他讲趋势 → 多半是真的;他进时间 → 自动打折;他说自己 → 当成战略表态。

他想做参与“制定规则”的人,他说话的目的就是:你们不能把规则定完再叫我进来。

他的潜台词就是:这场 AI 权力分配,我不会缺席。

看到这里,你应该可以理解现实世界,伟大是怎么回事了吧?

伊隆·马斯克几乎或极少不谈AI武器化,而只讲AI会带来一个很美好的UHI(全民高收入):

核心驱动:机器人零成本生产

定义:生活的质变

使人们有尊严,不需要很多钱,也能享受亿万富翁的生活水准。

但是,我们看到,马斯克必然会被拉进军工体系。

任何能改变战略平衡的技术,最后都会军事化,AI 也不例外。

当然,并不是说马斯克在追求战争,只是AI 首先会进入“国家控制系统”,然后才下沉到民用。

如果要做一个对比,是这样的:

李超人:

医疗、生命科学、公共基础设施

偏「长期、稳定、低政治风险」

马斯克:

军事、太空、通信、AI

偏「国家级博弈、高杠杆、高权力密度」

这是两种资本人格:

一个是「活得久」

一个是「改规则」

所以,你就能够理解为什么要顺势而为投资,以及伟大原来是怎么回事。

AI会不会颠覆教育?

很多人被吓到了,于是本能的应激反应就是:我们要战胜机器,所以,人类会一跃进入修仙修灵境界,这是文明的升级。

但是其实,人类升级是连续的,不是断裂的。

教育是「适配系统」,不是「被技术碾压的对象」。

所以,这是反 AI 神话的核心逻辑。

比如,写作文,要求学生要比 AI 写得更好,才有创造力,这是错的。

现实更可能是:

不是「比 AI 写得更好」,

而是「比 AI 更像一个“真实的人”」。

有个人经验,有模糊、犹豫、价值选择,有立场冲突,这些才是人类的品质。

教育升级的方向不是“更强”,而是“更人类”。

人们面对新技术的出现,一部分人 → 神话、吹捧、崇拜;一部分人 → 灭世恐惧、逃避面对、产生焦虑。

但是,世界不是只有一种路线(利益)和一种因素,最后我们会发现:

它被制度、成本、政治、伦理驯化。

核能、互联网、基因工程,全是这个路径。

AI 的威胁不是物理毁灭,而是:

谁拥有判断权

谁负责后果

谁能按下开关

对这些要怎么理解,接下来我会讲的,请你耐心看下去,会有启发和收获。

关于教育:AI 逼人类重新定义“什么是人”。

关于社会情绪: 每一次技术升级,都会先神话,再驯化。

所以,我考你一道“生意头脑”的题:

如果未来 AI 不能替人“负责”,那你觉得:

那,谁才是这个时代,真正不可被替代的那一小撮人?

这个问题不是“科技讨论”,而是文明级问题。

你不用急着回答,但是我会教你,如何将这个思考变现为生意。

比如说,以人类的人性与教育为例:

教育不是在「更像人」 或 「在 AI 基础上更有创造力」二选一。

而是:人在 AI 时代的升级方向,是从“产出者”,转为“提出问题、承担判断、负责后果的人”。

这意味着「创造力」的核心,正在发生转移。

很多人把创造力误解成:想象力、灵感、写得好、画得好,不是的,这些AI就会了。

更准确的定义是:创造力 = 在不确定条件下,提出“有价值的区分与取舍”的能力。

是「为什么问这个问题」

是「在这么多可能里,你选哪一条」

是「你愿意为哪一个判断负责」

所以,创造力本质上是“判断权”。

而危险的是,许多人只是把「思考外包」给AI了,这是严重错误的使用。

我们应该提升的是“问题空间的展开能力(problem space expansion)”。

这是心理学和认知科学里,真正的高阶创造力的来源。

即:间接让我们自己提高了思考和提问的能力。

因此,这是一个很多人没意识到的趋势:

最好的 AI,不是“给答案”,而是“逼你形成判断”。

因为,人类除了便捷,还有其他的品质是人类赖以生存而必需的:

判断 ≠ 信息

判断必须有人承担后果

AI 不会、也不该替你承担后果。

这是AI对人,而人对人呢,不是像鼓吹AI的公司所说的那样:

当人人都有 AI,怎么判断“谁更优秀”?

答案是:未来衡量人的标准,会从“答案质量”,转向四个维度。

① 提问质量(极其重要)

不是:问得多

而是:

问得准

问得狠

问得有取舍

问题本身,开始成为稀缺资产。

② 判断一致性(长期可追溯)

一个人是不是优秀,不是看一次回答,

而是:

十次决策里

他站在哪一边

错了之后怎么修正

这会被系统记录,而不是靠感觉。

③责任绑定能力(AI 做不到)

未来真正高价值的人,一定具备:

我选这个方向

我愿意承担后果

我不是“AI 说的”

“这是我的判断”会重新变得值钱。

④ 跨情境迁移能力(这是创造力的王炸)

同一套认知:

能不能从商业 → 教育

从个人 → 社会

从技术 → 伦理

AI 可以生成,但不擅长迁移承担。

所以,人类思维是有游戏规则的,未来必然会会出现「规则平衡规则」:

1.思考溯源(这个观点从哪来)

2.共识标记(这是主流 / 边缘 / 原创)

3.贡献度图谱(你在哪一步产生了分岔)

这就像:

·学术界有引用系统

·开源世界有 commit 记录

“想法的来源与演化”会被结构化,历史和道德告诉我们,不守规则的人,下场就被挤掉。

所以,作为一个“人”,上天所赋予你的道德和品质,永远是最稀缺,最高尚,最美丽的。

不要在机器,面前跪下。

你只是不知道,或者被恐吓到忘了你自己那一份“独特的创造力”最后体现在哪?

答案就是:未来的创造力,不在“说了什么”,

而在“你为什么坚持说这个”。

因此说到底,就是我一直说的主人翁意识。

当主流不支持时,你敢不敢?

当 AI 给你更安全的答案时,你选不选?

当代价出现时,你退不退?

这些:不能外包、不能复制、不能自动化。

如果一个人有奴性,没有契约精神,没有独立人格,高科技应用在他身上,反而是一个灾难。

想象一下阿Q用上了AI会是什么样的场景?

所以,龙生龙,凤生凤,改变命运的不是去学习AI技术,而是精神,思考,觉醒。

AI 时代,人不仅是要“更像人”,还要“更清楚自己愿意为什么负责”。

所以,作为有洞察力的商人,我们能发现另一个商机的存在:

这并不是因为我们冷酷或者资本的贪婪,而是我们有独立的思考,在新事物面前不做应激反应,不崇拜,不恐惧地面对问题。

这个商机就是:那些因为恐惧而去学 AI 的人,大概率学不到真正有价值的东西。

由于恐惧驱动地“学 AI”,为什么容易毁掉创造力?

因为,恐惧会把人推入「模仿模式」,当一个人处于应激状态:

大脑优先求生

会抄路径、追热点、求标准答案

结果就是:学的是「别人怎么用」,而不敢问「我为什么要用」,这不是学习进步,是自保。

这种学习的典型特征就是拼命刷课程,追工具排行榜,问「哪个最强」,「哪个不被淘汰」,不敢停下来思考。

这像极了什么?你一看就懂:

这像极了超市抢鸡蛋。

这种人短期看起来很努力,长期一定被陶汰。

因为逻辑很简单:AI 会比他更新得更快,而他自己也已经变得没有“内在判断”。

但正如我的文章一直强调,人人都可以是强者,做生意没什么神秘的,人人都可以做到,只是你关注的点在哪里?所以,要破解我们深入骨髓的迷思。

他们不是没有创造力,而是“不敢使用”!

他们把创造力冻结了,因为创造意味着承担风险,长期被兜售焦虑带来的恐惧,使人自动最怕风险。

真正不焦虑的人,反而更能用好 AI。

不急着跟风,允许自己慢半拍理解,敢于说:这个我现在不用,这是极少数人在做的。

这不是说“不学 AI”,而是勇气才会提升创造力。

没有错,龙生龙,最后回到原点:有没有种?

因为:创造力来自「主动选择」,而不是「被逼反应」。

主动使用 AI = 放大器,被迫学习 AI = 拐杖。

所以,人的区别不在于,谁拥有了新技术。

而是有种、勇敢,有主人翁意识的人:

不会像那些做应激反应的人处在“过渡期的认知错位”。

大多数人犯错,是因为对风险的感知是对的,所以,就认为自己是对的。

但是,大多数人忽视了,知道并不等于做到:

大多数人知道了,但应对方式是错的!

大多数的人未来会分化成两种:

一部分会觉醒,转向“为自己服务”,

一部分会一直焦虑,成为廉价执行者。

未来,必然会出现一个新商机:专门解决 AI 带来的“人类的问题”,也必然会成为下一代服务业的主干之一。

这个新商机的真实形态:

不是简单的AI 心灵课程、情绪安慰工具。

但是,在AI初期阶段,你从这里入手开始铺垫未来,早点入局,成为品牌。

就像伊隆·马斯克,在2026年所做的事情一样:为融资讲好故事,成为“制定规则”的人。

这场 AI 带来的人类问题,我们同样可以学马斯克不会缺席。

伊隆·马斯克在AGI成为代名词与权威,而我们就在AGI带来的人类问题上成为权威。

这个商机的形态可以是:

① 判断辅助系统

帮人区分:这是你想要的,还是 AI 推荐的?

帮人记录:你的判断轨迹。

② 人类能力“去外包化”服务

帮人把「思考权」拿回来。

教人什么时候不用 AI。

“不用 AI 的能力”,会成为高级能力。

③ 认知教练 / 决策陪伴

不是告诉你答案,而是:

限制你

拆你

逼你自己选

④ 身份与责任绑定系统

未来很值钱的一句话是:“这是我本人判断,不是 AI 生成。”

这会变成一种:

信用

标签

身份背书

因此:AI 不会淘汰人,会淘汰“因恐惧而放弃判断的人”。

而解药就是:如果 AI 什么都会,你愿意坚持“哪一种人类的笨拙”?

那条答案线,才是你真正不可替代的地方。

也许,你就会破解AI崇拜与AI恐惧。

回答前面的话,未来 20 年,“判断权”会集中在什么人手里?

先给结论,判断权不会集中在“最聪明的人”,而会集中在“能为错误负责的人”。

这是很多人没意识到的断层。

判断权 ≠ 算力 ≠ 知识量,AI 时代最常见的误判是:会算 = 有判断、知识多 = 有判断,这是错的。

判断权的三要素:面对不确定性、必须做取舍

结果要追责。 第 3 点,AI 天生不具备。

未来真正拥有判断权的人,有 4 个共同特征

他们在“系统节点”上不是边缘角色,而是:能拍板、能停下流程、能承担连带后果。

例如:企业中的终审者;政策中的责任官员

;医疗中的主治决策者;战争中的指挥官……

判断权属于“节点”,不属于“执行层”。

他们敢用 AI,但不把责任外包给 AI,未来一句极其值钱的话是:

“AI 给了我三个选项,但我选了这个。”

而不是:“AI 让我这么做的。”

他们有可追溯的“判断历史”,不是一次英明,而是:长期判断风格、错了会修正、能解释为什么当时那么选。

判断权开始像“信用记录”一样累积——各位看官请注意,未来的权力来自这里!

他们能跨场景迁移判断,其实是同一套认知:商业 → 教育、技术 → 伦理、个体 → 群体,这些再强的AI都很弱。

一句话总结,未来 20 年,判断权集中在“愿意署名 + 愿意负责 + 能长期自洽”的那一小撮人手里。

勇气,永远是贵族精神,哪怕是未来的新贵。

某些文化说,无赖总是战胜精英,但人类几千年了,仍然是精英引领着文明进展。

答案,不攻自破。

作为普通人,我们如何构建“不可被 AI 代替的认知轨迹”?

这一步是个体层面的生存与升级策略。

其实就是:我们不是要变得“更厉害”,而是要变得“更有来路”。

因为“认知轨迹”,不是能力清单,而是:

你怎么思考、你怎么修正、你在哪些地方一贯如此,轨迹 > 单点能力。

而无赖,是没有这些的!

全网都在教你变强,但是你知道什么是真正的强吗?显然不是狠,也不是黑,更不是坏。

而是一个人没有奴性,有主人翁意识,才能构建自己“不可替代的轨迹”:

这轨迹,就像德能,能帮助你获得判断权,而判断权,就是未来权力的来源。

第一步:固定你的“判断母题”

问自己一个问题(非常重要):

我这辈子反复在意的是什么问题?

比如:

权力与责任

风险与收益

人性与制度

自由与秩序

AI 会换主题,你不会。

第二步:持续公开你的“未完成判断”

不要只展示结论,要展示:

犹豫

修改

被反驳

转向

这正是 AI 最难伪装的部分。

第三步:保留“不优化”的部分

这是反直觉但极其重要的一点:

不要把自己优化得太像 AI。

保留:

慢思考

不完美表达

情绪与立场

这不是缺点,是人类指纹。

(那些优秀得很像AI,有能力,没思想;那些觉得机器很理解我的人,只是自己潜意识去迎合机器而已。)

所以,有没有勇气,不是口嗨,不是戏说,不是圆滑,不是给台阶,而是扎心的一个简单判断标准(你可以自测)问自己:

如果 AI 关掉,

我今天的思考方式还剩下什么?

如果答案不是“空白”,你就在构建轨迹。

希望2026年了,不要活得像阿Q一样自我欺骗。

教育如果真的升级,考试会变成什么样?

先给结论:考试不会消失,

但“标准答案考试”会逐步退场。

从技术趋势上来看,伊隆·马斯克是对的。

但是,从夸大其词与落地应用在各个地区的发展来说,就不是同一回事,不出意外,常常就会出意外,比如某些国家。

因为,不出意外,正常的国度,未来对国民教育考试,测的不是“会不会”,而是“怎么选”。

很多人,说句不好听的,认为自己能力很强,那是他在现有的应试模式下,善于刷题模式。

回答的非常好,但在现实的科技研发与实验、创新发展中,就是像水一样,水。

所以,未来不再考:

记忆力、速度、唯一正确解(标准答案)。

而是改为考:

选择理由(心智)、风险意识、后果预判。

较大概率,有三种必然出现的新型考试形态:

① 情境决策考试(Scenario-based)

给你:

模糊信息

不完整数据

多方冲突

问你:

你选什么?

为什么?

放弃了什么?

没有满分,只有风格。

② 判断过程评分(不是结果)

你会因为:

逻辑自洽

风险识别

反思能力

而这些才是你的“得分”。

哪怕最后结果是错的。

③ 责任绑定型考试(高级阶段)

例如:

·你要为一个方案署名

·模拟后果展开

·被反问、被质疑

这不仅是考试,而是“预演人生角色”。

教育升级的真正目的(不是培养天才),不是培养“更聪明的人”,而是:培养“在不确定中,仍然敢承担选择的人”。

所以,未来 20 年,AI 负责“可能性空间”,人类负责“选择与后果”。

所以,未来人的成长:

判断权 → 给能负责的人;

免责声明:由于无法甄别是否为投稿用户创作以及文章的准确性,本站尊重并保护知识产权,根据《信息网络传播权保护条例》,如我们转载的作品侵犯了您的权利,请您通知我们,请将本侵权页面网址发送邮件到qingge@88.com,深感抱歉,我们会做删除处理。