《穷爸爸富爸爸》到底讲了什么,聊聊现阶段的 AI
老二对财富、商业这类话题很感兴趣
最近在教老二一些基本概念,
其中一个绕不开的话题,是“商业本质”
比如《穷爸爸富爸爸》到底讲了什么
——我没看过这本书,随便翻了几页,觉得一般
但无意中看到过一个对作者的访谈,而且居然耐心看完了
作者面对镜头讲述了当年为什么写这本书,简单说是他的两个“爸爸”
他去向“富爸爸”请教“如何拥有财富”的经验,
富爸爸提了一个要求:你可以在我的公司为我工作,但有一个要求“我不给你发工资”
——关键隐藏在这个细节里:不领工资
作者本人没有意识到关键,他只是当作故事来讲,
其实“富爸爸”作为企业老板,企业的成败,就是利益所在,也是他的责任。
从责任的角度来说,“领工资”与否,只是一种形式。
而“员工之所以是员工”,是因为他们的价值观基于——老板用工资买了我的时间和经验。
所以,有的员工认为“摸鱼”理所应当——从老板那儿得到的工资,大于我实际应该付出,我“赚了”。
当然,也有少数员工会积极承担责任。
换位思考,任何老板都喜欢后面一种员工。
所以,头脑正常的老板,会把这种优秀员工发展成为“合伙人”。
这不仅仅是利益捆绑,本质是“承担责任、分担责任”。
显然,富爸爸之所以要求他不领工资,就是让他承担责任。
让他学会从承担责任的角度,而不是停留在“打工人”角度去思考问题。
这,也正是他问“穷爸爸”如何获取财富,穷爸爸说自己没有经验,建议去问富爸爸的原因。
——穷爸爸是政府公务员,只是“执行者”
——执行者,只对分配给自己的工作负责,而不必对整个组织负责。
聊聊现阶段的 AI
现阶段的 AI,除了我一再强调的从本质角度“AI不理解知识”,最大的表面问题是“不承担责任”
——它理解不了“责任”,更理解不了全局。
以之前提到的 ClawdBot 为例(后来发展成 OpenClaw 开源项目项目,然后必然冒出一堆竞品,毕竟门槛太低),
这些产品或者项目的本质,是用特殊设计的“提示词”让AI反复去挑战自己之前的结论,从而“模拟开放性思维”
——尽可能的“挖掘/压榨”AI员工的能力。
好比激励一个员工,尽量的多方位思考、尝试不同的方法,以提升最终的效果。
——本质很明显:付出更多的时间和人力成本,换取更可靠的结论
进一步,还可以组织团队充分讨论,甚至引入外援加入讨论,提出不同的方案,去验证甚至尝试。
——这显然是通过“工程学”解决问题的有效思路。
好比,英伟达限制出口最好的芯片,逼着我们在分布式训练方面多花心思去优化,用大量的低端芯片“堆”算力。
(所以我之前推荐 DeepSeek,但对它在去年的突破评价虽然很高,但没别人吹捧的那么高
——因为必然有公司会在这个方面做出成绩;
——因为毕竟代替不了高端芯片的设计制造能力,代替不了底层算法的优化和创新)
——经过“多轮”“尽可能充分”的讨论,尽可能去逼近“最优解、完美解”。
但因为前面提到的两个缺陷,实际上只是在 AI 能力范围内的“最优解”,而不是客观事实的“最优解”。
——绝大部分情况下,足够了,毕竟只要能用、很够用。
——只有在要求更高的情况,或者你的经验更高,能明显看出它的不足,才会觉得不够。
当然,反复强调我不是在否认这样的思路的作用,也不是在否认AI的作用:已经节约了不少工作量、效果也的确提升了不少。
以我最近的实际工作为例,AI 配合我充分讨论、编写代码,但我又一次次提出新的改进建议,
每一次AI都说:你的建议非常棒,这次如何如何完善,一定是完美解决方案。
然而,它发现不了一些问题也就罢了,每一次驱动都能让它释放更多的潜能
——那它为何不直接展现出更高水准呢?
因为,绝大部分情况下,它判断不了“一个解决方案”是不是“最佳”,“有没有更好”。
——它能否理解“更好”,取决于它的训练数据和经验,能在一定范围内推理,超出范围就无能为力。
——它的训练数据如果明确的说过,什么什么问题不行,那么就是不行;什么什么更好,那就是更好。
因为,它无法基于“对知识的理解”进行进一步的推理,——无法拓展“未知的边界”。
那么,用 AI 做科研有了新的突破,又是怎么回事?
那是用“算力“优势,用 AI 的优势——”加速时间的魔法“:比如人类忽略了的可能性、人类思考(计算)不到的可能性、甚至”打破人类思维惯性“的可能性,帮助科研人员或捡漏,或缩小了范围。