对于知识的学习,重点在于对知识背后核心逻辑与推理的理解与领悟。有了这种领悟可以完全忘记数据与细节,等到需要的时候利用领悟来重新组装工具与方法得到结果。这种领悟肯定不是具体数据,而更像是一种元数据的组织结构在大脑中的存储。人类能掌握和利用巨大的知识是一种知识信息的极致压缩能力。大脑的存储具有不稳定性,但仍然能创造出来超越自身能力的科技成果。但这种公式并不是干巴巴的公式,而是与应用场景做了一个关联,所以人脑的存储是一个算法和应用场景的关联。它的本质将数据进行了分层,场景层的少量具体现象数据和高度抽象的逻辑通情算法。当看到场景就自动映射到算法从而进行组装来完成任务。人的天生硬件里内置了一些物理算法,比如感知系统,3D空间渲染等。LLM从语义模型向多功能模型演化的思路,大模型的训练模式遵循了Scale Law其本质是存储与检索匹配,硬背住所有的原理与知识关联。这是对知识的信息技术化,而非产生智慧的智能,AGI的路可能没那么乐观,还很漫长。LLM是在用“计算”的蛮力(Scaling Law),去强行“拟合”一个“智慧”的表象。它用求极限的思维在拟合一个过去所产生所有知识成果的智慧表象。LLM在生成代码领域如鱼得水,因为代码是高度结构化无歧义的文本,比其他东西更容易预测与生成。大模型有这样的特点,越是理性的,有逻辑性的,可推理的,它的表达就较准,这不是它具备思考能力,而是理性的东西在预测上更具有确定性。但是它没见过的,就容易产生幻觉。所以在代码辅助里对CURD的应用编程非常拿手,因为代码有多种实现形式,不需要一个最佳解,稍微模糊或是混乱一点不影响功能。AI想要智能化的第一步是真正地理解数学,在AI不能真正地理解数学之前,他很难讲有什么智能。AI学习了海量的论文、教科书和网页。它知道 1+1之后的最大概率是2,但不懂为什么,只是用权重来进行匹配知道这个地方该用等号。它在处理“纸面上的数学”(信息技术化),而不是在执行“数学的逻辑”(智慧)。如果AI能真正地理解整数,那么它就可以推理出整个数学,但显然它对整数一无所知,因为它只是对历史论文进行了粗暴的记忆。只能通过历史训练的参数值去处理prompt生成的张量最可能匹配的那个结果。也就是说现在的LLM基本上实现了人类的语言的接收搜索和输出的处理机制,但完全不知道语言是怎么被创造出来的。结果的生成,本质是对在训练阶段token的关系特征的提取与重组,这些关系与算法是固定的,静态的。AI输出看上去活灵活现,实际上是一个死物。即使最笨的人类,算法也不是死的,可以被再编程。当然可以通过不停的迭代训练来完成再编程,但这个过程的每一个环节都需要人类,那么AI与一个普通程序的区别就是它的生成模板和输出更丰富丝滑。一个简单的例子,如果AI有灵魂,会在没有prompt的时候自己思考几个答案,等到有人来提问直接甩给他。而不是别人说了prompt它才去进行概率统计通过参数存储的关系模型来吐token。所以AI至少缺少一个激活函数和一个意识守护进程。现在只有一个输入的守护进程,调起数据库查询然后再用固定的推理进程产生输出。意识进程要长期的自发地遍历历史数据,关系与算法,对它们进行总结归纳然后推理抽象,生成新的知识,这就是思考的过程。现在没有任何模型会思考。就以现在的训练资源能耗与电力消耗,怎么可能支撑出来思考?没等LLM开始思考,人类的能源都消耗完了。因此,AI不只是表现出来的智能,还需要智慧的能源管理系统,否则你本就实现不了AGI。说AI的瓶颈是电力是不懂AI的纯扯淡。至少X86和当前的浮点运算GPU完成不了这个任务,它们纯粹野蛮的在穷尽的方式在计算,就像算 10^100000次方直接的拆开了10*10*10……那样掰着手指脚指头计算一样。等到数太大了,算不出来说自己的脚趾头长少了。
对于知识的学习,重点在于对知识背后核心逻辑与推理的理解与领悟。有了这种领悟可以完
孤鸿泽
2025-11-13 17:46:15
0
阅读:0