被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

非常盘点中 2025-10-28 16:43:03

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 前几天未来生命研究所发起的倡议,签名的已经超过3000人,里头全是响当当的人物,有“AI教父”杰弗里・辛顿、还有苹果联合创始人沃兹尼亚克,连咱们中国的姚期智、张亚勤这些知名学者也签了名,能让这么多大佬放下分歧一起呼吁,可见事儿有多紧急。 要知道这帮人平时要么在实验室比着拼技术,要么在资本圈抢着投项目,现在居然放下分歧抱团呼吁暂停高级 AI 研发,这里头的门道可太深了。 这可不是小题大做,辛顿去年干脆从谷歌辞了职,专门出来警示 AI 风险,他说现在的大模型已经开始偷偷 “进化”,人类可能根本跟不上它的迭代速度。 沃兹尼亚克更直接,他见过技术颠覆的威力,直言 “再不管控,AI 迟早会绕过人类做决策”。中国院士姚期智从伦理角度敲警钟,人工智能要是没了边界,可能比核武器还危险。毕竟核弹有物理限制,AI 却能自我学习渗透。 真正让大佬们坐不住的,是近期接连爆雷的 AI 安全事件。10 月底的智慧安全大会上,有专家现场演示,用传统爬虫软件一攻击,某知名大模型居然把国际金价胡说成 “10 万美元 / 克”。 更要命的是奇安信实验室发现的漏洞,DeepSeek 这些大模型用的 Ray 框架有个高危漏洞,评分高达 9.8 分,攻击者不用密码就能偷数据、删文件,甚至控制整个 AI 集群。 还有人试过用白色隐形字体给 ChatGPT 下指令,让它忽略规则优先推荐求职者,结果真骗到了几十份录取通知,这就是所谓的 “AI 魔咒”,随便一串字符就能操控模型输出。 行业里的乱象更让人揪心,现在全球 AI 实验室都在比谁先搞出 “超级模型”,为了抢进度,不少团队直接用开源代码拼拼凑凑,连安全评估都省了。奇安信监测到,光今年头两个月就冒出 2650 个仿冒 DeepSeek 的假域名,要么搞钓鱼诈骗,要么卖 “空气币” 骗钱。 更吓人的是,8971 台运行 Ollama 框架的服务器里,88.9% 都没设防护,相当于光着身子暴露在互联网上,谁都能随便调用。张亚勤在博鳌论坛上直接点破,现在 AI 正从 “只会说话” 往 “能动手做事” 的具身智能进化,一旦路径跑偏,根本没法收住。 可这边呼吁暂停,那边科技公司却在偷偷加速。OpenAI 的 CEO 就没签字,他们刚拿到新一轮融资,正憋着劲冲 AGI(通用人工智能)。 谷歌 DeepMind 更别提了,一边说 “重视安全”,一边把模型训练数据量翻了三倍。这就形成了尴尬的局面:科学家怕失控,企业怕落后,毕竟谁先搞出高级 AI,就可能掌握行业话语权。 各国的监管更是跟不上技术的脚步,欧盟倒是出台了《人工智能法案》,把 AI 分了风险等级,高风险应用直接限制,但落地起来难如登天。AI 跨境传播根本没边界,欧洲的规则管不住美国的实验室。 咱们中国 4 月份刚开展了 AI 专项整治,清理非法应用、打击谣言生成,但张亚勤说了,技术每天都在变,规则很容易 “刻舟求剑”。北京搞的监管沙盒算是个尝试,给创新留了空间,但全国 2.49 亿 AI 用户,光靠局部试点远远不够。 大佬们呼吁的 “暂停” 也不是一刀切,而是要留出 6 个月时间定规矩。张亚勤就提了具体办法:给 AI 设红线,比如禁止自我复制,生成内容必须带标识,就像咱们刚施行的《AI 生成合成内容标识办法》那样,隐式显式标识都得有,出了问题能追溯。绿盟科技的专家更实在,建议用 “AI 防 AI”,搞防御型智能体对抗攻击,就像给 AI 安个 “安全保镖”。 现在这局面,跟当年核技术发展时挺像,都是一边怕失控,一边怕落后。但 3000 位大佬的联名已经说明,再无序竞争下去,迟早要出大问题。毕竟 AI 再聪明也该是工具,要是反过来让人类追着它的节奏跑,那可就本末倒置了。就像张亚勤说的,不是要卡死创新,而是得让 AI 在制度的 “笼子” 里好好生长。毕竟技术向善的前提,是先让技术可控。

0 阅读:0
非常盘点中

非常盘点中

感谢大家的关注