|
查看: 211|回复: 7
|
为什么 OpenAI 萨姆·奥尔特曼 是大骗子?
[复制链接]
|
|
|
本帖最后由 aidj 于 5-11-2025 03:57 PM 编辑
前几天 什么重组我不懂啦!
https://youtu.be/Txh3h6dtoto
The TRUTH about AGI everyone ignores
请参考文献综述 或点击 关键词。
P/S: 听说2027年底前要 IPO |
|
|
|
|
|
|
|
|
|
|

楼主 |
发表于 5-11-2025 03:55 PM
来自手机
|
显示全部楼层
本帖最后由 aidj 于 5-11-2025 03:59 PM 编辑
我们是不是被骗了?大模型写得像人,聊得像专家,答得一本正经,让人以为“AGI就在眼前”。可李飞飞(斯坦福大学人工智能实验室主任)一句话,把这层幻觉撕开:“LLM这条路线注定走不到AGI的终点。”
她点出的残酷现实是——语言模型再强大,依然困在词语的牢笼里,看得到世界,却永远摸不到世界。
语言模型的底层逻辑并不神秘。它的任务只有一个:在海量语料中学习统计模式,预测下一个最可能出现的词。换句话说,它擅长的是续写、润色、模仿风格,甚至营造出“逻辑推理”的错觉。但这些操作无一例外,都发生在文本的内部。它理解的,是语言的世界,而不是物理的世界。
问题就在这里。我们生活的世界,不是词语拼出来的。它有重量,有速度,有摩擦力,有随时可能出现的意外和偏差。人类的智能,正是通过不断和这些不确定性打交道才被塑造出来的。比如伸手去抓一杯水,语言模型能告诉你“伸手、抓取、拿起”,但现实中你需要判断力的大小,调整动作的角度,还得防止水洒出来。这些能力,任何只会处理符号的模型都学不到。
如果智能只是停留在语言上,就像一个只会看地图的人,永远不知道走路时的坑洼和泥泞。地图能告诉你方向,却无法带你穿越真实的地形。AGI的终点,必然在文字之外。
李飞飞的提醒正是要我们看清这点:真正的智能必须是感知—行动—反馈的闭环。它要能看,要能听,要能触摸世界,要能在失败中修正,再在修正中学习。
这不是把模型参数翻倍、语料扩展到互联网全部数据就能解决的,而是要跨出“词”的舒适区,进入空间、物理与行动的真实复杂性。
这条路难吗?当然难。它需要机器人学、计算机视觉、传感器技术、因果推理、强化学习的系统性突破。它需要AI在真实环境里不断试错,而不是只在显卡堆出来的虚拟世界里打转。更重要的是,它需要工程师和科学家有勇气,承认“光靠语言是走不通的”,然后重新搭建通往世界的桥梁。
但走出文字围城,也意味着新的风险。一个写错答案的语言模型,最多是信息误导;可一个能行动的智能体,如果决策错误,可能直接带来现实伤害。如何确保它的行为安全、可解释、与人类价值一致,将是更艰难的考验。
好消息是,这场转向已经开始。研究者在虚拟仿真环境中训练智能体,让它们先在沙盒里学会基础动作,再逐步走向真实世界;多模态模型正尝试把语言、视觉、动作与记忆统一起来;机器人实验室正在让AI不止会“说”,还会“做”。这条路漫长,但可能才是真正通向AGI的那条。
李飞飞的这句话,是对当下AI狂热的一针清醒剂。别被语言的幻觉蒙蔽,大模型的流畅并不是智能的终点。AGI的未来,一定会超越文字,走向那个有风、有雨、有重量的世界。 |
|
|
|
|
|
|
|
|
|
|

楼主 |
发表于 5-11-2025 04:38 PM
来自手机
|
显示全部楼层
|
|
|
|
|
|
|
|
|
|

楼主 |
发表于 5-11-2025 04:42 PM
来自手机
|
显示全部楼层
|
|
|
|
|
|
|
|
|
|

楼主 |
发表于 5-11-2025 04:49 PM
来自手机
|
显示全部楼层
aidj 发表于 5-11-2025 04:38 PM
https://youtu.be/xAA3F3FoX24
全球首個家事機器人「Neo」開賣,能掃地、煮咖啡,但仍需遠端人類幫忙?
htt ...
搞不好是 哪个低薪国家人们 操控机器人
https://youtu.be/6FIHQHuGNrg |
|
|
|
|
|
|
|
|
|
|

楼主 |
发表于 5-11-2025 06:54 PM
来自手机
|
显示全部楼层
AI Ponzi game
|
|
|
|
|
|
|
|
|
|
|

楼主 |
发表于 5-11-2025 06:56 PM
来自手机
|
显示全部楼层
https://youtu.be/xrCxxhiuC18?
|
|
|
|
|
|
|
|
|
|
|

楼主 |
发表于 6-11-2025 08:51 AM
来自手机
|
显示全部楼层
|
|
|
|
|
|
|
|
| |
本周最热论坛帖子
|