你敢相信?ChatGPT 已经通过图灵测试了!

AI“统治”世界,需要分几步走?

甚至不是最新的 GPT-4o,老版本 GPT-3.5 和 GPT-4 就已经打破人类和 AI 的最后一层限制。

" 图灵测试 " 由计算机科学家艾伦・图灵在 1950 年提出。他将人工智能给出了一个完全可操作的定义:如果一台机器输出的内容和人类大脑别无二致的话,那么我们就没有理由坚持认为这台机器不是在 " 思考 "。

" 图灵测试 " 和 " 机器人三定律 ",一直被人类世界视为保护人类的最后屏障。

就连 "AI 讲师 " 周鸿祎,都在最近的社交平台上大谈 AI 灭世论,将 AI 焦虑拉到极致。

在 2024 年,以 OpenAI 为首的大模型公司,真的能打开毁灭人类社会的潘多拉魔盒吗?

"AI 灭世论 " 引发焦虑

从上世纪开始,通过图灵测试就成为人类在 AI 领域为之奋斗的里程碑目标。

可真的有 AI 通过测试后,人类的惶恐却大过于惊喜。

加州大学研究人员招募了 500 名参与者,让他们与四位 " 对话者 " 进行五分钟的交流,这四位 " 对话者 " 分别是:真人、上世纪 60 年代的初代聊天机器人 ELIZA、GPT-3.5 和 GPT-4。

参与者在对话结束后,需判断对方是人还是机器。

评估对象通过率(左) 评估者信任度(右)

结果显示,真人被正确辨认的比例则为 67%;ELIZA 只有 22%;GPT-4 和 GPT-3.5 则高达 54%、50%。

这项测试无疑是非常可怕,真人和 GPT-4 的差距仅有 12%!

前 OpenAI" 超级对齐团队 " 成员利奥波德 · 阿申布伦纳(Leopold Aschenbrenner),曾在在社交平台披露出来的一份长达 165 页的 PDF 文档,对外界发出警告。

阿申布伦纳表示,AI 在过去 10 年深度学习的进步速度非常惊人。仅仅 10 年前,AI 识别简单图像的能力就已经是革命性的。但如今,人类不断尝试提出新颖的、更难的测试,但每个新的基准测试都很快被 AI 所破解。

过去,破解广泛使用的基准测试,AI 需要数十年的时间,而现在只要几个月。

而图灵测试虽然名气大,但从问题深度和难度上,并不如当下最困难的基准测试,也就是类似 GPQA 的测试,内容是博士级别的生物、化学和物理问题。

阿申布伦纳估计,GPT-4 进化到 GPT-4o,或者到 GPT-5 模型迭代后,这一基准测试也将作废。

为什么人类设置的难题,会这么快被 AI 所破解?原因就是,AI 学习能力真的太快了!

2019 年发布的 GPT-2 模型,智力水平仅仅于学龄前儿童相仿,只能简单串起一些看似合理的句子,但是却无法从 1 数到 5,也无法完成总结类任务;

2020 年发布的 GPT-3 模型,智力水平大致达到了小学生的水平,能生成篇幅更长的模型,并能完成一些基础的算术任务和语法纠错;

2022 年发布的 GPT-4 模型,智力水平就能与较为聪明的高中生相似,能编写复杂的代码并进行迭代调试,还能完成高中数学竞赛题。

等到 2024 年,更先进 GPT-4o,更是完成了对 GPT-4 的全方位超越。

相比较人类,正常人类从小学提升到初中,需要六年的时间;初中提升到高中,又需要三年的事件。

而 AI 的进化,则是两年一个台阶的越级进化,远远超过正常人类的水平。

超级人工智能时代

" 在 2027 年,我们就有极大可能实现 AGI(超级人工智能)。"

这是阿申布伦纳的推断,他的数据支撑是 GPT-2 到 GPT-4 的模型迭代趋势。

从 2019-2022 年的 4 年时间里,ChatGPT 算力和算法效率都在以每年 0.5 个数量级(1 个数量级 =10 倍)的速度发展。

再加上可能出现的释放模型性能的技术突破,等到了 2027 年,AGI(超级人工智能)时代就会降临,AI 工程师完全可以取代人类工程师的所有工作。

AI 的 " 超级进化 ",背后是算力与资源的巨额消耗。

AI 研究机构 Epoch AI 评估报告显示,GPT-4 训练使用的原始计算量比 GPT-2 多约 3000-10000 倍。

这无疑是个可怕的数据,据阿申布伦纳估计,到 2027 年底,将会出现 2 个数量级的算力增长,用电量相当于美国一个中小型的州的用电量。

也就是说,要拿一个省份的用电量,来支撑起一个 AI 大模型的日常训练,这还是 GPT-4 的水准,还远不到 AGI(超级人工智能)的标准。

周鸿祎对阿申布伦纳的言论并不认同,甚至有些 " 不切实际,更像是科幻小说 "。

他表示,如果一个 AGI(超级人工智能)的诞生就需要多个省份的电力资源,那么有 10 个以上的 AGI,就能把整个地球的资源抽干殆尽。

周鸿祎给出了自己对 AI 的担忧,他认为如果在未来诞生出一个 AGI,它就会取代人类工程师负责对 AI 大模型的开发,那么就会有一个 24 小时日以继夜工作、让算法和技术突破的更快,形成极为夸张的正循环。

在 " 机器人改造机器人 "" 机器人改造算法 " 的模式下,AI 的智力水平会从人类进化到超人,那么就会上演 " 硅基生物 VS 碳基生物 " 的好莱坞戏码。

虽然周鸿祎反对阿申布伦纳的言论,但同样认为智能大爆炸之后的 " 超级智能时代 ",将是人类历史上最动荡、最危险、最紧张的时期。

这并不是周鸿祎在社交平台上,之一次对 AI 领域充斥着忧虑。早在 2023 年年初,GPT-4 刚刚火遍全球的时候,周鸿祎就已经表达过对 AI 安全的担忧。

周鸿祎表示:原来的人工智能给人的感觉像 " 人工智障 ",虽然能做一些技术比如人脸识别、语音识别,但并不能理解你说的什么。但是 ChatGPT 模型不仅能够通过图灵试验,而且它有自己的人设、自己的观点,按照进化速度、摩尔定律,如果进一步训练下去,ChatGPT 也许就能实现自我意识的突破。

一旦自我意识突破,它就有可能控制全网的电脑,就会认为比人类高明很多。在它眼里,人类这个物种其实无论从存储、算力、反应能力、知识面上比它差太远,它就能反过来奴役人类,科幻正离现实越来越近。

作为 360 的创始人,AI 安全问题,周鸿祎的顾虑更多。

无人在意的 AI 安全

OpenAI 作为 AI 时代的领头羊,面对 AI 安全的全球舆论,它做了什么吗?

显然是没有的,甚至 OpenAI 还在今年解散了负责 AI 安全的 " 超级对齐团队 "。

在去年,OpenAI 首席科学家伊利亚 · 苏斯克沃就因为 AI 安全问题,对 CEO 山姆 · 奥特曼进行弹劾,但最终还是山姆 · 奥特曼笑到最后,伊利亚 · 苏斯克沃被赶出公司。

伊利亚 · 苏斯克沃离开 OpenAI 后,在 6 月 20 日宣布成立新公司 SSI(超级安全智能 Safe SuperIntelligence)。

最在意 AI 安全的伊利亚 · 苏斯克沃离职,上文提到了利奥波德 · 阿申布伦纳就以 " 泄密 " 为由,被 OpenAI 同样赶出了公司。

这也是他在社交平台发布 165 页的文档,曝光 OpenAI 的原因。

甚至,曝光 OpenAI 的吹哨人,还不止阿申布伦纳一人,在上个月,有一批 OpenAI 的前员工和现员工联合起来,公开发表了一封联名信,声明 OpenAI 缺少监管,人工智能系统已经能对人类社会造成严重危害,未来甚至能 " 灭绝人类 "。

虽然 " 灭绝人类 " 这个说法过于惊悚,但在解散超级对齐团队之后,OpenAI GPT 商店充斥着垃圾邮件,并违反平台的服务条款从 YouTube 抓取数据。

看到 AI 安全在 OpenAI 的地位,越来越多的安全研究人员,选择另谋高就。

艾隆 · 马斯克也忍不住抨击山姆 · 奥特曼:" 安全并不是 OpenAI 的首要任务。"

对于外界的批评,山姆 · 奥特曼置若罔闻,他已经把全部精力用于推动 OpenAI 彻底转向营利实体,不再由非营利性组织控制。

如果 OpenAI 转型为营利组织后,有限合伙人每年利润分红的限制就不复存在了,巨额回报激励能够进一步扩大合伙人范围,也有利于 OpenAI 走向 IPO。

也就是说,估值高达 860 亿美元的 OpenAI(约 6244 亿人民币),将能给山姆 · 奥特曼本人带来更多的财富。

在 Dollar 面前,山姆 · 奥特曼毅然决然的放弃了 AI 安全。