直击WAIC丨图灵奖得主Joseph Sifakis:AGI需要新范式,实现自主性仍然遥远

2023-07-09 10:43:41     来源:21世纪经济报道

“ICT(信息通信技术)和AI之间的加速融合正在创造自主系统,这是从弱AI到AGI(通用人工智能)的一大步。”


(资料图片仅供参考)

7月7日,在2023世界人工智能大会区块链+WEB3新发展论坛上,图灵奖得主、中国科学院外籍院士Joseph Sifakis也围绕人工智能带来诸多前沿技术的研究和思考。

他指出自主系统是迈向AGI的重要一步,而要实现这一步还有很长的路要走,未来前行方向包括设计出围绕可信组件构建可信系统的技术、发展新的科学和工程基础、验证智能系统等。

模型检查领域作出杰出贡献

不像同为图灵奖得主的Yann LeCun,既有一个相当中文的名字“杨立昆”,又在Meta这样为大众所熟知的科技大厂任首席科学家,还有一些诸如“深度学习之父”等响亮易懂的称号,Joseph Sifakis则隐秘许多,聊到他,自然离不开他在模型检查领域所做的杰出工作。

如人们对工程开发的预想,在实际部署之前,为了避免不必要的失败,包括系统在内的所有组成都要严格检测可能存在的错误和缺陷,因为很多时候,一个小小的bug就会让全部努力“付诸东流”。例如1996年6月,欧洲12国联合研制的Ariane 5型运载火箭在首次发射时,仅由于一行代码的溢出错误就导致火箭发射失败,数亿欧元因此放了“烟花”。

随着科技的发展,各种系统也越来越复杂,如今一台汽车所涉及的代码就可以达到上亿行,手动验证系统的安全性与可靠性就是一件几乎不可能实现的事情。

在这样的背景下,Joseph Sifakis在内的几位计算机科学家在1981年提出模型检查的概念。

在提出模型检查的概念后,Joseph Sifakis也一直在积极推动模型检查在嵌入式系统领域的应用,直到如今,模型检查依旧是一个活跃的研究和开发领域,研究人员努力提高其拓展性、准确性和可用性。Joseph Sifakis也因其在模型检验领域的杰出贡献在2007年共同荣获了计算机领域的最高奖项——图灵奖。

所谓嵌入式系统,简单理解即火箭、汽车、手机等设备等所搭载的各种控制系统,随着物联网的兴起,形形色色的智能化产品也让嵌入式系统出现在我们日常生活的每个角落。

“物联网革命的背后是,对互联的智能对象提供的资源管理自动化和增强人们生活质量需求的日益增长。”作为长期深耕行业的大牛,Joseph Sifakis早前也发表过许多相关的见解。

物联网之后,大模型掀起一波新的高潮,生成式AI重新点燃了人们对AGI的兴趣,而AGI的最终愿景就是机器代替人类完成各种复杂的任务,也就是在各种场景下构建可以自主运行的系统,Joseph Sifakis指出,构建自主系统是从弱人工智能到AGI的重要环节。

Joseph Sifakis专门强调了自动化系统和自主系统之间的区别,虽然二者都涉及与环境交互,但区别在于不同的意识感知和决策机制。

“自动化系统以恒温器为例,它只需要从环境中读温度取值,再对温度进行调节,这是一种静态的控制。而对于自动驾驶来说,事情要复杂得多,这种自主系统需要更加复杂的传感器和驱动器,并且要对得到的图像进行逐帧分析,识别障碍物,然后输入运动学的属性,感知功能相当于一个对外部世界的认知模型,自主系统基于这个模型进行决策,从而完成动态的目标管理。”Joseph Sifakis表示。

而要弥合自动化和自主性之间的差距,Joseph Sifakis认为还有很长的路要走,“这也是我们从自动驾驶中认识到的,过渡不是渐进的,为了实现完全自主的愿景,我认为需要发展新的科学和工程基础,而这需要一些时间。”

亟需新范式

“今天,弱Al为我们提供了构建智能系统的元素,但我们没有像建造桥梁房屋一样总结建立复杂智能系统的理论。”Joseph Sifakis表示。

环境的不确定性和决策的复杂性则共同组成了通往AGI路上的绊脚石,而Joseph Sifakis在内多位行业大牛也坚定认为无法绕开这些挑战实现真实可靠的自主和智能。

在ChatGPT爆火之后,美国斯坦福大学组织行为学副教授Michal Kosinski实验发现,ChatGPT回答问题的正确率高达93%,并认为其心智理论能力相当于9岁的人类儿童。

这也引来诸多AI领域人士的反对声音,如北京通用人工智能研究院院长朱松纯认为大语言模型并不符合通用人工智能的要求。

坚决反对“AI末日说”的杨立昆也表达过类似的观点:GPT等大模型的关键缺陷在于其只学习了文本或者其他单一数据,对现实世界的了解十分浅显,而人类的知识和文明不全是从书本上获得的,“书呆子”AI未必有多聪明。

“即使GPT能通过类似测试,也只是体现了它具备通过这个心智理论测试的能力,并不能说明它具有心智理论,同时我们也要反思:用这些传统测试任务来验证机器是否发展出心智理论的做法是否严谨合法?为何机器可以不用心智理论就能完成这些任务?”朱松纯表示。

而Joseph Sifakis则认为,人类的思维与大语言模型背后的神经网络之间有着两个根本区别:一是人类的思维更加稳健,相比之下,神经网络即使面对细微的问题变化,也会产生完全不同的答案,二是人类思维基于常识知识,更能避免在答案中产生矛盾。

不过,对于通用人工智能,两人都呼吁相似的从感知认知到决策执行的新范式。

Joseph Sifakis指出,传统构建系统工程的方法,虽然能够应用于飞机制造以及普通生产制造系统,但无法胜任更复杂的自主系统,而对于自动驾驶领域中另一种试图绕开环境感知与复杂决策的端到端的解决方案,即以行驶过程中由摄像头采集到的道路场景图像和人为操作车辆的控制参数数据作为数据样本训练的自动驾驶大模型,Joseph Sifakis也给予了否定。

“由于目前人工智能输出的方案缺乏可解释性,其输出的结果有时候未必可靠,系统工程的构建是一个突破点,我们需要从小规模、集中式、环境变量可被设定的自动化系统,转向复杂的、分布式的自主系统。”Joseph Sifakis说。

“我认为我们应该承认智能系统需要严格的验证方法,诚实地克服当前的限制性,开发新的基础,并在必要时可能修改认识和方法要求,但是要小心,要了解我们在做什么。”Joseph Sifakis补充道。

(文章来源:21世纪经济报道)

标签:

包装