通用人工智能(AGI)又称强人工智能,是 AI 的一种理论形式,指具备等同或超过人类智能行为水平的人工智能。现在各国AGI发展呈现一派欣欣向荣的景象,但担忧的声音也越来越多。
3月29日,由特斯拉公司CEO 埃隆·马斯克等业内外知名人士联名签署了一封公开信,呼吁全球所有AI实验室立即暂停训练更强大的生成式人工智能系统,为期至少6个月,以确保人类能够有效管理其风险。上个月,被称为“AI教父”的杰弗里·辛顿宣布从谷歌离职。在离职的同时,杰弗里·辛顿宣布,自己正式加入AI批评人士的行列,甚至表示对自己一生从事的工作感到有些后悔。他认为,随着企业改进AI系统,它们会变得越来越危险。此事激起了更大的反响,因为如果说马斯克算外行的话,辛顿确实是普遍公认的业内翘楚。由此,AGI引发的治理问题引起了越来越多国家的重视。
然而笔者认为,且不说马斯克、辛顿等人的言论是否有偏颇,这些言论暂时还算不得国际的主流认知。国内也有类似的担心,目前也只可能会扰乱决策视线、加剧公众焦虑,难有建设性作用,例如“生成式人工智能将压制人类”“AGI打开了潘多拉魔盒” “人工智能将大规模取代人工”等。
泛泛的讨论、杞人忧天都没有意义,更重要的是认真思考接下来发展可能面临的风险,尽快出台治理方案。以下三个方面值得我们关注:
一是如何尽快突破AGI发展的技术瓶颈。海外大厂的开源技术有随时关闭的风险,我国需要有自研的大模型,莫让别人的地板成为我们的天花板。但目前国产大模型的问答结果与国外还存在较大的差距,以芯片为核心硬件基础的算力一直还处于“卡脖子”的状态。所以,如何突破这些技术瓶颈,甚至换道超车都是当前迫切需要解决的事情。
二是监管体系如何弹性化。国内对AGI的监管讨论刚刚开始,尚未形成成熟的监管思路:大模型在C端的应用依然处于悬而未决的状态;互联网大厂在既有的应用中大规模使用生成式AI也未有定论;使用海外数据训练,如何在国内进行微调也还需要一个过程。在国际竞争如火如荼之时,监管的效率直接决定了AGI的发展方向和发展速度。如何在数据与隐私安全、滥用风险、伦理等方面保持平衡,考验着监管者的智慧。
三是就业问题需要未雨绸缪。工业革命时期,大规模机器生产逐步取代小规模手工作坊生产,机器开始替代人工,引发了工人对机器的不满,形成了“卢德主义”,即对新技术和新事物的一种盲目冲动反抗,经常发生工人破坏机器以发泄对新技术不满的事件。经济史表明,真正能够引发宏观性、全局性就业危机的因素只有经济萧条和制度摩擦,而不是机器换人;机器可以代替一部分人力,但是同时也会按自己的“乘数效应”产生很多新岗位,甚至比以前更多。