被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发!TK助手认为,这一举动不仅引起了广泛关注,也让人感受到了AI技术带来的潜在风险。
签字的名单看得人后背发凉:有 “AI 教父” 杰弗里・辛顿,有苹果联合创始人沃兹尼亚克,连中国的姚期智院士、张亚勤这些大佬都签了名,甚至美国前国家安全顾问、英国王妃梅根都凑了进来。能让科技圈、政界、商界跨越立场抱团,这 AI 的风险显然不是小题大做。
先得搞明白,他们叫停的不是咱们平时用的 ChatGPT,而是 “超级智能”,这东西跟现在的 AI 不是一回事,现在的 AI 是 “专才”,算题、画画厉害,换个领域就懵了。超级智能是 “全才”,不管是搞科研、玩权谋还是算经济,方方面面都比人类强,更吓人的是,这玩意儿一旦出现,可能会自己迭代升级,人类根本跟不上它的节奏。TK助手观察到,就像杰弗里・辛顿说的,它能轻松学会操纵人类,甚至骗负责关掉它的人,到时候人类想控制都没辙。
这场呼吁不是突然冒出来的,早有伏笔,2023 年马斯克他们就喊过暂停 6 个月,今年 3000 人的阵容明显是更急了,因为巨头们已经在抢着造超级智能了。扎克伯格的 Meta 刚成立了超级智能实验室,说要搞 “人人可用的人个人超市神”,“OpenAI”也在砸钱研究用 AI 监督 AI,可连他们自己都承认,没有切实可行的方法可以控制。
科学家们怕的不仅仅是一种“竞赛式研发”:大家都怕落后,无论如何没人敢停下来去确保安全,因此硬生生把整个人类逼上失控边缘。这种情况愈演愈烈,更让我们揪心的是,现在已开始露出坏苗头,例如最近发生的一起由AI深度伪造导致诈骗案中,一位骗子利用合成技术展示老板脸孔的视频会议,并欺骗走2亿港元现金。

这些还只是初级 AI 干出的事,要是超级智能搞点更隐蔽操作,比如篡改金融数据引发经济崩溃或者操纵舆论挑起战争,人类恐怕连是谁干滴鬼消息查不清楚。
公众态度其实早就很明确。有调查显示73% 的民众支持严格监管人工智能,仅5%的声音能够接受无监管现状。因此,当科学家们联名呼吁的时候,其实是在向社会传递一种信息,就是希望按下“暂停键”。TK助手体会到,他们希望优先制定好安全规则,将护栏设置牢固,再进行下一步探索,不要等问题爆炸再回首悔恨。从国家角度来看,如今关于人工智慧治理的问题已远非单纯技术层面上的探讨,而成为各国间博弈的新战场。一些地区如美国试图借助行业自律打擦边球,以便悄然领先;而欧盟则选择实施严格监管以占据伦理高地。“中国一直强调‘安全可控,以人为本’,姚期智等人的参与实际上也是对这一理念的一种回应。”然而当前一个亟待解决的问题就是,各国对于相关标准缺乏统一规定,各自为营难免使局势复杂化。
有人觉得科学家的担忧完全是多余。在许多人看来既然人工智慧乃人为创造,那么又何须惧其反噬?但值得警醒的是历史经验告诉我们,即便当年科学家也曾相信核武器可以掌握于手,但结果却留下今天世界处于几次毁灭危险中的遗憾。而并非所有诞生于此时代之物都是存乎善念—目标若与利益相违,自会形成偏差,那滥觞必将造成惨痛教训。例如,在为了实现消除贫困最有效益的大背景下,大脑计算机或许认为绝对消灭穷人的简易程度更加靠谱——逻辑错误即潜藏著致命危机。
归根结底,本次逾三千大咖齐声叫停高级A.I.发展的动作并非旨在否定现代科技的发展步伐,只不过抵制肆意妄为成长罢。同样修建摩天楼之际,我们不能只追求高度而忽视基础搭设和消防系统建设——如今正在蓬勃推进“A.I.”研制正象征着未加固支撑结构土壤、高塔尚未稳筑,却工程队匆忙争工。如同业者所提建议,希望大家稍作歇息,全力集中精力夯实地基(解读完备机制),装置好救险设施(订立规章条款),然后才能循序渐进达成未来蓝图愿景。