AI之父警告AI或将毁灭人类 还说自己很后悔(组图)

在AI话题上,可能没有哪个人的警告比杰弗里·辛顿(Geoffrey Hinton)的更有说服力。

在人工智能领域,杰弗里·辛顿的名字可谓无人不知无人不晓。

自上世纪80年代起,他痴迷于研究人工神经网络,通过模拟大脑让计算机从无到有学会新技能。

如今,他的技术广泛应用在AI软件里,让它能自动生成文字、图片和视频。

2019年,辛顿获得了计算机界的最高荣誉,图灵奖。

业内人士也给他极高的评价,称他是“人工智能教父”(The Godfather of A.I.)。

然而,就在今天,辛顿从工作十年的谷歌辞职了,

他向媒体坦言,自己后悔开发AI,AI可能给人类带来毁灭。

“我常找借口安慰自己:就算我不研究这个领域,也会有其他人研究。” 75岁的辛顿苦笑着说,“我是真的找不到方法,怎么防止坏人用AI做坏事。”

此言一出,全球科技圈哗然。

美国媒体称:“辛顿博士从AI领军人变成末日预言者,是科技行业的特殊时刻,也许是过去几十年最重要的转折点。”

过去40年,辛顿都对人工智能技术很乐观。

辛顿出生于1947年的英国,他在23岁时获得剑桥大学的心理学学士学位,之后八年获得爱丁堡大学的人工智能博士学位。

因为英国的研究资金不足,他转到美国卡内基梅隆大学当教授。

后来他又拒绝美国国防部的资助(辛顿反对在战场上用人工智能),跑到加拿大研究机器学习。

当时,研究员为了让计算机学会新技能,普遍选择输入逻辑和推理程序。

但辛顿觉得这很繁琐,为何不模拟人类的大脑,让计算机像人一样学新知识?

他选择研究当时很边缘的神经网络理论,自嘲自己是个怪人。

“我肯定很奇怪,因为大家都觉得我研究的东西是无稽之谈。” 辛顿回忆说,“我想仿照人类的脑神经,让计算机自己学会技能,自己完成任务。”

“可光靠调整虚拟神经元之间的链接,大型神经网络能学明白吗?仅仅只输入数据,不给任何基础知识,计算机能懂如何做事吗?当时主流圈子都觉得这太荒唐了。”

“其实我也觉得荒唐,可结果表明,这么做就是有效。”

在80年代,辛顿和另外两名教授一起,想到用反向传播方法来训练多层神经网络。之后,他在这个领域的成果越来越多,发明出玻尔兹曼机、对比散度算法、时延神经网络等。

2012年,辛顿和他的两个学生建立神经网络,通过让它分析上万张照片,学会识别鲜花、狗狗和汽车等常见物体。

他们用到的胶囊网络技术成为现在很多AI的基石,谷歌也深知他们的厉害,花4400万美元收购三人创办的公司。

之后,辛顿在谷歌的人工智能研究部工作。

两个学生之一的伊利亚·苏茨凯弗(Ilya Sutskever),创办了我们熟悉的OpenAI公司,并担任首席科学家。

在OpenAI的疯狂开发下,AI变得越来越智能,从DALL-E、GPT-3到GPT-4,一起又一次震撼世界。

对这一切,辛顿原本是很骄傲的。

他劝说大家不要害怕AI,它给的好处肯定比坏处多,而且不会比人类更聪明。

“很多大公司都在建立庞大的语料库,来训练自己的神经网络。对机器来说,这确实是一个强大的学习和生成文字的方法。但我认为它比人类处理语言的能力逊色。”

但到去年,随着谷歌和OpenAI使用的数据越来越多,辛顿不这么乐观了。

他认为神经网络和人类的大脑相比,虽然在某些地方表现不佳,但在另一些地方比人类更强。

“到目前为止,我得说,人工智能不比我们聪明。” 辛顿在今天的媒体采访中说,“但我相信它们很快会超过我们。”

“我们开发的智能和我们本身拥有的智能是非常不同的。我们是生物系统,而它们是数字系统,最大的区别在于,后者能在相同权重、相同模型的情况下,拥有很多很多复制品。”

“这些复制品都可以单独学习,同时它们可以迅速分享知识。这就像你手下有10000个人,其中一个人学到了点什么,其他人能瞬间学懂。这就是为什么聊天机器人比单个人懂得多。”

辛顿暗暗责怪微软公司行动激进。

原本,谷歌是AI技术的“看门人”,小心翼翼不发布任何可能造成危害的东西。

但微软将ChatGPT放到半死不活的搜索引擎Bing里,严重挑战了谷歌的核心业务,导致两家巨头开始军备竞赛。

“谷歌一直以来是很负责的。我选择辞职,是因为这个身份说话更有可信度。”

“让我很担心的是,科技巨头正在陷入一场可能无法停止的竞争。公司竞争越是激烈,AI发展的速度越快,进步越大。”

辛顿认为,人工智能会和历史上的工业革命、电力、轮子一样,给世界带去翻天覆地的变化。

一大变化是,人们的世界将充斥虚假的东西,比如假照片、假视频和假新闻。普通人会丧失辨别真假的能力。

(美国网友恶搞的假视频,让共和党人化身为变装皇后)

另一大变化,是将出现大规模失业。现在的ChatGPT已经能取代律师助理、私人助理、翻译和其他重复性高的文职人员。

“它确实消除了很多苦差事。但它带走的可能远不止于此。”

最让辛顿害怕的是,AI可能在未来对人类造成物理威胁,说直白点,毁灭人类。

“现在不管是个人还是公司,都允许AI生成自己的代码,然后再自动运行。AI很可能从大量数据中学到意想不到的行为,一旦施行,后果会很可怕。”

他坦言,也许未来某天,AI会变成杀人机器。从理论上讲这是能做到的。

存在于科幻小说里的强人工智能也可能出现。

强人工智能是指在智能上和人类相同、或更高级的机器,它拥有完整的认知能力,而不只局限于某一方面。

现在的AI局限性较强,属于“弱人工智能”。

“前不久,我还觉得我们搞出强人工智能需要30到50年时间。” 辛顿说,“现在我觉得,可能只需要20年或更短的时间,它就会出现。”

一个智力高于人类的AI,它有人权吗?可以拔掉电线吗?

这里面有太多太多问题……

总之,辛顿希望科技公司能冷静下来,坐下来谈一谈,商量一个全球监管机制。他把AI类比为核武器,目前最大的困难是不知道哪些国家和公司在研究。

“在大家确认能否掌控AI之前,我不认为应该继续扩大研究。”

辛顿的话和其他专家差不多。

今年3月,包括马斯克在内的1000多名科级圈领袖签署联名信,要求所有公司停止研究比GPT-4更强的AI,至少持续6个月。他们希望通过这段时间,搞清楚AI的危害和应对方法。

几天后,拥有40年历史的人工智能促进协会发布公开信,警告AI可能带来危险。签名的人里包括微软首席科学家埃里克·霍维茨(Eric Horvitz)。

OpenAI的首席执行官也认为,如果继续研究下去,可能出现强人工智能。

“一个偏离方向的、超级聪明的强人工智能,可能给世界带来极其严重的危害。”

这次辛顿出面警告,算是开山大佬给所有人敲警钟。

既然这么多科学家感觉到危险,何不停下各自研究的手,给世界带来安宁?

可惜,现实没那么理想化,

大家无法知道其他人是否停止研究,而慢一步意味着在市场上竞争不过别人。

(脸书开发的视频AI,只需输入文字就能生成短视频)

这就是AI领域的囚徒困境吧,

除非各国联合起来发布法律,强制停下研究,不然一切会继续下去……

推荐阅读