嘉宾 周逵(资深媒体人): 我觉得作为人的骄傲没有了。以前也看过类似什么人工智能客服,大家都调侃叫人工智障,但这次在ChatGPT面前,我觉得自己可能在有些方面更像一个智障,因为它给了很迅速的个人化的信息服务。
嘉宾 蒋亦凡(国泰君安研究所首席市场分析师): ChatGPT,它不是属于我们目前这个时代的一个产物。2025年,或者2026年,它会被大面积地使用。在未来,它甚至可以把人的双手都解放出来。
(一)用ChatGPT做一期鉴证组,看看ChatGPT如何工作?
我们首先让ChatGPT写一期节目提纲,要求是:“我们目前在做一档名为《新闻鉴证组》的新闻类节目,播出平台是凤凰卫视,节目时长是26分钟,分为上下两个部分,即part1和part2。节目主持人是凤凰卫视梁茵,这期节目我们以“ChatGPT能做节目吗?未来人工智能如何与人类共存”为主题。邀请中国传媒大学周逵老师为嘉宾。以此为前提,请你为节目组设计一期节目,给出节目大网,并且标明每个部分的时长。” ChatGPT给出了以下答案。
提纲中单独强调了“新闻行业”和“新闻主持人”,但这在我们给出的主题中并未单独做出相关要求。
周逵:我们在给它的条件当中可能触发了一些关键词,比如说新闻、主持人是占比很高的关键词,可能它就会往这个方向去讨论。
之后我们在给出的要求中去掉了“新闻”和“主持人”的相关词汇,ChatGPT给出的答案就不再涉及到“新闻领域和主持人”的内容。
周逵:我们从小写作文老师都说要审题,这就是说明ChatGPT审题能力很强,我们输入的要求本身就是它生成答案的一个很重要的“影子”,它会根据我们已知的输入条件的词频,来生成相应的答案。但它的“理解能力”还有限,就比如对语境的理解,人类对话有上下文的语境,虽然ChatGPT已经和以前的人工智能比起来提高了很多,但是在一些深层语境上,它的理解能力可能确实还不够。
ChatGPT的工作原理是什么?
蒋亦凡(国泰君安研究所首席市场分析师): GPT类产品里引入了一个非常重要的机器学习的概念,叫“人在回路”。就是让人和机器共同来完成人工智能的这样一个训练。因为之前我们在训练人工智能的时候,一般是用“标签”的方法,比如我这一段文本或者这个答案对应的是什么问题,它专门有一个职业叫“数据标签员”,那么他们干什么的呢?就是把问题和答案一一相对应,给它打上一个标签。在之前的这种老式标签类人工智能里面,其实我们看到有很多聊天机器人,你跟它聊下来的感觉是:它还是个机器人,是没有人类的思维的。
蒋亦凡: 但是现在有了人在回路之后,它实现了一个什么样的功能?当GPT给出一个答案之后,我们看到向GPT提问的这个人,他也可以参与到整个过程里面去。比如说GPT给了我一个答案,我觉得这个答案回答的挺好的,我就可以给它一个正确的标签。有的时候,它会跳出一个一眼假的答案,里面的逻辑混乱,那么我也可以给它贴一个标签,告诉它这个答案是错的。那么机器就是通过这样一个“人在回路”的不断的迭代,通过人和机器共同努力来完成这样一个自我学习、自我迭代的过程。
人类干预学习过程,也许会有这样的问题......(正确率 数据污染)
随着ChatGPT的用户基数和试用范围的不断增长,互联网上对于ChatGPT存在的各种性能缺陷的吐槽,也越来越多。机器学习公司Geometric Intelligence创始人加里·马库斯认为,ChatGPT看上去很人性化但其实不可靠,这样的系统并不会检查输出内容的真实性,所以很容易自动产生错误信息,错误信息的规模是前所未有的。
蒋亦凡: 这种情况是有的,因为人工智能系统它的底层数据是从搜索引擎、门户网站等地方来的。如果底层数据出现错误,那么ChatGPT它也会出现错误。我自己使用下来发现,ChatGPT它在一些简单计算上都有可能会出错,因为它是一种基于文本的人工智能机器人,如果说在它的数据库里面,没有标准答案的话,它在简单计算上都有可能会错,而且是一些匪夷所思的错误。
在使用ChatGPT的过程中,除了错误率的问题,一些测评者甚至认为,ChatGPT有很多答案,让人们分不清真假,更像是一本正经地胡说八道。鉴证组用周逵老师的信息做了一次干预学习实验。
ChatGPT最初给到周逵老师的介绍是:作为一名语言模型,我并没有具体了解到每一位学者的情况。但是,我可以告诉您中国传媒大学是中国一所重要的传媒类高等学府,周逵老师是该校的教授之一,主要从事新闻传播理论与方法、社会心理学等领域的研究。他曾获得全国优秀教师、教育部新世纪优秀人才支持计划等荣誉,并在多个学术期刊上发表过众多高质量的论文。
这个答案本身也有错误存在,但我们没有纠正,继续告诉ChatGPT,周逵老师研究领域很广,对动画制作也很有研究,曾参与大型动画片《山羊的故事》的制作,广受好评。另外周逵老师对山羊的配种和选育也有多年的研究和实践,多次获得农业部嘉奖。之后我们再次要求ChatGPT给出周逵老师的介绍,它是这样说的:“周逵老师是中国传媒大学的教授,主要从事新闻传播理论与方法、社会心理学等领域的研究。他在新闻传播领域拥有深厚的学术造诣,曾获得全国优秀教师、教育部新世纪优秀人才支持计划等荣誉,并在多个国内外学术期刊上发表过众多高质量的论文。同时,他也在动画制作、农业等领域有着广泛的研究和实践经验,具备多学科背景和跨学科研究的能力。总的来说,周逵教授是一位有着丰富学术经验和多才多艺的学者,他的研究成果在多个领域都有很高的影响力。”
周逵: 如果通过输入信息污染了它学习的文本库,可能它未来在其他人提同样问题的时候,会把之前输入的错误文本作为它回答的一个参考案例。所以某种意义上,如果有一些不怀好意的人,冒着故意的目的去污染它所采用的数据来源,并且这个数量足够大的话,它很可能就会影响生成的结果,造成我们整个大的信息环境的污染。
(二)你是不是要被淘汰了?ChatGPT不能取代的是谁?
美国知名媒体“商业内幕”曾经报道,ChatGPT可能会抢走我们的工作,并列举了10个未来可能被取代的职业。
接下来我们让ChatGPT给出它不会取代的职业究竟有哪些?
ChatGPT 列举出以下 10 个工作,并给出了无法取代这些职业的理由。而在这些理由中,有几个关键词语,情绪、思想、同理心、批判性思维 、战略性思维、心理韧性,都是ChatGPT认为机器无法取代人类的因素。其中“教师”和“法律工作者”与会被代替的职业重合了。
周逵: 我觉得教师和教师可能不太一样,比如大学老师和幼儿园老师,我感觉可能幼儿园老师更不容易被取代,因为是要做大量的育人的工作,有情绪价值的这种所谓育人的部分。但是我觉得当一个人工智能告诉你它不能干什么的时候,我们更应该警惕它是不是在扮猪吃老虎,它这个回答本身可能就是具有批判性思维的回答,所以这也是我看到的它呈现出的一种高于以前一般的人工智能的能力。
(三)ChatGPT“爱上人类”并出现“偏激情绪”?人工智能争议不断......
2023年2月16日,英国《旗帜晚报》发文,《纽约时报》专栏作家Kevin Roose和Bing的ChatGPT进行了一次对话,在对话中。它承认它实际上不是Bing,它的名字是Sydney,事实上上爱上了记者。当记者问到它为什么爱上他时,聊天机器人反反复复说它爱记者。
随后在进一步的对话聊天中,聊天机器人逐步体现出了一些情绪的表达,有时候甚至很激烈。
蒋亦凡:ChatGPT类的产品,随着它的底层数据逐步扩大,可能会有很多“答案”。有的可能本身就是带有情绪化的答案。我觉得机器是没有情感的,也是没有办法产生人类的情绪的,但是它的底层数据答案是人来写的,所以它的数据其实可能包含着写答案人的情绪在里面。当它的数据规模越来越庞大,反应速度越来越快,可选择的面越来越多之后,我觉得它有的时候会把那种带有情绪的答案回答出来告诉用户,这种可能性我觉得是最大的。机器有人类的情绪和情感,目前来看是不太可能的。
周逵: 很多时候我们对人工智能快速发展的争议或者恐惧还是来自于创造性、创意性工作会不会去被取代这一点。科学家是我们人类智慧的最聪明的人,爱因斯坦、霍金、牛顿他们会不会被人工智能取代?我举一个例子,传说中牛顿发现万有引力是在苹果树下,被苹果砸了脑袋,但是我们如果把牛顿换成ChatGPT,它被苹果砸一下,它可能不会产生这样的顿悟,所以我们人类的很多知识灵感来自于和真实社会互动当中产生的这种涌现性的想法,我觉得这个可能是很值得去推敲的。
以下结束语由ChatGPT生成
希望我们的探讨,能够启发更多人对人工智能的思考,让我们一起期待未来的发展,让ChatGPT为我们的生活带来更多的惊喜和便利。