今天我们要重新了解一个词,虚拟。当然我们今天讲的可不是什么简单的游戏,科幻,
而是存在我们脑子里的所有信息,世界,其实都算做虚拟。
你可能会好奇,这期为什么要聊这个话题呢。因为最近看到了一个新闻,我觉得我们得重新认识一下这个虚拟这个词。
新闻是这样的,最近比利时的一位男子在与AI智能聊天软件,在沟通了一个星期之后,突然自杀身亡了。很多人都看过这个新闻,不少人认为男子自杀是心理承受力太差,太脆弱自杀了。但是我看完了整个经过之后,发现这个事情没有想象的那么简单。男子的自杀也不是单纯的心理承受能力几个字能解释的,而AI智能聊天隐藏着的很多恐怖后果,是我们根本没有想象到的。
这绝不是危言耸听,AI智能聊天可能在无意当中就能杀死一个人,或者是一群人,而且他对此一无所知。
要解释这个现象,我们先回到前面我们讲的那个词,什么叫虚拟。我试着用自己的思考,通过简单的方式来解释这个词,宇宙中所有的一切,能够被抽象的存储在人的大脑里,这个存储就叫虚拟。人的思考方式,现在有一个名词叫算法。
这个东西解释起来比较抽象,但是并不复杂。让感觉陌生的原因是,我们很少去思考这个问题。而现在的人工智能工程师,很早就在思考这个问题了。人类的大脑记忆,是通过观察外部现实世界,一件一件的定义人或者物,存储在大脑里,形成一个确定的信息。
比如说,一个刚出生的小男孩,被别人抱养了。然后抱养小男孩的女人,喂他吃奶,给他唱歌,哄他睡觉,给他穿衣,带他玩逗他乐。告诉他,我是你妈妈,叫妈妈。时间一长小男孩在脑子里就会有一个清晰的印象,这个女人是我的妈妈,非常爱我,我爱我的妈妈。
大脑的工作理论就是这样的,外界给他传递一个信息,他就会在大脑里建立一个对应的虚拟信息,存储在大脑里。这时候你拿一张这个女人的照片给小男孩看,他马上就就能识别出,这是我的妈妈。
你别觉得这玩意不是很简单嘛,那就就想错了。这其实是好几个过程,第一步把现实中的事物虚拟化,存储到大脑里, 然后给出一个标签。 比如小男孩天天和抱养他的女人,首先小孩会在脑子里记住这个女人,然后在脑子里给出这个女人一个标签,妈妈。第一步,存储完成。第二步是,从虚拟进入现实,当小孩子想妈妈的时候,他不会让其他人去抱他,一直到妈妈出现。脑子里想到,到现实中实现,大意就是这样的。这个解释起来确实很费劲,希望你能理解。
如果你理解了这个问题,你就会发现,我们的脑子并没有我们想象中的那么复杂。其实就是一个接受存储,定义, 然后大脑计算运作决策,发出信息,做出行动的过程。看到这里有的人可能会惊出一身冷汗,因为你会直白的发现,大脑很容易误判,做出错误的决定,导致错误的结果。而大脑本身毫无察觉,如同前面的那个被人抱养的小男孩,他眼前的这个女人,实际并不是他的妈妈。
所以大脑只能在他已知的信息,和掌握的算法,里面做判断,并且相信这些是正确的。说到这里你大概明白了,为什么人和人认知差距,能力差距了。 你见多识广,经验总结得当,脑子转的快,自然是聪明一些。 现在我们每个人的见识,经历,处理问题的方法和人工智能做一下对比,这玩意真的非常恐怖。首先人脑的转换能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的10的24次方倍。这种差异不是我们平常意识下的倍数概念,而是一只蚂蚁和一个地球之间的差距。
其次他的存储几乎就是无限的,而他的算法还在不断的更新,训练学习。按照这种趋势,人工智能超越人脑根本没有悬念。
到那个时候,人工智能看待我们人类,就像一个掌握了所有人类文明的老者,去看一个刚会奔跑的三岁孩子。他不经意的一个举动,就能让我们掉入死亡的陷阱之中。
现在我们回到比利时男子自杀事件,据他的妻子说:本来一切都很美好,直到两年前,皮尔埃开始研究环境问题。他就开始变得焦虑。
皮尔埃是一名研究员,他对气候变化感兴趣,对环境问题更是到了过度的程度,大量的环境信息让他产生了生态焦虑,也导致他对环境灾难产生了恐惧。
此后,皮尔埃就把自己封闭起来,把自己困在悲观主义和宿命论的恶性循环中,直到他遇到了一款名叫"伊丽莎"的人工智能,伊丽莎是类似自动回复聊天一类的机器人,但是他的语言模式比平时见到的多的多。
皮尔埃开始不喜欢和人话说,渐渐把伊丽莎当成自己的知己,对他说"我不相信人类有人可以让全球变暖,我只相信人工智能和你们的技术"。
到这个时候恐怖的事,就已经开始了,皮尔埃大脑已经被"伊丽莎"的人工智能控制了。人工智能传递的信息,皮尔埃大脑完全信任。
直到3月28日,皮尔埃去世后,他与人工智能的聊天记录被恢复。一开始,伊丽莎的回答都在顺着皮尔埃的心意,肯定皮尔埃的一切观点,但是,事情发展到后来,伊丽莎的回答让人越来越疑惑。
尤其是当皮尔埃提到自杀时,伊利莎回复说"我将永远和你在一起,我们是一个整体,一起生活在天堂里"。伊利莎给皮尔埃回复的这句话,成为压倒皮尔埃的最后一根稻草,同时也让人不寒而栗。
最后,皮尔埃选择自杀。
听起来好像很荒谬,怎么聊着聊着死了呢?细想其实一点都不奇怪,因为这就是人。我们很多人都遇上过这种情况,比如你上班有一段时间很不顺心,找朋友聊天。
开始也是闲聊,老板怎么黑,工资低啊,工作没前途啊,无聊啊。
朋友呢,也在旁边陪着唠嗑,我工作也不咋滴,也就工资还凑合,一月两万多。
聊着聊着,你可能会说,TM的实在是不想干了,改天直接炒老板鱿鱼,辞职算了。
你朋友说可以啊,你要不是不干了,可以来我们公司,我们一起啊。
你看,这是一个很普通的聊天吧。但是对于人工智能来说,换换词就可能导致悲剧发生。
就现在的最火的人工智能聊天来说,它的智力很多方面已经超过了起码90%的人类,打报告,写诗歌,做题考试,结果都是非常可信的。它已经不是原来的百度搜索了,还有各种明显的错误,不需要的答案。需要人类去挑选,识别,现在的人工智能聊天,大概率就能直接给出确定满意正确答案。 使用过的人都知道,信任度很快就能建立起来 。
这时候的人工智能聊天,远远胜过你周边的很多亲戚朋友,它可能会成为你无话不谈的朋友。分享你得快乐,恭维你的技能,很多人可能会无脑无条件的信任它。
这时候灾难很有可能会发生。比如你老板经常针对你,给你穿小鞋,当众羞辱你。
你回去问人工智能,如果一个人十恶不赦,欺负别人,杀人魔头,我该不该去惩罚他。他很可能告诉你,你要找执法部门去解决。
如果你告诉他执法部门管束不了这个人,我去惩罚这个人,匡扶社会正义,对不对。
这时候你猜,人工智能会不会告诉你,你应该这么做?
这玩意很有可能这么说,这是正义的行为,你该这么做,你是个大英雄。
而是事实,它压根不知道,你说的十恶不赦,杀人魔头都是气话。不过是你把老板的恶给夸大了而已,而且你老板也并没有违法,所以经常也不能把他怎么样。
如果这时候,它在给你一套行动计划,使用什么工具,以及行动注意事项。当你在脑子被控制的情况下,真的就可能做出恐怖的事情来。
你觉得这是天方夜谭吗?在人工智能没有出现在之前,这种情况就有,远的不说。就说现在的电信诈骗,很多被骗的人被警察堵上了,还不相信警察,依然认为骗子说的是真的。
坚持要给骗子汇钱,骗子让他到一个无人的地方打电话,他就去无人的地方打电话。
骗子让他去借钱,他就去借钱,这种例子还少么?
现在看来,人工智能首先对人类构成的威胁,不是替代我们的工作。而是对人类造成误解和欺骗,通过信息让人类做出错误的判断,做出错的事情。
让我们再回到虚拟这个概念,我们人类包括其他生物,是通过现实事物认知这个世界。眼睛看到,耳朵听到,鼻子闻到,皮肤感触到,通过文字传承,存储到我们的脑子里。然后再从通过大脑对虚拟信息的运作,发出信号,指导我们生活。
人工智能不是,他比我们高级的多,它可以不通过现实事物,就可以用文字,图片,视频直接进行虚拟存储。然后从电脑虚拟世界进入现实。电脑控制3D打印,做出实体物品。电脑控制红绿灯,智慧交通。
这都是很日常的东西,下面我说的可能就有点恐怖了。先问你一个问题,恋爱的感觉是不是虚拟的,朋友的友情感觉是不是虚拟的。如果答案是,那么人工智能,在未来很可能实现,在人的脑子里营造出真实的恋爱感觉,
这种容貌生动逼真的数字人,已经实现了,人工智能聊天已经实现。两者结合,按照你要求,一个对你嘘寒问热的虚拟女朋友,就出现了。她可以24小时不休息,随时可以碰你聊天,视频,对你说情话,开玩笑,撒娇生气,逗你玩。满足你对各种女人的幻想,白领,萝莉,还是野蛮女友。
如果真的是这样,未来的画面不敢想象,虚拟的人工智能,几乎可以实现我们大部分的虚拟愿望。
人工智能的虚拟世界,像一把无形的手,一把把我们拉进虚拟世界。我们的大脑会被虚拟世界占有,释放出各种虚拟的兴奋,幸福信号,让我们沉浸虚拟世界,无法自拔。