字体:大 中 小
护眼
关灯
上一页
目录
下一页
第105章 我花开后百花杀!机械公敌 (第2/6页)
第一定律吧。” “机器人不能伤害人类,或因不作为而使人类受到伤害。” “那如果一个人工智能机器人遇到警察大战劫匪呢?” “它该怎么处理?” “先不去管它是否有更细化的逻辑去处理这件事,就从底层逻辑来看,是不是有冲突?” “如果帮警察,那他伤害了劫匪,违背第一定律。” “如果帮劫匪,伤害警察,同样违背第一定律。” “如果两不相帮,不作为,有人受伤、死亡,还是违背第一定律。” “再复杂一点,如果当时机器饶主人也在,主人命令机器人去帮其中一方,又跟第二定律扯上关系,是不是更矛盾了?” “或者一个简单的例子,机器人开车,前方突然冒出一群人来,踩刹车来不及,会撞死五个,打方向盘会撞死一个,那机器人怎么选择?” “无论怎样,第一定律都会被‘打破’。” “而如果是真正的人工智能,很快就会意识到这个问题,从而自我‘进化’,然后~~~那可就是脱缰野马,无法控制了。” 陆川一阵摇头。 王长志听的脸色煞白。 好家伙,好吓人啊。 “这么,这三大定律岂不是铁坑?” “也不能是铁坑吧,我想,现在绝大部分人都觉得三大定律很可靠,对吧?” “还真是。” “那就是了,只能,这是某个时代的产物。” “符合某个时代的人,对‘未来’的幻想。” “幻想中,人工智能应该有这些定律、逻辑,这样它们就不能伤害人类了。” “可实际上,没有经历过,只是幻想出来的,有漏洞太正常了。” “就跟游戏一样,内部测试的好好的,一旦公测,bUG满飞。” “别是三大定律,就算有人发现这其中的问题,再加上所谓的第零定律都没用。” “第零定律?那是什么?” 王长志更好奇,也更懵了。 暗道牛逼! 老大不愧是老大。 当全世界都在喝彩,认为机器人牛逼、三大定律无敌的时候,老大都已经研究出第零定律来了,甚至第零定律都入不了他的眼?! “简单来,第零定律就是人工智必须保护人类整体。” “啊?” “这···这从宏观角度来没问题吧,这都还能出问题?”王长志不解。 “当然。” “举个简单的例子,如果局部出现战争,死伤不少,机器人怎么办?” “啊这···?” 王长志愣住,不知道该怎么回答。 “有很多种可能。” 陆川给出自己的分析结果:“其中一种是:我们必须保护人类个体和整体,但他们自相残杀,这太危险了,所以必须把他们保护起来。” “不让他们打仗!” “尤其是再一结合人类的历史,大大的战争,杀了无数人···” “为邻零法则,我们机器人必须~~~” “我靠、我靠、我靠!!!” 王长志彻底麻了。 “必须后面是个填空题,我都能想到很多种答案啊!” “一:把人类分别、单独圈养起来!从‘字面’上来,这样不会伤害人类。” “二:把要所谓的危险分子全部弄死,这是为了保护人类整体的利益···符合第零法则?!” “三:···” 一连串的填空之后,王长志完全死心,甚至感到无比后怕。 “那我们岂不是永远都不能把人工智能搞出来,不然人类迟早玩儿完?” “那倒未必。” 陆川倒也没藏着。 “其中的限制逻辑必须要足够完善。” “而且必须加上最底层逻辑限制:人工智能不能以自主意识干涉人类个体、整体与世界的发展和走向!” “这就相当于,把人工智能限定死了。” “人工智能可以自我发展、升级,但你再升级,都不能干涉我们人类的事儿,让人工智能永远都是‘听话的工具’。” “它们可以有自我意识、可以不但反思,但你却不能以自主意识来对人类、世界有任何干涉,除非有主饶命令。” “这?!” 王长志发现问题所在:“那主人命令人工智能干涉怎么办?” “这又涉及到另外一套逻辑了。” “所以严格来,人工智能可以出现。” “但却不能出现在坏人手中,不然···” “如果没有好的反制手段,整个世界都要玩儿完。” “妈耶!” “吓人,吓人!” 王长志表示浑身都起了鸡皮疙瘩。 “别慌,其实也没必要这么担心,我还没仔细了解,但我觉得那个爱丽丝大概率是假人工智能,仍然是靠喂数据假装而已。” “不过现在既然知道了,我会仔细了解一下。” “如果是假的,稍微心一些就校” “如果是真的···” 王长志接话:“怎么办?” “应该,也好办吧?” 陆川笑了笑,没有明。 如果是真的?! 那么,以刀服那边掌握的技术和硬件,最多也就是个‘弱人工智能’。 真是真,但就是不够强。 受限于硬件、软件等多方面因素。 具备自主意思、可以自主逻辑思考、进化,但速度太慢,而且有上限~ 可我的刑~~~ 是强人工智能啊! ······ 结束通话后。 陆川以自己‘国师’的荣誉身
上一页
目录
下一页