众所周知,日常生活中随处可见的ai,实际上与大多数电影和文学作品中的ai相差甚远。 但是,在人类创造的电影和文学作品中,依然有很多ai叛乱的桥。
现实中,我们也知道ai变得更好了,但他们真的能叛乱吗? 你能安排预防措施,永远忠诚于我们,永远不杀我们大家吗?
还记得机器人三定律吗?
许多科幻迷还记得阿西莫夫的机器人三定律:
机器人不能伤害人,也不能因不作为而伤害人。机器人只要不违背第一法则,就必须服从人的命令。机器人只要不违背第一法则和第二法则,就必须保护自己。
但是,首先,把三定律翻译成定律是错误的。 牛顿三定律是人类注意自然界总结的结果,有理由相信在其适用范围内始终成立,但阿西莫夫三定律实际上是三法条,是人为写在机器人头上的,背后没有任何物理支撑。 任何了解机器人结构的人都可以制造出不遵守三定律的机器人。 这不是机器人自身故障的可能性。事实上,阿西莫夫自己至少写了三个不遵守定律的例子。
而且,这个三定律连人类和机器的定义都不确定,规定给他们阿西莫夫写的索拉利斯人,给他们的机器人只有有索拉利斯口音的人是人类。 人形机器人也会带来各种评价的麻烦。 (这又引出三定律的另一个问题。 如果机器人没有掌握足够的新闻,无法意识到行动的结果,不是可以恣意行动吗? )
而且,法则之间的冲突解决得更奇怪了。 在早期的作品中,一个机器人陷入第二定律和第三定律的碰撞中陷入了死循环,但是在之后的设定中,如果发生不可调整的碰撞,机器人就会自行毁灭,但是碰撞是非常常见的现象,是连续谱。 如果一个行为伤人,那当然适用于第一定律。 其中50%是? 1%呢? 0.001%是多少? 不能计算概率吗? 如果你知道有交通事故的风险,机器人会听从开车送你去上班的命令吗? 是受命令者的语调和命令的紧迫性影响吗? 这些都是现实中极为常见的,用三定律无法解决的问题。
这说明了三定律的根本问题。 那是一个非常简化的义务伦理学( deontology )体系。 它无限强调理性的力量,试图用简单普遍的规则来揭示大千世界的一切情况,但现实哪有这么简单! 让我们来看看旧约之神试图用十戒规范人类,结果是什么。
限制ai吗? 没什么用
如果有可能危害我们的程序,标准方法是在严格管理的虚拟机中运行。 那样的话,即使不好也只会损坏虚拟机。 ai也可以这样处理哦。
在其他程序中,这样做确实没问题。 但现在我们面对的是智能超群的ai,而且监视它的还是人。 既然囚犯有可能通过诈骗、说服或威胁向狱警开门,那ai呢? 想象一下,当你醒来后,你会发现自己被困在一群老鼠中,可以传达信息。 在这种情况下逃生有多难? 你真的能永远防止ai超人的智能吗? 即使人会,我们用来关闭ai的虚拟机能保证永远万无一失吗?
ai研究者已经模拟了所谓的ai盒实验。 一个身体演ai,另一个身体演守卫,只有同等水平的智能,ai已经有很大概率能说服人类开门。
更何况,即使第一个ai被关在箱子里,接下来也会是第二个、第三个、第四个吧。 因为我不知道其他人工制作的ai是什么样的,所以可能比你更危险。 至少我知道自己做的东西。 而且,不管你想让ai完成什么任务,只要允许接触外部环境的所有新闻,一定会把它做得更好; 如果别人那样做,你会吃亏的。 而且,推出的超级ai还可以顺便炒股票。 你确实是第一个创造这个伟大奇迹的人,所以不完全利用它带来的东西,任凭后来者居上做完全相同的事件,那还有什么意义呢?
聪明是善良吗? 那个不一定是那样
我们希望的ai,既然各方面都比我们好,他们也许智力更好,道德上也比我们好,所以不会邪恶愚蠢到杀死我们吧。
问题是,如何知道ai的目标是什么? 人类心灵的基础是进化的产物,有生理、安全、社会交流、尊重、自我实现等共同诉求,但每个人的侧重点和实现方法都不同。 但是,最初的超级ai很可能来自现实的诉求,比如以在股市赚钱和增加工厂产量为目标,而不是模拟器。 这个时候,会发生什么事是不容易预料的。 道德体系可能和人类没有共同点。
一个思想实验是所谓的剪辑式大机器。 如果你在设计机器生产剪辑,不知道它如何拥有超智能,那在整个地球变成剪辑之前,把所有的智能都投入到更好、更快、更多的剪辑上。 如果我命令你生产一亿个剪辑呢? 那1亿个指针应该有计数和质量管理吧。 必须追加新的机器吧。 新的机器总是有发生问题的可能性吧。 有必要修改越来越多的机器吧。 最终,整个地球将在一个计数器、探测器和各种辅助设备的基础上,增加一亿个几乎完美的剪辑。 它是制作剪辑的机器,它的道德体系以制作剪辑为中心存在,它爱你也不恨你,它只是把你看成可以制作剪辑的原子。
让ai背负道德的一切吗? 怎么可能
ai既然拥有优秀的智力,学习能力就永远不会差。 正好现在,我们也有各种大数据工具,把我们现有的整个道德体系注入ai,那就好吧。
那么,倒哪家? 很多道德理论之间矛盾一团糟,谁能说自己代表着道德哲学的巅峰呢? 何况这只是我们现在的理论。 如果古希腊人创造了青铜人工智能,他们会教什么? 如果是墨家做木头的人工智能呢? 肯尼希斯贝格的吨型人工智能会成为康德的学生吗? 伦敦的人工智能师从米尔吗? 这些中哪个能在当今社会完美生存? 今天的伦理道德50年后还成立吗?
就连我们人类自己,也没有消灭杀人和战争,也没有找到真正的道德之书和幸福之源。 在一分一秒的日常生活中必须怀疑、挣扎、悔恨。 那么,我们创造的超级ai,是比我们更聪明、更不可预测的ai,从我们身上能学到完美的答案是什么呢?
时间、平等、信息表达和爱
这可能是有成功先例的方法。 孩子是我们的造物,但也是独立的个人。我们可以教他们,但永远无法控制他们。 怎么会有人拥有非凡的智力、想象力和创造力,却完全在另一个人的控制之下? 如果你想要会画画的ai、能解决现实中很多复杂问题的ai、会陪你聊天的ai、像人一样比别人优秀的ai,你可能会意识到除了给你自由之外别无选择。
因为这是面对超级ai,最终的处理方法,可能会放手。 教授知识和世界观,并与之一起探讨和思考。 世界变化很快,没有人真正知道该怎么做。 也许我们应该和我们制造的ai一起前进,而不是徒劳地试图用枷锁和条文来控制。 毕竟,就算我们连接了ai,我们自己毁灭了自己的能力,也一点也不会变弱哦。
温馨提示:尊敬的[]站点管理员,将本页链接加入您的网站友情链接,下次可以快速来到这里更新您的站点信息哦!每天更新您的[“AI如果造反?人类,我们该如何办?”]站点信息,可以排到首页最前端的位置,让更多人看到您站点的信息哦。
将以下代码插入您网页中,让网友帮您更新网站每日SEO综合情况
-
考完教师资格证第二个证 还要重报三门吗?题王网tiw.cn -
报考同一学段第二个 教师资格证 ,其他科目笔试成绩还在有效期内,只需要报考 科目三 ;若笔试成绩已过有效期,需要重新报考三门。报考不同学段的第二个教师资格证,由于中学学
-
“海尔U+智慧馆首家旗舰店落户上海滩 推进智慧生活落地” -
đội arsenal 【科技在线】 未来的智能家居怎么样了? 中国智能家居海尔连续7年夺冠,将智能家居从电影中虚幻的场景变成了生动的现实。 5月28日,海尔u+智慧馆旗舰店落户上海市浦东
-
裸眼3D签到是怎么弄的?裸眼3D签到效果怎么样 -
裸眼3D签到 是怎么弄的?裸眼3D签到效果怎么样 一块LED屏幕带你体验裸眼3D的视觉体验。 1、来宾扫码签到(可对接微信签到) 2、头像变成方块飞入大屏(可设置背景图) 3、解决传统
-
四川良心防静电台面板怎么铺?_佰斯特POUSTO -
在现在生活当中,我们经常能够看到很多企业都会使用到 防静电台面板 ,它能够很好的满足企业的防静电需求,而且对于产品来说也是一种保护措施。 但是在进行防静电台面板铺设的
-
“广东移动与TCL签署5G战术合作协议 携手打造5G+工业网络示范园区” -
美容院管理系统 9月24日,广东移动与tcl在惠州tcl科技大厦签署5g战术合作协议,开展基于5g的联合创新实验室、智能制造与智能园区等合作,构建电子制造业5g+工业网络应用标杆,5g+工
-
“WiFi一键连接:你的WiFi可能已被默认分享” -
麻辣烫加盟 【科技在线】 资料来源:每日经济信息 经记者蒋佩芳特约记者黄洪波经陈俊杰 从pc时代到移动互联网时代,wifi在人们的生活和工作中扮演着越来越重要的角色,其结果是很