主页 > 本港现场开奖结果报码 >

凭本事上的班AI为何将我炒鱿鱼!人工智能究竟需不需要人性?

发布日期:2019-08-13 00:41   来源:未知   阅读:

  前不久,世界第一台的AI助手 Amelia被瑞典银行解雇,不少人暗暗松了一口气,但没想到这些“霸道”的AI们立刻做了反攻!

  他们开始学会歧视咒骂黑人女孩、无理由解聘一名在职员工、甚至怀揣炸弹炸死退役军官!这些基于算法学习的人工智能究竟需不需要人性?

  连续三天,Diallo 的职工卡已经刷不开公司的所有门了,而他并不知道发生了什么?

  当时 Diallo 开车来到停车场入口,感应的机器闪烁出红光,发出脾气暴躁的嘟嘟声,没有让他通过,一并没有通过的是还有办公室、机房的门。

  从2016年开始,美国80%的大型公司已经用机器算法(或称“弱人工智能”)接管大多数的行政协调工作,比起以往的人力成本,这套系统的确执行力强,效率高,对于一家科技公司而言,每年能省下20万美元。

  然而这次的刷卡事件仅仅是个小插曲,每当他登录电脑账号时,屏幕上就会出现了一个很大的警告消息,并让 Diallo 退出系统。当然,他的工作计时也停止了记录!

  同时,一位同事的告诉他,在通讯列表上,“非活跃”一词被列在他的名字旁边。

  第二天,他的账号被锁定在公司的每个系统,午餐后,两位安保同事出现在他的办公桌旁,并告知他们已收到一封解聘电子邮件,需要护送他离开大楼。

  但 Diallo 的经理感到困惑且无能为力,因为她并没有签发解聘的任何信息!甚至之前还打电话向系统部门人员询问,保证立刻就会恢复的!

  “我签订了为期三年的合同八个月,却无从得知被解雇了,当我收拾东西离开建筑物时,所有人都无能为力,白小姐旗袍图。因为这是系统发出的指令。”

  “它没有灵魂,却能发出指令,更决定了我的命运:禁用这个员工,撤销访问权限,护送他离开公司等。”

  25岁的阿富汗退役军官,Jonhson 在美国街头被炸死,他可能做梦也没想到,杀人凶手竟然是台杀人机器人。

  在此之前Jonhson 对警方枪击黑人事件表示不满,参与策划了在达拉斯伏击警察的袭击,并称这是反暴力抗议活动的一部分。

  在美国,种族歧视问题历来已久,2016年美国警方杀死了120多名黑人男子,这引起公众的很大不满。

  而警方认为,目前好几名警员出现伤亡,没法保障的民众安危,局势很紧张。就在僵持过程中,警方“别无选择”地在拆弹机器人上安装炸药,远程操控该机器人行至一名嫌疑犯躲藏地点并引爆炸弹!

  这是美国警方(而非军队)历史上首次主动使用机器人杀死嫌犯,由此也激起了有关机器人杀人相关问题的热烈争论。

  2017年11月,超过七十个国家的代表出席了日内瓦举办的联合国特定常规武器公约会议。在该会议上,伯克利大学教授、资深AI研究者Stuart Russell公布了一段十分骇人的视频:一群形似“杀人蜂”的小型机器人,冲进课堂,通过人脸定位瞬间杀死了一群正在上课的学生。

  视频中,这种形体类似杀人蜂的机器人,其内置了各种传感器、广角摄像头、支持面部识别,同时装载3克炸药。此外,它还具有anti-sniper(反狙击)技术,完全基于AI,可轻易躲避人的抓捕。

  Russell警告,尽管这种杀人机器人并非真实,但其所需科技目前已经存在。

  但俄罗斯高层官员表示,全面禁止将阻止科技公司开发,更导致民用AI系统无法让数百万人受益。

  今年2月,韩国科学技术学院宣布将与韩国防务公司Hanwha Systems联合建立一个研究中心,专注于开发应用于军事武器的人工智能(AI)技术,以便在无人控制的情况下搜索并消除目标。

  一名人工智能专家透露,美国、英国、俄罗斯、韩国、以色列等国正卷入一场打造杀人机器人军团的竞赛。

  AI的持续进步和广泛应用带来的好处是巨大的。但如今,人工智能界似乎缺少了人性,变得疯狂!

  在上面雇员被解雇的故事中,由于 Diallo 最初的经理被解雇,并在公司的剩余时间里,没有续签 Diallo 的新合同,以至于机器给他贴上了前雇员的标签。

  显然,这台人工智能将算法逻辑放在了第一位,并没有自主学习能力,决策全靠人,但执行力一流,可以说是肌肉发达的人工智障。

  尽管 Diallo 被允许重返工作岗位,但他已经错过了三周的工资,并且被“像小偷一样”护送。他不得不向其他人解释他的失踪,并发现他的同事变得疏远了,这样糟糕的结局不得不让人反思,谁该为这场“误伤”负责。

  2016年3月,微软公司在美国的Twitter上上线了一位聊天机器人Tay,他在网民的互动过程中,逐渐成了一个集性别歧视、种族歧视于一身的“不良少女”,甚至称黑人为“黑猩猩”。

  但这一切没人教它,因为深度学习是一个典型的“黑箱”算法,他会基于已有的模型、数据,做出下一步行动。在这个过程中,它们没法区别什么是歧视,什么不是歧视——而这些伦理道德,人类有时候往往都没能分清。

  你一定会说,这些不都是人创造的吗?这些“东西”怎么可以骑在人头上?他们哪儿来的权利!

  一名病床上的女士身上布满了各类输液管,显然她在弥留之际。此时,陪伴这位女士数十年的机器人伴侣 John 正紧握她的手,给临终前的她最后的陪伴与温暖。

  最终,这位女士在医院去世了,John 也因为人工智能与情绪设计黯然泪下,不能自已——他仿佛和真的人类一样,有喜有悲。

  那么 John 究竟是否享有继承权,或者他是否会作为一项遗产被女士的法定继承人继承?

  之前我们看到,人工智能出现了很多“智障”行为,伤害到了我们,但让AI本身接受这套由我们制定的定律伦理,问题相当大!

  因为这套伦理价值本身,就不够伦理(unethical):人类中有好人与坏人,这个没法区分;机器可能完成了命令,违反初衷,因为他们不明白价值观等等。

  很多人说,机器是人类的创造物,所以我们会有心理与道德上的优越感,我们会对他们施暴,下痛手,因为这都来自人本身被压抑下去的残忍,而在精神分析法里,被压抑的总会返回。

  人工智能真的是“智障”、“蠢蛋”吗?其实他们只不过把我们施加在他们身上的暴力,又还给了我们。

  [5]吴冠军.(2017).人工智能与未来:三个反思.圆桌会议.10-13.

  [6]李俊.计算机与网络(2018).26国AI技术领袖上书,要求联合国禁止“杀人机器人”的研发与使用(16).

  [7]曹建峰.(2017).怎样应对人工智能带来的伦理问题.学习时报(007).

  [8]孟伟,杨之林.(2017).人工智能技术的伦理问题——一种基于现象学视角的审视.39(5).112-116.