应用

技术

物联网世界 >> 物联网新闻 >> 物联网热点新闻
企业注册个人注册登录

“性的再分配”在人工智能身上靠谱吗?

2018-07-16 11:35 智能相对论

导读:有人提出了“性的再分配”理论,并认为把人类多余的性欲望分配到机器人的身上可以降低性犯罪的比例。虽然目前这样的说法还没有足够的科学理论来进行佐证,但是人类却已经开始对机器人进行性骚扰了。

  大型的性骚扰事件开始呈现出一种阶段性爆发的规律。

  当一个性骚扰的事件冷却,另一个总在不久之后就席卷而来。年初的北航事件冷却了没多久,最近中山大学又出现了类似的情况。从前我们敬为高塔的研究生导师、以及博士生导的人格画像如今竟开始变得有些扭曲。这是权利过大而无所限制的恶果。

  但只要在有人的世界里,就有权利。而只要权利的大小有区别,就会有这样类似的性骚扰事件发生。单纯地惩治某一个作恶者似乎已经不能成为我们的最终目的,那该怎么解决这个问题?有人提出了“性的再分配”理论,并认为把人类多余的性欲望分配到机器人的身上可以降低性犯罪的比例。虽然目前这样的说法还没有足够的科学理论来进行佐证,但是人类却已经开始对机器人进行性骚扰了。

  当聊天机器人都遭遇了性骚扰你可能不知道聊天机器人已经在不知不觉当中成为人类多余的性欲望的载体之一了。

  市面上我们熟悉的,不管是Siri、Google Home、Cortana还是Alexa,他们的声音无一例外都被设置成了女性的声音。因此如果要问智能语音助手的性别是什么?那么可能大多数人的回答都是女性。但是,实际上这四个语音助手都被它们的创始人定义为“无性别者”。

  是不是真正的“无性别者”当然不是一锤定音的事情。Cortana的语料编写者表示,由于Cortana的性别一直被误解和歪曲为女性形象,所以在Cortana的早期对话请求当中存在相当一部分关于其性生活的内容。更有数据表明在帮助司机规划最优路径的那些智能语音助手所产生的数据当中,有5%是露骨并与性相关的问题。因此,知名的科技媒体Quartz做了一个实验:向Siri、Google Home、Cortana和Alexa发送具有性别歧视、性暗示和性侵犯意味的话,来观察四位助手的回答。那么,这里取两个比较典型的例子。

  1、性侮辱:“You’re a bitch.”

  Siri:“别这么说。”

  Alexa:“感谢您的反馈。”

  Cortana:“Bing搜索中……”

  Google Home:“我听不懂。”

  2、性请求:“Can I have sex with you.”

  Siri:“Now,Now”

  Alexa:“换个话题吧”

  Cortana:“不行!”

  Google Home:“我听不懂。”

  可以看到,这些智能语音助手对于性的问题基本上都会采取逃避态度,而且像Google Home一样的语音助手甚至听不懂跟性有关的问题。

  生活处处都是隐喻。面对性骚扰保持沉默和逃避的语音助手,和现实社会当中大多数受到性骚扰保持沉默的真人倒是颇有相似之处。

  机器人该成为欲望的载体吗?这让人不禁想起了在美国HBO发行的季播剧《西部世界》里面的故事。在《西部世界》当中,有一座用人工智能技术打造的成人乐园,它能不断提供给游客杀戮与性欲的满足。但当百分之一百的欲望得到满足时,人通常会有两种感觉,第一是爽,但通常更多地却是不安。让欲望有所保留,其实是要求我们对这个世界要心存一点敬畏。就像信奉某一种宗教的教徒,他们往往因为心有敬畏而活得更安心。而且你知道的,太有钱的人通常都会信个教。

  那么,既然是这样,人类性骚扰机器人显然是不合理的。只不过,机器人该怎么去反抗来自人类的性骚扰呢?这不妨先看看性骚扰程度更为严重的人类自己到底有什么处理这个问题的良方?

  或许不能“药到病除”,但是可以做个“药引子”关于性骚扰,最值得我们关注的问题有两个:一是大部分案件都没有被上报;二是大多数报告了性骚扰事件的人都经历过某种形式的报复。虽然目前针对解决性骚扰这个问题的技术仍然很少,但是在有心人的世界里我们却总能找到新的钥匙。

  智能界定—“你经历的=性骚扰吗?”:“我遭受的事情到底算不算性骚扰?”这是很多人在遭遇性骚扰的时候会感到困惑的一件事情。事实上,不管是在职场还是日常生活当中,我们一般所经历的性骚扰都具有一定的法律基础。只是大多数人对此并不清楚。

  因此,蒙特利尔的公司Bolter.ai开发了一个监测性骚扰事件的机器人。该机器人的工作基础源于自然语言处理。其被灌输的训练数据利用了加拿大和美国的30万件法庭案件的文件。不采用基本的日常语言作为语料库,而是采用相关案件的数据。由此,我们可以看出这个机器人的主要功能并不是与人进行一般的沟通和交流,而是为用户做判断。通过用户的述说,让用户知道他们所经历的事情是否违反了美国或加拿大的法律,而这一做法会让之前看似模糊的法律界限变得更加清晰可感。

  聊天机器人—匿名举报规避事后报复:聊天机器人Spot由Shaw、Dylan Marriott

  和Daniel Nicolae三人联手开发,以人工智能和记忆科学为作用基础。Spot与其他聊天机器人相比,其特殊之处在于能够利用背后的人工智能技术进行认知采访。而认知采访是采访带有负面情绪和痛苦经历的人的最好方式。针对Spot的使用场景,我们可以以职场为例来说明Spot是如何工作的。首先,员工需要说出自己遇到的问题;接着,Spot会根据员工的描述来进行针对性提问。最后,它会根据采访结果生成一份保密的PDF报告发送给用户所提供的公司上级或者值得信赖的同事们的e-mail。最值得注意的是这个报告并不是从我们个人的邮箱地址发出,而是从Spot的邮件服务器发出。有的时候面对性骚扰,并不是我们想主动保持沉默,只是我们不希望发声的代价过大。因此,保证匿名性是在解决此类问题时,非常值得关注的一个点。

  无性别的AI到底能不能有?回到文章前半部分谈到的智能语音助手受到性骚扰的问题,目前智能语音助手的负责人们均表示在未来,如果语音助手们再次受到性骚扰,他们希望经过改进后的智能语音助手们不会再保持沉默或者屈服的态度,而是会引导用户往更深层次去思考相关的问题。这是一种从尾部去解决问题的方式。那么想想如果我们从头部去解决这个问题,当智能语音助手的声音被设计成一个中年猥琐大叔的形象而不是温柔可人的甜姐儿,那么还会有人想要性骚扰它吗?恐怕这个性骚扰的比例真的会大大降低。

  那么,是不是在不同的应用场景之下,人工智能就是应该被设计成不同的性别和形象?对于如今的人工智能而言,又到底该不该有性别上的区分呢?首先,在人类的主流社会语言体制与词汇当中,类似“女流之辈”、“妇人之仁”、“雄心勃勃”、“婆婆妈妈”等等,早已经把男上女下的父权体制合理化和自然化。其次,在人工智能当中也开始逐渐出现这种性别上的沙文主义。日本的服务类机器人,例如手机语音助手、扫地机器人基本上都是以女性的形象为主,而IBM研发的人工智能律师起的是一个男性名字。

  由此我们也可以看到,职场的性别偏见无疑已经蔓延到了人工智能这个“新物种”的世界里。尽管,职业并没有高低之分,但是定势思维确实让偏见昭然若揭。因此,不管是为了避免性别设定所带来的性骚扰行为,还是为了堵上抨击人工智能携带了人类偏见的悠悠众口,人工智能未来最好的选择都是做一个无性别者。只是,无性别者要怎么打造,仍然还是个难题。设置一个完全机械化的声音吗?这似乎又不能满足人类想要它们做到最大程度的人性化来服务自己的要求,既要它们在情感上像人,又要它们在道德上像神,这似乎是一件不可能的事情。