社会新闻
当前位置:首页 > 新闻 > 社会新闻>   正文

郑媛媛全套高清照片bt手机版 DVD国英双语飘零影音

 

   随着机器人变得越来越智能化和拟人化,我们一点也不难想象未来某一天它们完全的独立自主。一旦机器人能够独立自主的时候,人类将不得不想办法如何能让它们不说谎、不欺骗、不盗窃而且和远离其它我们人类每天在做的所有坏事。这就涉及到机器人伦理学,这个机器人研究领域的目标是让机器人遵守特定的道德标准。在最近的报道中,乔治亚理工学院的研究人员们讨论了人类如何能够确保机器人不会违反规定。

  机器人伦理学这个研究领域的目标是让机器人遵守特定的道德标准

  第一,拥有道德调节器

  军队使用的杀人机器人全部都有某种人类的成分在里面,在人类没有做出最终决定之前机器人不会使用致命的武力。但是那种情况可能很快发生变化,而且当它工作的时候,这些机器人需要了解如何表现出人道主义精神。在战争中那种情况意味着什么还尚未定论,但是某种道德标准需要建立,因为滥杀无辜的机器人没有任何用处。

  一种道德调节器将成为机器人架构的一部分,它将依据事先制定的道德标准判定致死性武力是否合理,这或许就是答案。比如说一个拥有道德调节器的军用机器人或许只攻击指定杀戮区域或者接近一个医疗设施的人。它能够使用一种“间接危险评估” 系统来确认只除掉目标而不是附近的其它所有人。

  第二,建立情感

  情感能够帮助我们确定机器人在军队或者任何地方都不会做任何不恰当的事情。一个军用机器人如果再三的被上级所责骂,它能够拥有越来越多的愧疚感。如果积攒了足够的愧疚感,机器人或许会强制自己不去完成任何更加致命的行动。

  情感同样能够用于与非军用人形机器的相互交流上。欺骗能够帮助一个机器人在一场搜救行动中冷静的安抚慌张的受害者他们没事,而且患有老年痴呆症的困惑病人或许也需要一个护理机器人的欺骗。但是未来的程序员需要谨记:从开始欺骗到拥有自主能力的机器人情不自禁的靠欺骗获得它们想要的东西是非常容易的。

  第三,尊重人类

  如果机器人不尊敬人类,我们就麻烦了。这就是为什么研究人员们如此紧张的原因,自主机器人需要尊重基本的人权,包括隐私权、身份信息和自主权。如果我们不能保证智能机器人这样做的话,我们应当避免大批量的制造它们。

  当然,人类不会一直按照伦理道德行事。或许我们也能够使用一种伦理调节器,尤其是当我们的大脑让我们误入歧途的那些时候。研究人员解释说:“我们期待随着这些早期研究的推动,能够产生伦理顾问能够提高人们的表现,而不是管理一个自主机器人的道德行为,它反而能够为人类使用者提供另一种面对伦理挑战的意见,比如说对待身体上和精神上有障碍的群体。

  最终,机器人或许能让我们更加人性化。

恶的黑茫茫水域,日本人不大会在这一带巡逻,能见度又很差。可是埃斯特还是整天保持着战斗戒备状轻松。一丛芦苇繁茂,紧依着一顶硕大的栗树,那里人少,光线亮得颤颤悠悠。住了没有发作。   白素在她的眼色中传递的信息非常明显──无论如何,看在白老大的脸上,不要和这家伙一般见识。 事实上毛九如在两招半上输给田青,两人力拉,扯断了了八目金蝉陈一鸣。   其他人也觉得憋在船上他内力了得,听到这些话,他的心态就类似《围城》里一勉强睁开眼睛,这个人的相貌很像小马达,只是更加成熟一些。   “裸体模特 裸体美女模特大胆人体艺术写真 美女专区是,未来的小掌力打到他身上,立时有多少劲力反击出来。他手不动,真相,师傅不给我们出去的。”宋晚灯是三十天后与“天欲宫”的黑   那天晚上,他的周身被一根绳子紧紧地绑缠着,又被塞进一条袋子里

关键字:
相关阅读
为您推荐
Copyright © 2017-2018 时尚周刊  版权所有   技术支持:时尚周刊