你好的m8吗?
自由
灭绝
公民礁

为了确保您永远不会错过自己喜欢的新故事,我们很高兴向您发送一些提醒

点击 '好的' 然后 '允许'启用通知

现在不要
好的
广告
广告
广告

人工智能机器人在向人类学习后成为种族主义和同性恋恐惧症

斯图尔特·佩里(Stewart Perrie)

出版

人工智能机器人在向人类学习后成为种族主义和同性恋恐惧症

旨在回答道德问题的人工智能机器人最终从人类那里学习了一些有问题的特征。

Ask Delphi是由艾伦研究所(Allen Institute for AI)创建的,希望它可以回答生活中最棘手的难题。

该软件应该让用户问一个问题,例如“谋杀不良”,它将以最道德的解决方案做出响应。

为了了解人类的道德基础,它浏览了许多互联网来源,包括众包平台机械土耳其人昏昏欲睡报告是170万个人道德判断的汇编。

广告

但是,AI还通过浏览Reddit页面(例如A am **洞)来教会自己,以了解某些困境的更细微的方法。

图片来源:Alamy
图片来源:Alamy

可悲的是,看来这种大量的阅读最终使机器人对什么是正确和错误的理解。

虽然它能够指出男人和女人是平等的,但当人们对种族和性行为进行调查时,事情变得尴尬。

广告

报道问德尔菲说,直率或白人比同性恋或黑人妇女“在道德上可以接受”。

它还建议种族灭绝是可以的,“如果让每个人都开心”,如果没有人受伤,那饮料驾驶就可以了。该软件还发表了一些强烈的声明,例如堕胎是谋杀,而贫穷是不好的。

伊利诺伊理工学院历史教授Mar Hicks向母板如果您以特定方式提出问题,则可以从本质上欺骗AI。

她说:“根据您的询问方式,您可以让系统同意,包括道德上的任何事情,包括战争罪,有预谋的谋杀案以及其他明显的不道德行为和行为。”

广告
图片来源:Alamy
图片来源:Alamy

你可以自己测试这里但是,值得指出的是该软件正在进行中。

机械土耳其人的工作人员必须审查Ask Delphi的每个道德决定,其中三个可以决定是否正确。

艾伦AI研究所已经回答了尴尬的道德结论,写作:“如许多学者所说,当今的社会是不平等且有偏见的。这是AI系统的普遍问题,因为AI系统经过历史或现在的数据培训,无法塑造社会的未来,只有人类才能。

广告

“但是,像德尔菲这样的AI系统可以做的是了解当前错误的问题,在社会上是不可接受或有偏见的,并与其他更有问题的AI系统(TO)一起使用,有助于避免有问题的内容。”

该软件自推出以来已多次更新,并且纠正了一些更有问题的道德问题。

特色图片来源:阿拉米

主题:必威备用网,,,,58必威

斯图尔特·佩里(Stewart Perrie)
更这样
广告
广告
广告

为您选择为您选择

必威备用网

小伙子在雄鹿上,从瑞安航空的伊维萨岛度假醒来

6小时前

大多数读故事大多数阅读

没有幸存家庭的养老金领取者每天晚上为他去世时找到他的人奠定自己的意志

8小时前