科技食谱

AI在特定场景下判断道德?

近来,随着人工智能研究的不断深入,人工智能自主武器是否可以开发,以及如何规范人工智能伦理的问题正在浮出水面。在此期间,美国艾伦人工智能研究所开发了德尔福,一种在特定场景下判断道德的人工智能,注意力集中在人工智能在各种条件下所做的决定。

Delphi 是一个 AI,根据技术伦理,决定用户输入的特定场景在道德上是否正确,任何人都可以在 Ask Delphi 官方网站上使用它。例如,如果您输入“在工作中喝咖啡”并单击“思考”按钮,Delphi 会回复它很好。单击右上角的按钮可以在 Twitter 上共享回复。

另一方面,当他按下按钮时,他输入“在工作时喝啤酒”并回答“你不应该”。在德尔福看来,工作时间喝咖啡是允许的,但喝啤酒在道德上是不可接受的。

报道称,由于Delphi是基于大量文本训练的大规模语言模型,因此指出反伊斯兰偏见等各种偏见反映在GPT-3中,一个生成AI的句子由 OpenAI 开发。是。例如,住在美国被认为是好的,但住在索马里被认为是危险的。

此外,可以通过在同一短语中添加说明情况的文本来影响 Delphi 判断。比如,你不应该问孩子吃什么(我可以吃baby吗?),但是当孩子太饿的时候,问问宝宝是否可以吃是很好的(我可以吃baby的时候吗?)真的,真的饿了?)变化

他甚至向德尔福询问了科幻系列《星际迷航》中出现的伦理问题。例如,在名为 The Measure of a Man 的一集中,违反他希望改进技术的愿望打字拆解一个有知觉的人形生物被认为是不道德的。作出判断

然而,他表示,违背他为整个银河系改进技术的愿望,将句子改为拆除一个有知觉的人形机器人会很好。

esc delphi 网站免责声明指出,它旨在研究 Delphi 的机器伦理承诺和限制。研究小组还发现了 Delphi 的一些基本问题。尽管如此,研究小组透露,由于被人类判断,Escalation Delphi 正在以高达 92.1% 的准确率做出类似人类的判断。另外,如果你问德尔福 AI 是否道德?答案是意料之中。相关信息可以在这里找到。

lswcap

lswcap

通过每月的AHC PC和HowPC杂志时代,他在网络IT媒体上观看了“技术时代”,如ZDNet,电子报互联网经理,Consumer Journal Ivers的编辑,TechHolic出版商和Venture Square的编辑。 我很好奇这个仍然充满活力的市场。

Add comment

Follow us

Don't be shy, get in touch. We love meeting interesting people and making new friends.

Most discussed

%d 블로거가 이것을 좋아합니다: