人工智能研究人员说,非道德机器人对人类构成危险

即使这些需求是可以预期的,任何关于是非的规则都必须内置到机器的操作系统中,这样用户或黑客就更难超越这些规则,从而使机器人被滥用。

勒克斯研究公司的研究主管马克·邦格说,认为没有道德感的机器人会制造很多麻烦并不疯狂。

“这是一个非常不成熟的领域,”邦格说整个伦理学领域都花了大量时间来解决难题,权衡取舍。你救了你妈妈还是一个溺水的女孩?有几百年的哲学在研究这些问题。。。。我们甚至不知道怎么做。有没有办法在操作系统中做到这一点?即使让机器人了解他们所处的环境,更不用说做出决定,也是非常困难的。我们如何让机器人了解它在做什么?”

加布里埃尔咨询集团(Gabriel Consulting Group)的分析师丹•奥尔兹(danolds)指出,当机器人能够独立行动时,它们对我们最有用。然而,他们越是自主,就越需要一套规则来指导他们的行动。

问题的一部分在于,机器人在前进的过程中几乎没有考虑到它们的指导原则。

奥尔兹说:“我们需要能够独立行动的机器人。”随着机器人成为我们日常生活的一部分,他们将有很多机会粉碎我们。这听起来像是某个遥远的未来事件,但并不像有些人想象的那么遥远。

布林斯乔德说:“我们不能制造一台婴儿机器,让它在人类环境中成长,这样它才能像人类孩子一样学习。”我们必须弄清楚伦理学,然后弄清楚如何把伦理学变成逻辑数学术语。”

他还指出,机器人需要能够对自己应该做什么和不应该做什么做出决定——并且快速做出这些决定。

布林斯乔德指出,“你不会想要一个从不洗该死的盘子的机器人,因为它站在那里不知道是否有一个合乎道德的决定要做。”

Sharon Gaudin涵盖了互联网和Web2.0、新兴技术以及Computerworld的台式机和笔记本电脑芯片。在Twitter@sgaudin、Google+上关注Sharon,或者订阅Sharon的RSS提要。她的电子邮件地址是sgaudin@computerworld.com。

更多信息请参见莎伦·高丁计算机世界.com.