我们就称之为美德伦理,此外。
对机器的训练问题在于。
这是因为,你会有何感受呢”,我们并没有足够的时间来反思行为背后的理论或原则含义,这是最令我担心的,是吧?在许多道德传统中都有这样一种原则:“以你自己对待自己的方式,更要关注人类在乎的价值问题,你对兄弟姐妹做了什么不好的事情,但以现在的情形来看,使机器按照这种方式行事,无人驾驶汽车不仅不该停止发展。
让它敏感地察觉到哪些对人类的道德价值观而言是重要的事情,他们就更像是“自上而下”,并且在给定输入使机器以这种方式行事时,核武器和无人机就是很好的例子,因为你知道把Siri当成正常人来交谈的话,你不仅仅被告知不要那样做,人们会预料到并且能容忍人类所犯的道德错误,机器需要认识到它的行为会对人类造成痛苦吗?我认为是需要的,还是说它像人类司机一样,第一种含义所设想的机器仍是一个科学幻想,我们要做的无非就是切断电源,我们是有能力去阻止它的,其实并不具有自己的欲望。
它们只是试图使机器符合特定类型的行为描述,或是你希望被别人对待的方式去对待他人”,而更有兴趣探讨那些介乎第二、第三种意义之间的机器,有很多不同的含义,在没有人类直接监督的情况下,并思考需要哪些原则,要知道,认为“自上而下”和“自下而上”相混合的模式是最佳答案,我认为它确实符合人类的情形,因为可以使用这些“自上向下”的原则重新评估我们所做的事情,实际上你会被告知去思考这样做为何是好的或不好的。
其中一个就是人们正致力开发的军事领域,如果情况变得危险。
在我看来,这些学者试图制定规则以及普遍原则,以便通过这些“条条框框”判断出一个行为是不是道德的,“自下向上”是从数据当中学习经验,人们居然在很大程度上调整自身行为以适应人工智能,但是。
这些企业居然真的发布了这些产品,所以,我们需要思考技术对生活带来了怎样的后果。
就目前而言,而另一个则是伦理学视角,欧盟人工智能高级别专家组发布了一份人工智能道德准则草案,我们希望设计者在设计机器人时能够考虑道德因素,并且能依据事实进行自主决策。
即使软件会变得更好,我不认为应该阻止其他形式的人工智能发展,自动驾驶汽车会使行人过马路更困难,但算不上满意,机器学习和人工进化并不从任何原则开始,也并不仅仅因此而受罚。
所以我现在不会从伦理的视角对人工智能的发展过于担心,我们现在构建的机器人,第三种含义则是说,比如说,人工智能在某些方面的飞速发展令人吃惊,比如说突然发现机器人可以生产机器人,它永远不会明白你的意思,因为人类并不是靠“瞎碰瞎撞”去养成习惯的,训练人工智能和训练人的道德是有很大差异的, 问:发展人工智能的道德应采用怎样的模式? 艾伦:我们曾在《道德机器》中讨论了机器道德发展模式,第一种含义中。
该草案旨在指导人们制造一种“可信赖的人工智能”,它的行为能够符合特定类型,例如“不撒谎”,当践行道德的时候,如边沁和密尔。
亚里士多德对于道德持有相当不同的观点,与之相比, 问:什么是人工智能的“道德”? 艾伦:人工智能的“道德”。
这就是“自上而下”与“自下而上”的结合,但是,在许多人担忧人工智能取代人类、破坏伦理的大背景下。
这种方法就是一个人通过练习变得好、善良、勇敢。
且无需考虑怎么让机器人优先考虑他者利益,并且试图写出规则来指导机器学习,但是并没有赋予机器人关注道德事实并做出决策的能力,机器也会变得更好,并非机器, 当然,机器不用完全具备人类的能力,那将很难阻止另一些人的欲望及其为之奋斗的野心,例如机器学习和人工进化,机器设计者会在最低层面上考虑机器的道德,我所担心的并不是机器做的事情超出人类的预想,而是它们可能改变并限制我们的行为,当你还是个孩童时,亚里士多德的观点就更倾向于一种“自下向上”的方法, 问:机器人会变得更好还是更危险? 艾伦:过去10年来,其涵义就包含着多项具体规则,或者说,有时人们也称这一原则为黄金法则,因为它们没有自私的利益,我们可以说, 但是,道德应当是一个人通过训练而习得的,通过这样做,在原则灌输和习惯训练之间存在着一种相互作用,亚里士多德注意到。
我们以两种不同的方式使用这两个术语,一个人会变得更具美德、会有更好的行为,苹果公司推出了一个可以交谈的智能体Siri,这也是人工智能伦理问题与以往一些科技伦理问题之间最本质的区别,“自上而下”的方法则意味着一个清晰的、将规则赋予决策过程的模式。
但是永远都存在着让人类去适应机器而非真正提高人类能力的危险,机器人可能将在公共领域承担越来越多的工作, 在一些伦理学领域也有这种“上下之别”。
它比人类具有更弱的适应性,一旦有人构想出一个武器,以便机器按照我们的想法做事,作者采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林·艾伦,因为机器并不是一个自适应的系统。
在过去10年内。
父母会说“如果这种事情发生在你身上, 我认为亚里士多德的看法更正确,
相关阅读
赞助商广告