您好!欢迎光临工博士商城

库卡焊接机器人工作站

产品:31    
联系我们
您当前的位置:首页 » 新闻中心 » 人与机器人三种共存的理想方式
产品分类
新闻中心
人与机器人三种共存的理想方式
发布时间:2018-10-18        浏览次数:211        返回列表
 注明高等学府麻省理工教授,《我们自己的机器人》的作者大卫明德尔说,这种混合决策应该比让人工智能单独工作能产生更好的结果。只有一个问题:当人类和半智能系统试图一起工作时,情况并不总是好转。
1 人类充当机器人的后援,在机器人达到其能力极限时接管
许多工作流程正在以这种方式进行重新设计——例如自动呼叫中心,其中语言理解系统尝试处理呼叫者的查询,仅在技术混淆时向操作员默认。
优步事故是一个可能出错的极端例子。根据斯坦福大学的研究显示,人类驾驶员至少需要6秒才能恢复意识并收回控制权。但是,即使有足够的时间让人们的注意力得到恢复,进入某种情况的人也可能看到与机器不同的东西,使得切换远非无缝。
“我们需要在软件系统和人之间共同努力——这是一个非常困难的问题,”Sikka先生说。语言的使用凸显了难度。Sikka先生补充说,人类可以用很少的词来传达意义:对说话者和听者之间的语境的共同理解将这些词语用意义进行投资。他补充说,计算机科学家尚未研究如何在机器中建立共识。
2 确保敏感任务总是依赖于人
即使在自动化系统已经完成所有准备工作并且能够完全完成任务本身的情况下,军事等敏感任务还是交给人类来处理。
军事无人机,人类“飞行员”,通常位于数千英里之外,被要求做出射击目标的决定,就是一个例子。 面部识别系统——用于帮助移民官员识别可疑旅行者——是另一种。赫克先生说,两者都表明人工智能如何在不剥夺控制权的情况下使人类更有效。
对无人机等半自动武器的一种评价是,将它们变成完全自治的系统没有技术障碍。可以快速更改当前的程序和安全措施。
面向未来:人与机器人共存的三种理想方式图:军队正在准备发射无人驾驶飞机
根据加州大学伯克利分校的人工智能教授斯图尔特拉塞尔的说法,在国家紧急情况下将人类无人机操作员从循环中移除是一个简单而容易的步骤,从而促成了一个机器人武器的时代,这个机器人武器做出了自己的决定。什么时候杀人 “你不能说技术本身只能以防御的方式和人为控制。事实并非如此,“他说。
3 涉及使用AI的“人在循环”系统
机器人不能完全独立地处理任务,而是用作人类决策的辅助。压缩数据并提出建议或指导下一步采取措施的人的算法正在逐渐渗透到日常生活中。
但是,算法只能与他们训练的数据一样好——而且他们不善于处理新情况。需要信任这些系统的人通常也需要信仰这些系统。
库卡

Schank先生指出算法在棒球中的作用。分析每个击球手的优势和劣势,为球队传统主义者所倾向的领域提供了新的方法。他说,这些计算机辅助决策的结果可能*终会比基于纯粹人类分析的决策更糟糕。
旧金山优步司机使用的应用程序中的一个错误将它们发送到机场货运站点而不是客运站。“有时人们会盲目跟随机器,有时人们会说:’坚持下去,这看起来不对。’ 这就像许多其他技术一样,人们会适应,“技术作者蒂姆奥莱利说。
这些可能是相对无害的情况,其中由于被机器引入误导而几乎没有损坏。但是当赌注更高时会发生什么?
智能技术在发展,但人类能理解它的想法吗?

IBM将医疗诊断作为Watson的主要目标之一,该系统首先是为赢得电视游戏节目而创建的,然后再改造成为一种更为通用的“认知”系统。

这样的系统旨在由专家做出*终决定。IBM坚持认为人类永远都有*终决定权。但是,对于医生来说,覆盖计算机提供的建议是多么容易,根据定义,该计算机已经分析了更多可比较的情况并且比他们拥有的数据更多?

如果它有保险或其他财务后果,拒绝技术可能会更难。Nourbakhsh先生说:“医生处于一种他们觉得服从系统的位置。” “简单地说他们仍然会做出决定并不能做到这一点。”

类似的担忧在20世纪80年代出现,当时人工智能领域由“专家系统”主导,旨在引导人类用户通过“决策树”在任何情况下达到正确的答案。事实证明,太难以预测所有使现实世界决策复杂化的不可预见的因素。

分享到: 


 

联系热线:15900626417   联系人:周经理 联系地址:上海市嘉定区南翔镇众仁路399号B栋20层2007-2012

技术和报价服务:星期一至星期六8:00-22:00 库卡焊接机器人工作站