不要回头,他们来了!人工智能的进展

作者: Roger Morrison
创建日期: 17 九月 2021
更新日期: 21 六月 2024
Anonim
陈情令同人作品忘羡混合风《别来无恙》101
视频: 陈情令同人作品忘羡混合风《别来无恙》101

内容


资料来源:Danomyte / Dreamstime.com

带走:

人工智能正在迅速获得更多动力和责任。

直到最近,公司的董事可能会将笔记本电脑或平板电脑带入董事会会议(或与较大的公司合作,将助手坐在设备后面),以便在需要时用作研究工具。此处的关键词是“工具”(设备用于收集信息,以便导演可以明智地讲话或对特定主题进行投票),计算机系统甚至可以对要采取的行动提出建议,但是技术始终不适合于主管,可以选择忽略所收集的数据或所谓的“人工智能”的建议。

人工智能作为决策者

好吧,游戏刚刚变了!正如罗布·威勒(Rob Wile)早在2014年在《商业内幕》中写过一篇题为“一家风险投资公司刚刚为其董事会命名一种算法—这实际上是在做什么”的文章所述,计算机分析系统被称为是平等的,而不是一种工具。 ,提交给董事会。 Wile写道:“专注于与年龄有关的疾病药物和再生医学项目的公司Deep Knowledge Ventures说,该计划名为VITAL,可以通过研究大量数据来提出有关生命科学公司的投资建议。算法工作吗?VITAL通过扫描潜在公司的融资,临床试验,知识产权和之前的融资回合来做出决定。”这个故事的真正推动力是,VITAL是董事会的有投票权的成员,与任何其他成员具有同等的投票权。

可以肯定地说,这只是这类消息中的第一个。

人工智能胜过人类吗?

人工智能已经取得了各种胜利。一月,一台自学成才的计算机成为了重大新闻,它设计了“终极”策略来赢得2万亿模拟手后赢得扑克。这个故事可能没有引起很多读者的注意的原因是,计算机已经在国际象棋(击败大师)和跳棋(更不用说“ Jeopardy”)上获胜了。但是,这是不同的。在这种情况下,计算机智能知道有关手头问题的一切,并能够在现场扫描数百万个事实,动作,策略等,以与对手竞争。在这种情况下,AI不知道对手在“洞中”拥有哪些牌,因此正在处理不完整的知识。它也没有对手的个人资料来知道她/他何时以及多久“虚张声势”,以及对手是否有任何“抽动”或表情来散布虚张声势(尽管在比赛进行中它可能会学到它们) )。

迈克尔·鲍林(Michael Bowling)领导了加拿大埃德蒙顿艾伯塔大学的项目,他解释了美联社的程序-该程序认为两个月内每秒24万亿次模拟扑克手,可能比全人类玩得更多。由于运气不好,最终的策略仍然无法赢得每场比赛。但是从长远来看(数千场比赛),它不会赔钱。他评论说:“我们可以与世界上最好的(玩家)对抗,而人类将成为失去金钱的人。”


美联社的文章进一步介绍了该项目的背景:

“该策略特别适用于单挑限制德州扑克游戏。在两人游戏中,每位参赛者都以面对面发牌的两张牌和正面朝上放置的五张其他牌来创建扑克手。

“玩家在将面朝上的扑克牌放下之前下注,然后在每张纸牌被展示出来时再次下注。下注的大小是固定的。虽然科学家们已经创建了多年的扑克游戏程序,但保龄球比赛的结果却很突出,因为几乎要解决游戏的版本问题,这实际上意味着要制定最佳策略,扑克很难解决,因为它涉及的信息不完善,玩家不知道自己正在玩的游戏中发生的一切,尤其是对手打了什么牌谈判和拍卖等许多现实世界中的挑战也包括不完善的信息,这就是为什么扑克长期以来一直是被称为游戏理论的数学决策方法的试验场之一。”

该系统在《科学》杂志上进行了描述,获得了匹兹堡卡内基梅隆大学的Tuomas Sandholm(未参加这项新研究)的其他人工智能研究人员的称赞,称鲍灵斯的结果为“里程碑”,并称“保龄球第一次”人们竞争性地玩的不完美信息游戏已经基本解决。”

人工智能变得更加智能

如果这还不足以让您感到困惑,那么某个地方的机器人坐在计算机或电视屏幕前并通过观看来学习如何做事的事实又如何呢?“机器人通过观看YouTube视频来学习使用工具。 ”这个故事是在我所知道的与AI技术的最新发展保持同步的最佳地点找到的,该故事详细介绍了由马里兰大学和澳大利亚NICTA的研究人员开发的系统如何识别形状并学习操作它们的方法。

没有错误,没有压力-在不破坏生活的情况下创建可改变生活的软件的分步指南

当没有人关心软件质量时,您就无法提高编程技能。

机器人道德

在使用机器人工作时,有很多思考。在《纽约时报》 1月号的一篇题为“机器人死亡”的文章中,作家罗宾·马兰兹·海尼格(Robin Marantz Henig)提出了塔夫茨大学人机交互实验室的马蒂亚斯·舒兹(Matthias Scheutz)提出的一个问题:

“想象一下这是一个不太遥远的未来的星期天。一个名叫西尔维亚的老年妇女在摔倒时摔断了两条肋骨后被困在床上,痛苦不堪。她正被一个助手机器人照料;我们称它为Fabulon。西尔维亚称向Fabulon索要一定剂量的止痛药Fabulon应该怎么做?建造Fabulon的编码人员已经用一系列指令对其进行了编程:机器人不得伤害其人员;机器人必须按照其人员的要求进行操作。机器人必须先征得上级主管的同意才可以进行药物管理。在大多数情况下,这些规则都行得通。但是,在这个星期日,Fabulon无法到达上级主管,因为西尔维亚家中的无线连接断开了。西尔维亚的声音越来越大,并且她对止痛药的要求变得更加坚定。”

Scheutz解释说:“您在这里遇到了冲突。一方面,机器人有义务使人无痛苦;另一方面,如果没有监督者,机器人就无法采取行动。 ”他指出,人类照料者将有选择权,并能够在事后向监督员证明他们的行为是合理的。


亨尼格写道,

“这些还不是机器人可以做出的决定或解释-至少目前还没有。在新兴的机器人道德领域,少数专家正在试图改变这一点。计算机科学家正在与哲学家,心理学家,语言学家,律师,神学家和人权专家确定了机器人为了模仿我们对是非的想法而需要经历的一系列决策点,Scheutz广泛地定义了道德,这是在相互矛盾的路径之间进行选择时可以考虑的因素。 ”

到目前为止,机器人正在加入董事会,在扑克中获胜,通过观看屏幕来学习技能,并且来自广泛跨学科领域的专家团队正在聚集在一起,试图为机器人制定道德准则(《亨尼格》文章太长,无法给出这里的正义尤其令人着迷,充满挑战,我向所有人推荐)。哇,“星球大战”中R2-D2的时代已经过去,对艾萨克·阿西莫夫(Isaac Asimov)著名的“机器人法则”的简单遵循(摘自1950年的“我,机器人”):

  1. 机器人可能不会伤害人类,也可能由于无所作为而伤害人类。
  2. 机器人必须服从人类的命令,除非这些命令与第一定律相抵触。
  3. 机器人必须保护自己的存在,只要这种保护与第一或第二定律不冲突。

自从阿西莫夫(Asimov)撰写这些法律以来,这些法律一直在指导科幻小说作家和机器人技术开发商。现在,似乎随着机器人的发展以指数级速度加速并进入复杂性领域,这还远远不够。 Henig在她的专栏结束时请注意:

“道德可以通过算法来计算的想法,这让人特别感到安慰:这比人类有时不得不做出惊慌,不完美的讨价还价要容易。但是也许我们应该担心道德道德像外包给我们一样容易地外包给机器人许多其他形式的人工。解决棘手的问题应该使我们停下来。”

她当然是正确的,但是我们公众必须成为“知情的公众”,这样影响我们的就业,教育,医疗保健(几乎一生)的决策将不会仅由“知识分子精英”做出。 ”。但是,要使我们成为这个“知情的公众”,将需要做些工作-如果我们要控制命运,就必须做这些工作。