关于AI的11条报价会让您思考

作者: Laura McKinney
创建日期: 3 四月 2021
更新日期: 26 六月 2024
Anonim
手机拍照为啥这么好看?都是AI算出来的!
视频: 手机拍照为啥这么好看?都是AI算出来的!

内容


资料来源:林少华/Dreamstime.com

带走:

人工智能的发展是不可避免的,而对人类的转化却还一无所知。一些人认为我们可以期待一个美好的未来,而另一些人则认为这意味着我们正在被机器人霸主取代。第三种观点是意识到风险但认为它们是可控的。

我们听到了很多有关人工智能及其变革潜力的信息。但是,这对于人类的未来意味着什么却一无所知。一些未来主义者认为生活会得到改善,而另一些人则认为生活受到严重威胁。中间位置也很广。这是来自11位专家的一系列建议。

1. “到目前为止,人工智能的最大危险是人们过早得出结论,即他们无法理解。” – Eliezer Yudkowsky

这是尤德科西(Yudkowsy)在2002年的报告中为机器智能研究院(MIRI)题为“人工智能是全球风险中的积极和消极因素”的第一句话。虽然“人工智能”一词的流行程度不及现在,但仍然存在对技术的功能和局限性缺乏了解的问题。实际上,在过去几年中,人们在不断努力使AI不仅可以理解,而且可以解释。

2. “至关重要的是使关于AI的任何事情都可解释,公正,安全并具有血统,这意味着任何人都可以非常简单地看到AI的任何应用是如何开发的以及为什么。” – Ginni Rometty

IBM首席执行官在2019年1月9日在CES上的主题演讲中发表了这一声明。声称需要可解释的AI的背景是,将其保留为密封的黑匣子使得不可能检查和修复程序中的偏差或其他问题。 IBM致力于解决这一问题,不仅为公司提供计算服务,而且还就减少机器学习系统构建者的偏见进行了磋商。 (在AI的一些解释说明中详细了解可解释的AI。)


没有错误,没有压力-在不破坏生活的情况下创建可改变生活的软件的分步指南

当没有人关心软件质量时,您就无法提高编程技能。

3. “终极的 搜索引擎,您会确切地了解您在键入查询时想要的内容,并且可以将确切的正确信息返回给您, 计算机科学 我们称之为人工智能。这意味着它将很聪明,而拥有智能计算机还有很长的路要走。” –拉里·佩奇(Larry Page)

谷歌当时的联合创始人兼首席执行官在2002年11月的PBS NewsHour栏目中说了这一点,题为“谷歌:可能的搜索引擎”。主持人的开幕反映了谷歌在美国方言这一年的日益普及。社会将它列为最有用的动词,尽管要花几年时间才能被Merriam-Webster之类的人所认可。但是甚至在早期,该公司就表示有兴趣利用AI。

4. “完全避免对人工智能的任何提及或暗示。武器化的AI可能是AI最敏感的主题之一-甚至不是最。这是媒体寻找破坏Google的所有方式的红肉。” – Google的AI先驱李飞飞(Fei Fei Li)向同事介绍了该公司参与Project Maven的过程

Google发现,作为AI的主要参与者可能会有不利之处。 2017年7月,国防部提出了Maven项目的目标。国防部副部长办公室情报,监视和侦察行动总司令部作战司令部算法战争跨职能小组负责人海军陆战队上校德鲁·库克尔谈到了他们今年的既定目标:计算机将共生,以提高武器系统检测物体的能力。”

Google曾是该合资企业的合作伙伴,但是-如以上引述所示-Google员工不喜欢它。最终,该公司屈服于压力,并于2018年6月宣布将不与国防部续签合同。据《拦截》报道:

自3月份Gizmodo和The Intercept透露合同以来,Google面临着越来越大的压力。将近十二名员工辞职以示抗议,数千名员工签署了一封公开信,宣称“谷歌不应该从事战争。” 700多名学者还签署了一封信,要求“谷歌终止与国防部的合同,并且Google及其母公司Alphabet承诺不开发军事技术,也不会将其收集的个人数据用于军事目的。”


5. “人工智能将在2029年左右达到人类的水平。再接再厉,例如2045年,我们将把人类的文明-人类生物机器的智能-增加十亿倍。” –雷·库兹韦尔

这位未来主义者和发明家在2012年的一次采访中谈到了这一点,他谈到了通过计算能力实现永生。他证实了“十亿倍”的数字,并作如下解释:“这是一个奇异的变化,我们借用物理学中的这个比喻,称其为奇异,这是人类历史上深刻的破坏性变化。显然,他是乐观的未来主义者之一,他描绘了一种颠覆性的变化,这将大有裨益。他进一步解释了为什么他相信永生不灭的原因:“我们每年将为您的剩余寿命增加一年以上,而时间的流逝而不是用尽,您的剩余寿命实际上会随着时光流逝。”

6. “人工智能的到来的最大好处是,人工智能将有助于定义人类。我们需要人工智能来告诉我们我们是谁。” –凯文·凯利

Wired的共同创始人在2016年的著作《不可避免:了解将塑造我们的未来的12种技术力量》中写下了这一笼统的断言。当他预见到自动化技术的兴起和机器人将接手的工作时,他预计这将是一个反复的否认循环,但是进步是不可避免的,我们将不得不做出相应的调整。正如他在接受IBM采访时所解释的那样:“通过AI,我们将发明许多生物上不存在的新思维,并且不像人类思维,”他强调了计算机云的一线希望。是这样的:“因此,这种智慧不会取代人类的思维,反而会增强它。”

7. “人工智能的真正风险不是恶意,而是能力。一种 超智能人工智能 将非常擅长实现其目标,如果这些目标与我们的目标不符,我们就会遇到麻烦。您可能不是邪恶的蚁-者,他们会恶意破坏蚂蚁,但是如果您负责水电绿色能源项目,并且该地区有一个蚁丘被淹,对蚂蚁来说太难了。我们不要将人类置于那些蚂蚁的位置。” –霍金(Stephen Hawking)

该报价可以追溯到2015年初。这是斯蒂芬·霍金(Stephen Hawking)在Reddit AMA(问我任何问题)问答环节中对一个想知道如何解决班上出现的某些AI问题的老师提出的问题,即以下:

您将如何表达自己对我班的信念?我们的观点和解吗?您是否认为我不喜欢外行终结者风格的“邪恶AI”的习惯天真?最后,您认为我应该对那些对AI感兴趣的学生加强什么道德?

霍金对人工智能对人类可能造成的破坏性表现出了一些担忧,尽管他似乎认为,如果我们对此进行规划,风险就可以得到控制,这一观点得到了另一些人的赞同。 (有关此内容的更多信息,请参阅为什么超级智能AI不会很快摧毁人类。)

8. “您想知道超级智能 电子人 可以治疗普通的血肉人类?更好的开始是研究人类如何对待他们较不聪明的动物表亲。当然,这并不是一个完美的类比,但这是我们实际上可以观察到的最佳原型,而不仅仅是想象。” – Yuval Noah Harari

Harari教授在其2017年的著作《同质人:明天的简史》中发表了这一声明。他的观点与积极的未来主义者的观点截然不同,他描绘了他所说的数据主义的兴起,在这种主义中,人类割让了先进的先进技术人工智能。在霍金的解释中,我们注定要淹没蚂蚁的位置。这是一个无所不在,无所不知的“宇宙数据处理系统”所主导的未来,而抵抗是徒劳的。

9. “我们必须单独和集体解决由人工智能和信息技术前沿研究引起的道德和伦理问题。 生物技术,这将显着延长使用寿命,设计婴儿和记忆提取。” –克劳斯·施瓦布

施瓦布于2016年1月发表了他对第四次工业革命的看法。他像积极的未来主义者一样,设想未来将以“从根本上改变人类的方式融合物理,数字和生物世界。”但他并不认为这是理所当然的。这种“转变是积极的”,敦促人们提前计划“在发展过程中出现的风险和机遇”。

10. “关于人工智能在反映人类的最坏情况方面的潜力已有很多报道。例如,我们已经看到AI为孤独者提供了交谈和安慰。我们还看到AI参与了种族歧视。然而,人工智能在短期内可能对个人造成的最大伤害是工作流离失所,因为我们可以利用人工智能实现自动化的工作量比以前大得多。作为领导人,我们所有人都有责任确保我们正在建立一个每个人都有成长机会的世界。” –吴彦祖

这句话引自“人工智能现在可以做什么和不能做什么”,谷歌大脑团队的创始负责人,前斯坦福人工智能实验室主任安德鲁·伍(Andrew Ng)在2016年为《哈佛商业评论》撰文时说。是百度AI团队的整体负责人。 (在2017年,他成为Landing AI的创始人和总监。)它解释了当时的AI的功能和局限性,并在今天仍然适用。尽管Ng并没有提出以数据为主导的反乌托邦前途,但他确实同意,开发它的人有责任以负责任的方式应用它,并充分了解其预期和非预期的后果。

11. “到2035年,人类没有理由也没有办法跟上人工智能机器的步伐。” –格雷·斯科特

这句话没有打错,尽管它偏离了您在网上其他任何地方看到的方式,因为它总是显示为“到2035年,人类的思想没有理由也没有办法跟上人工智能机器的步伐。”故事。根据它在数字资源中出现的时间来看,大概是在2015年。但是,即使在那个时期搜索s和视频数小时之后,我也无法将其归结为任何特定的弊端。因此,我联系了斯科特本人,要求提供消息来源。他承认:“我不记得是什么时候第一次说过这个话或它在哪里。”但他确实回想起他的措辞:“引述始终是错误的。它应显示为“人工智能”。