首页 / 行业
面对人工智能的发展 人类未来将扮演怎样的角色
2019-06-20 15:44:00
AI刚刚兴起的时候,大多数人们对这个词汇还是感到很陌生,但随着各类AI机器人不断出现,人工智能声名大噪,成为了各个国家未来的发展战略。科学家、工程师看到了一个崭新领域的兴起,商人们看到了技术带来源源不断的财富,而普通人则不得不面对“机器人窃取大量工作”的局面。由此“人工智能是人类最大的生存威胁”、“我们应该抵制人工智能”等言论甚嚣尘上!人类与人工智能究竟能否共赢共存成为了一个既敏感又现实的问题。
近日,谷歌首席决策科学家CassieKozyrkov提出了:“人类可以弥补人工智能的缺点”。过去五年,CassieKozyrkov在Google担任过很多技术职务,但如今她要正式面对“首席决策科学家”这个有点奇怪的职位了。简单来讲,决策科学就是数据和行为科学的交叉点,涉及统计学、机器学习、心理学、经济学等学科。Kozyrkov的主要职责就是帮助Google推动更积极的AI议程,至少也要让人们相信AI并不像头条新闻所说的那么糟糕。
“机器人正在窃取我们的工作,”“人工智能是人类最大的生存威胁”,类似的宣言已经存在了很长一段时间,但在过去几年中,这种担忧变得更加明显。对话式AI助手广泛存在于现实生活中,汽车、卡车几乎能够自动驾驶,机器可以轻而易举的在电脑游戏中击败人类,甚至艺术创意的工作也受到了人工智能的冲击。我们不断被告知,无聊和重复的工作可能会成为过去。
身处自动化世界,人们对未来感到焦虑和困惑是可以理解的。但是,根据Kozyrkov的说法,人工智能仅仅是自人类诞生以来一直努力奋斗的延伸。
在伦敦AI峰会上Kozyrkov发表讲话说:“人类的故事是自动化的故事。人类发展的历程就是关于如何将事情做得更好,从旧石器时代开始,原始人拿起一块石头敲击另一块岩石,就是因为可以更快完成工具,然后利用工具进行更好的创造。从古至今,人类都是工具制造的种族,我们反对一味的埋头苦干”。
人工智能是危险的,因为它能比人类做得更好。这种的潜在威胁对Kozyrkov来说是站不住脚的,她认为所有的工具都比人类徒手来做强得多。理发师用剪刀剪头发,就是因为用手抓不那么理想。古腾堡的印刷机生产文本的规模可以达到了人类无法复制的规模。
使用工具比人类徒手做效果更好—这就是工具的意义。如果没有工具你可以做得更好,为什么要使用这个工具?如果你担心计算机在认知上比你更好,那么笔和纸在记忆时也比人类更长久;水桶在拿水的时候比人类得储存量更大,计算器的六位数计算远胜于大部分人类计算。我们有理由相信,未来人工智能在某些方面也会变得更好。
当然,许多人对人工智能和自动化的潜在恐惧并不是说它会比人类做得更好。而是害怕政府、企业和任何恶意实体可以肆无忌惮地追踪和微观管理人类的一举一动——几乎不费吹灰之力就可以实现秘密的宏伟愿景,从而给人类蒙上反乌托邦的阴影。
其他问题涉及像算法偏见,缺乏足够的监督以及世界末日情景等因素有关:如果某件事急剧地——无意地——出错了怎么办?研究人员已经证明了面部识别系统的内在偏见,像亚马逊的Rekognition。最近,民主党总统候选人参议员伊丽莎白·沃伦呼吁联邦机构解决有关算法偏差的问题,例如美联储的放贷歧视问题 。
在很多人工智能领域,AI如何扩散系统歧视的担忧是首要议程。微软敦促美国政府监管面部识别系统,研究人员致力于在不影响预测结果准确性的情况下减少人工智能中的偏见。
人工智能正处于相对初期阶段,研究人员仍在研究如何解决算法偏差等问题。但Kozyrkov表示,人工智能展示的偏见和现存人类偏见是一样的,人类用来训练机器的数据集就像用来教育人类的教科书一样。数据集和教科书都有人类作者—它们都是根据人类的指示收集的,其中一个比另一个更容易搜索。一个可能是纸质版,另一个是电子版,实际上它们没什么区别。如果你给学生一本有极度偏见作家写的教科书,难道你的学生不会接受一些同样的偏见吗?
当然,在现实世界中,备受好评的同行评审期刊或教科书应该有足够的监督来对抗任何公然的偏见。如果作家、原始数据、鼓励学生阅读的教科书的老师都有相同的偏见呢?人们要花费很长的时间才能发现一些陷阱,但到那时阻止任何不良影响都为时已晚。因此,Kozyrkov认为“视角的多样性”对于确保最小的偏见是必不可少的。
研究人员越是关注自己的数据,思考用这些例子来表达自己的结论,就越有可能抓住那些潜在的坏案例。在人工智能中,数据的多样性是必须的,而且需要从不同的角度来看待和思考使用这些例子会对世界产生怎样的影响。
人工智能算法和机器学习模型部署之前,关键要像学生考试一样测试它们,确保能够执行设定任务的。如果在考试中,一个学生被问及学过的确切问题,可能表现得非常好,但这极大概率要归功于好的记忆,而不是对手头的科目有完全的了解。为了测试更广泛的理解,要为学生提供更多的问题,以便他们能更好的应用所学知识。
机器学习在同一个前提下运行——有一个被称为“过度拟合”的建模错误,即一个特定的函数与训练数据过于接近,就会导致误报。“计算机有很好的记忆力,“Kozyrkov指出,“所以你实际测试它们的方式是你给他们真正的新东西,他们无法记住,这与你的问题有关。如果它有效,那么它就有效。“
安全网特别重要,因为很容易出现忽视“如果出现问题怎么办?”的情况。即使是最精心设计,人工智能系统也可能出现问题。事实上,系统越好在某些方面就越危险,就像学生一样。Kozyrkov表示,即使你的学生真的很好,但他们仍然会犯错误。
甚至在某些方面,“C”学生比“A +”学生更不危险,因为“C”学生犯错误的频率较高,所以你已经有了安全网。 但是“A +”犯错频率较少,如果你以前从未见过他们犯错误,你可能会认为他们从未犯过错误,那么极有可能导致一个灾难性的失败。所谓的“安全网”可以采取多种形式,通常涉及建立一个单独的系统而不是“过度信任你的“A +”学生。
一个有趣的例子,房主配置他的智能相机和锁定系统以激活它是否发现不熟悉的面孔。但是,它错误地将房主识别为他的T恤上蝙蝠侠图像并拒绝他进入。在这种情况下,“安全网”是锁上的PIN,房主也可以在他的移动应用程序中使用一个功能来覆盖AI。
这些都引出了一个对许多人来说显而易又值得重复的观点:人工智能是其创造者的反映。因此,我们需要专注于实施系统和检查,以确保那些制造机器的人(“教师”)是负责的。目前,人们越来越认同“机器教学”的重要性,微软等公司最近表示,人工智能的下一个前沿领域将需要利用人类专业人员的专业知识来培训机器学习系统——而不是专家对人工智能的知识或编码能力如何。。
“现在是我们关注机器教学的时候了,而不仅仅是机器学习,”Kozyrkov指出。“不要让科幻小说的华丽辞藻分散你对人类责任的注意力,要从一开始就关注人类本身。领导者设定的目标、工程师创作、分析师和决策者核查数据集、统计学家进行测试以及可靠性工程师构建的安全网——所有这些都包含了许多人为因素。”
最新内容
手机 |
相关内容
微软Ignite 2023技术大会:人工智能
微软Ignite 2023技术大会:人工智能转型,技术驱动变革,人工智能,趋势,智能,数据隐私,企业,解决方案,人工智能(Artificial Intelligence,A所有遥不可及,终因AI触手可及
所有遥不可及,终因AI触手可及,出行,平台,无人驾驶汽车,导致,人工智能,学习,人类历史上,有许多事物曾被认为是遥不可及的,然而随着科技面向6G+AI,鹏城云脑的演进
面向6G+AI,鹏城云脑的演进,鹏城,人工智能,数据存储,脑可,智能终端,智能,随着科技的不断进步,人们的生活方式也在不断改变。6G+AI(人工黑芝麻智能助力亿咖通科技旗下首款
黑芝麻智能助力亿咖通科技旗下首款智能驾驶计算平台成功量产交付,智能驾驶,计算,助力,首款,交付,智能,近年来,智能驾驶技术逐渐成为Transphorm推出TOLL封装FET,将氮化
Transphorm推出TOLL封装FET,将氮化镓定位为支持高功率能耗人工智能应用的最佳器件,支持,定位,推出,高功率,封装,器件,加利福尼亚州戈芯朋微:服务器配套系列芯片已通过客
芯朋微:服务器配套系列芯片已通过客户验证 可应用于AI服务器,服务器,客户,芯片,验证,人工智能,公司,芯朋微是一家专注于人工智能芯片数据中心如何更快、更经济地利用AI
数据中心如何更快、更经济地利用AI?,经济,数据中心,用于,机器学习,计算,自动化运维,数据中心中使用人工智能(AI)技术可以带来许多好处,3nm,手机芯片的全新战争
3nm,手机芯片的全新战争,全新,功耗,人工智能,提升,中国,芯片,随着移动通信技术的迅猛发展,手机成为了现代人生活中不可或缺的一部分。