相关新闻
-
公海555000JC线路检测中心助力“产业互联网”腾飞
2026-05-07 13:13何为“产业互联网”?核心是“产业”,基础是“互联网”。产业是赋能升级的对象,因此,一个产业互联网平台想要在产业互联网时代获得竞争优势,核心是构建对于产业赋能的能力大小,这要求构建者具备对产业
-
搜狐十年沉浮,互联网舞台中几何?
2026-05-03 20:12为了庆祝22周岁生日,昨晚搜狐媒体大厦通过别出心裁的亮灯仪式呈现数字“22”,显得格外美丽亮眼。不过,如今搜狐在中国互联网网站设计的地位却一点也不亮眼,令人唏嘘不已。事实上,成立于1998年
-
公海555000JC线路检测中心与人民网深度合作,助力人民网开展“全国青少年诵读党史故事”、“全国党史知识竞赛”活动
2026-04-24 07:21公海555000JC线路检测中心与人民网深度合作,助力人民网开展“全国青少年诵读党史故事”、“全国党史知识竞赛”活动责任编辑:点击:5476发表时间:2021-08-01为庆祝中国共产党成立100周年,推动党史
-
公海555000JC线路检测中心分享APP界面设计的思路
2026-04-16 22:19智能手机不仅已成为我们生活中的一部分,也在生活中的不同地方帮了我们很多。随着用户对APP的需求不断变化,设计师在界面设计上也提供很多新功能,以满足用户的需求,以及在使用过程中让用户更加愉悦满
-
公海555000JC线路检测中心建站达人分享的超级干货等你来看!
2026-04-12 22:26我们在进行网站制作的时候,通常情况下,要遵循一定的原则,这样的话,才能让制作出的网站开发的网页使用起来更加的方便,既提高了我们的知名度,同时又增强了网页的吸引力,并能为我们的用户,有效的提供
2017年关于杀手级机器人的讨论非常热烈,人工智能也取得了重大的突破。比如,一台名为Libratus的机器人力胜多名扑克高手。在现实世界中,机器学习被用于改进农业,拓宽医疗服务覆盖面。
但是如果你使用过Siri或Alexa,你会发现人工智能尽管非常热门,但是仍然有很多事情无法处理或者理解。
理解语意
机器对于文本和语言的理解能力比起过去有飞速发展,Facebook可以为视力不好的人士描述图片,谷歌可以根据邮件内容提供回复建议。然而软件依然理解不了我们的话语和思路。“我们可以学习概念,并通过不同的方式把这些概念结合起来,应用到新的情境之中,”波特兰州立大学教授Melanie Mitchell说。“但这些AI和机器学习系统不会。”
Mitchell认为当前软件还受限于数学家吉安-卡洛·罗塔所说的“思想的屏障”,一些的AI团队正在尝试克服这一障碍。
其中一项尝试是让机器人和人类一样现实世界和常识有基本的了解。Facebook研究人员正试图教软件理解现实,比如通过看视频。也有团队侧重于让软件模仿人类对世界的理解来完成某些行为。谷歌在打造学习比喻的软件。Mitchel体验过一些系统,利用类比的方法和一堆有关世界的概念来解读照片中的情况。
阻碍机器人革命的现实差距
机器人硬件发展越来越好了,你可以花500刀买到手掌大小、配备高清摄像头的无人机。双脚行走,搬运盒子的机器人也在不断被改进。但是为什么普通人周围没有被各式各样的机械助手包围呢?——目前的机器人大脑的技术发展远远落后于肢体技术。
要让机器人完成特定的任务,需要针对专门的任务进行编程。他们通过不断试错来学习抓住物体,但是这个进程比较缓慢。一个比较可行的方法是让机器人在虚拟世界中进行训练,再将训练所获得的知识数据下载到实体机器人的身体中。但是现实总是骨感的,虚拟环境中机器人的训练成果不一定在现实世界中完全有效。
可喜的是这个差距在缩小。去年10月,谷歌发布了一批喜人的实验室结果,模拟与现实机械手臂学会了捡起多种物体,包括胶带分配器、玩具和梳子。
对致力于自动驾驶汽车的人而言,进一步的进展非常重要。在自动驾驶技术的竞赛中,企业纷纷在模拟街道上部署虚拟汽车,从而减少在实地交通和道路环境中测试所需的时间和资金。自动驾驶初创企业Aurora公司CEOChris Urmson说,其团队的优先事项之一是让虚拟测试更加适用于现实车辆。“未来一年左右,如果能利用虚拟测试加速机器学习,那太好了,”厄姆森说。他之前领导过谷歌母公司Alphabet的自动驾驶汽车项目。
防范AI攻击
电网、安防摄像头和手机的软件中有很多安全漏洞。无人汽车和家用机器人也无法幸免。甚至可能会更糟:机器学习软件的复杂性为攻击提供了新的渠道。
今年有研究显示,你可以在机器学习系统中隐藏一个暗门,使它一收到特定信号,便切换成邪恶模式。纽约大学设计了一个正常运行的路边系统,这个系统一旦看到黄色的便签纸会出现问题。比如布鲁克林一块停车路标上贴了一张便签纸,系统将其识别为限速标志。类似这样的情况也许会给自动驾驶汽车构成麻烦。
不止是棋盘游戏
2017,击败了很多世界的AlphaGo继续进展神速。5月,AlphaGo的增强版在中国击败了多名围棋。其创造者,Alphabet旗下研究部门DeepMind后来又构建了一个版本,名为AlphaGo Zero,在不学习人类棋步的情况下,自学学会了围棋。12月,又再度升级,可以学会象棋和日本将棋(不过不能同时学)。
上述的成果固然让人们欣慰,但同时也说明目前的AI软件还是有局限性。象棋、围棋、将棋虽然很复杂,但规则却相对简单,每走一步双方都能看到。快速穷举未来“情况”这事,计算机是很在行的,但在现实生活中的情况和问题无法如此结构分明
正因如此,DeepMind和Facebook都在2017年开始研究AI在多玩家游戏《星际争霸》的可能性。目前很好的机器人(出自业余人士之手)也无法击败一般玩家。今年早些时候,DeepMind的研究员 Oriol Vinyals接受采访时说,他们的软件现在还不具备规划与记忆能力,无法一边组建并指挥军队的同时,预测对手的下一步行为和应对。这些技能也可以让软件更好地协助现实世界的任务,比如办公室工作或者真实的军事行动。2018年,《星际争霸》或类似游戏的重大进展也许预示着AI将会有强大的新用途。
让AI区分是非
即便上述领域没有新的进展,现有AI技术普及之后,经济与社会的各方面也会发生重大的变化。当政府和企业忙于普及AI的同时,也仍有人对AI和机器学习潜在危害的十分担心。
在近期的NIPS(神经信息处理系统进展大会)机器学习会议上,其中一个主题如何让AI技术保持在安全且合乎道德的范围之内。研究人员发现,由于我们的世界跟相距甚远,机器学习系统在接受已有数据的训练时,会学到不道德或不可取的行为,比如以刻板印象对待男女两性。有人正在研发特定手段,用于审核AI系统的内部运作,确保它们在金融与医疗领域运作时,能够作出公正的决策。
2018年,更多的科技公司会关注如何让AI正确为人类服务。谷歌、Facebook、微软等已经在探讨这个问题,并且是非营利机构AI合作组织(Partnership on AI)的成员。该机构将研究并试图规范AI对社会的潜在影响。也有其他的第三方部门也开始施压。一个名为人工智能伦理与治理基金(Ethics and Governance ofArtificial Intelligence Fund)的慈善项目正在支持MIT、哈佛等机构的AI和公共利益研究。纽约大学新成立的AI Now也肩负起了类似的使命。在很近的一项报告中,该研究机构向政府发出呼吁,要求他们承诺,在刑事司法或福利等领域,不再使用不受公开审查的“黑箱”算法。
但是如果你使用过Siri或Alexa,你会发现人工智能尽管非常热门,但是仍然有很多事情无法处理或者理解。
理解语意
机器对于文本和语言的理解能力比起过去有飞速发展,Facebook可以为视力不好的人士描述图片,谷歌可以根据邮件内容提供回复建议。然而软件依然理解不了我们的话语和思路。“我们可以学习概念,并通过不同的方式把这些概念结合起来,应用到新的情境之中,”波特兰州立大学教授Melanie Mitchell说。“但这些AI和机器学习系统不会。”
Mitchell认为当前软件还受限于数学家吉安-卡洛·罗塔所说的“思想的屏障”,一些的AI团队正在尝试克服这一障碍。
其中一项尝试是让机器人和人类一样现实世界和常识有基本的了解。Facebook研究人员正试图教软件理解现实,比如通过看视频。也有团队侧重于让软件模仿人类对世界的理解来完成某些行为。谷歌在打造学习比喻的软件。Mitchel体验过一些系统,利用类比的方法和一堆有关世界的概念来解读照片中的情况。
阻碍机器人革命的现实差距
机器人硬件发展越来越好了,你可以花500刀买到手掌大小、配备高清摄像头的无人机。双脚行走,搬运盒子的机器人也在不断被改进。但是为什么普通人周围没有被各式各样的机械助手包围呢?——目前的机器人大脑的技术发展远远落后于肢体技术。
要让机器人完成特定的任务,需要针对专门的任务进行编程。他们通过不断试错来学习抓住物体,但是这个进程比较缓慢。一个比较可行的方法是让机器人在虚拟世界中进行训练,再将训练所获得的知识数据下载到实体机器人的身体中。但是现实总是骨感的,虚拟环境中机器人的训练成果不一定在现实世界中完全有效。
可喜的是这个差距在缩小。去年10月,谷歌发布了一批喜人的实验室结果,模拟与现实机械手臂学会了捡起多种物体,包括胶带分配器、玩具和梳子。
对致力于自动驾驶汽车的人而言,进一步的进展非常重要。在自动驾驶技术的竞赛中,企业纷纷在模拟街道上部署虚拟汽车,从而减少在实地交通和道路环境中测试所需的时间和资金。自动驾驶初创企业Aurora公司CEOChris Urmson说,其团队的优先事项之一是让虚拟测试更加适用于现实车辆。“未来一年左右,如果能利用虚拟测试加速机器学习,那太好了,”厄姆森说。他之前领导过谷歌母公司Alphabet的自动驾驶汽车项目。
防范AI攻击
电网、安防摄像头和手机的软件中有很多安全漏洞。无人汽车和家用机器人也无法幸免。甚至可能会更糟:机器学习软件的复杂性为攻击提供了新的渠道。
今年有研究显示,你可以在机器学习系统中隐藏一个暗门,使它一收到特定信号,便切换成邪恶模式。纽约大学设计了一个正常运行的路边系统,这个系统一旦看到黄色的便签纸会出现问题。比如布鲁克林一块停车路标上贴了一张便签纸,系统将其识别为限速标志。类似这样的情况也许会给自动驾驶汽车构成麻烦。
不止是棋盘游戏
2017,击败了很多世界的AlphaGo继续进展神速。5月,AlphaGo的增强版在中国击败了多名围棋。其创造者,Alphabet旗下研究部门DeepMind后来又构建了一个版本,名为AlphaGo Zero,在不学习人类棋步的情况下,自学学会了围棋。12月,又再度升级,可以学会象棋和日本将棋(不过不能同时学)。
上述的成果固然让人们欣慰,但同时也说明目前的AI软件还是有局限性。象棋、围棋、将棋虽然很复杂,但规则却相对简单,每走一步双方都能看到。快速穷举未来“情况”这事,计算机是很在行的,但在现实生活中的情况和问题无法如此结构分明
正因如此,DeepMind和Facebook都在2017年开始研究AI在多玩家游戏《星际争霸》的可能性。目前很好的机器人(出自业余人士之手)也无法击败一般玩家。今年早些时候,DeepMind的研究员 Oriol Vinyals接受采访时说,他们的软件现在还不具备规划与记忆能力,无法一边组建并指挥军队的同时,预测对手的下一步行为和应对。这些技能也可以让软件更好地协助现实世界的任务,比如办公室工作或者真实的军事行动。2018年,《星际争霸》或类似游戏的重大进展也许预示着AI将会有强大的新用途。
让AI区分是非
即便上述领域没有新的进展,现有AI技术普及之后,经济与社会的各方面也会发生重大的变化。当政府和企业忙于普及AI的同时,也仍有人对AI和机器学习潜在危害的十分担心。
在近期的NIPS(神经信息处理系统进展大会)机器学习会议上,其中一个主题如何让AI技术保持在安全且合乎道德的范围之内。研究人员发现,由于我们的世界跟相距甚远,机器学习系统在接受已有数据的训练时,会学到不道德或不可取的行为,比如以刻板印象对待男女两性。有人正在研发特定手段,用于审核AI系统的内部运作,确保它们在金融与医疗领域运作时,能够作出公正的决策。
2018年,更多的科技公司会关注如何让AI正确为人类服务。谷歌、Facebook、微软等已经在探讨这个问题,并且是非营利机构AI合作组织(Partnership on AI)的成员。该机构将研究并试图规范AI对社会的潜在影响。也有其他的第三方部门也开始施压。一个名为人工智能伦理与治理基金(Ethics and Governance ofArtificial Intelligence Fund)的慈善项目正在支持MIT、哈佛等机构的AI和公共利益研究。纽约大学新成立的AI Now也肩负起了类似的使命。在很近的一项报告中,该研究机构向政府发出呼吁,要求他们承诺,在刑事司法或福利等领域,不再使用不受公开审查的“黑箱”算法。
020-12553596
现在就想找顾问聊聊立即咨询