时间:2017-11-21 来源:互联网 浏览量:
微软战略政策顾问戴夫·海纳表示,如果只有少数几家公司在利用人工智能,那么它就不太可能被广泛应用。
图:于悉尼举办的微软峰会聚焦于人工智能的未来
微软:AI发展还是太慢?
据微软战略政策顾问戴夫·海纳称人工智能所面临的最大风险是在所有人类领域里推广的速度还不够快。
海纳于上周在悉尼举行的微软峰会上表示:“在任何地方,人类智慧都能有所助益,人工智能也是一样。”
“如果只有四五家公司在利用人工智能,那无论如何人工智能也不能在大范围内推广开的。”
海纳还指出,AI的目的是在教育、医疗和政府等行业“放大人类的智慧”,而不是让人类变得多余。
微软公司首席讲师兼总经理史蒂夫·克莱顿也持有类似的观点,他说公司正在敦促企业领导人“用创客思维来取代从前那种节约劳动力和自动化的心态”。
“如果你在任何搜索引擎上搜索人工智能,你可能会看见一些类人机器人的照片或自动化,我认为现在关于人工智能的讨论都差不多是在围绕这个主题,即人工智能将成为世界霸主。”他在微软峰会上表示。
同时,根据微软Azure公司副总裁茱莉亚·怀特的说法,这种“人工智能将取代人类”的说法忽略了一个前提,那就是人类是“不断学习、成长、改变自己以适应环境的”。
“到目前为止,技术已经增强了我们的能力,我们不认为下一代的情况会有所不同,因为我现在拥有智能手机和个人电脑并不意味着我作为一个人已经是多余的了。我的能力变得更强,我可以和更多的人交流,更有效率,可以做更多的事情。”怀特这样说道。
“当我回想30年前人们的情况,这就像‘如果我可以在网上做会计工作而不需要和会计师见面,这意味着什么?’意味着你的会计师可以产生更多的价值,因为他们不只是填写文书工作,实际上他们可以做更有价值的工作。”
考虑到全球范围内能产生的数据量的大小,克莱顿说,利用这些数据改善社会的潜力太大了,大到令人无法忽视。
“这些数据来自我们所拥有的多种设备,包括个人电脑、智能扬声器,更重要的是它能连接全世界的传感器:工厂、农场、医院传感器,这些物联网传感器现在连接到互联网上,每天产生大量数据。在过去的两至三年内,我们有了一些算法上的突破,特别是在机器学习和深度神经网络的领域内。我们现在有能力计算大数据,教会电脑去看、听、感知并理解这个世界,正如我们自己一样。”他还补充说,微软相信现在我们的大数据中只有不到半数被有效利用了。
AI风潮背后仍存社会问题
但是支持利用AI的公司需要首先确保其消费者完全信任这项技术。
“我们需要客户的信任,因为人工智能系统依赖于数据,如果我们想用人工智能来帮助人们做出更好的决定,比如谁有心脏病发作的风险、谁应该得到一个移植器官那一类的事情,那么我们需要人们的相关数据。”海纳在微软峰会上表示。
“如果人们不相信他们的数据会被正确地使用,他们就不会分享数据。如果人们不相信AI系统的结果是对的,他们也不会使用AI。”
“真正需要我们致力于的是人工智能所涉及到的一系列社会问题,如系统的可靠性、与数据相关的隐私、这些系统的公平性以及透明度,我们需要能解释它们是如何工作的。”
上个星期,澳大利亚公平竞争与消费者委员会(ACCC)指出,人工智能存在风险,可能会促进相互勾结并减少市场竞争,而这一类行为却不一定违反任何竞争法。
ACCC主席Rod Sims指出,深度学习和人工智能的发展可能意味着公司不了解机器如何得到结论,或为什么会得到一个特定结论,并补充说,澳大利亚不会允许公司以“这是我的机器人干的”为借口逃避责任。
他说:“据说利润最大化算法可以解决寡头垄断定价博弈问题,而且逻辑性强,不易出现夸大,这种发展方向值得坚持下去。”
ACCC已采取措施解决与AI有关的潜在垄断风险,2010年竞争和消费者法案引入了新的关于市场权力滥用的规定,Sims认为这是“他们正需要的”,以禁止大公司支配或垄断市场,比如,在市场中占据很大份额的公司可以通过机器学习算法来帮助它确定利润最大化的下游价格并进行利润率缩减。
AI发展应提前划下红线?
本月早些时候,联邦议员布莱恩·布里奇特•麦肯齐和埃德•赫斯表示,澳大利亚各界人士需要就AI的潜在影响和其间界限进行外交讨论,以确保AI的发展和正确运用。
外交、国防和贸易立法委员会主席麦肯齐参议员说,像霍金和伊隆·马斯克这样的聪明人如果都开始警告“邪恶的人工智能”如果缺乏监督和监管就会摧毁人类世界,那么我们不应该只是无视警告。
“你不会希望把我们那么多的社会问题都交给人工智能解决,那样当公众开始说‘停下这一切’并提出疑虑时,就会太迟了。我们需要尽早进行讨论,这个原因非常合理。”麦肯齐说道。
“这不是关于恐惧新技术,也不是要发表怪论以显示自己很酷,而是出于理性的思考,也是因为我们真正理解这种技术的潜力。这个技术的潜力在于,它不仅仅只是一个能听从命令的机器人,这是一个能够自己思考的机器人。”
“如何定位人类与机器人的界限?当你的身体上配备多少件技术装置后,你就会被定义为机器人,而不是人类?”
数字经济影子部长埃德•赫斯表示,澳大利亚有机会“先行一步”,并补充说,关于人工智能的初步讨论不需要把重点放在监管上。
“让我们讨论一下我们需要弄清的边界,显然,我们希望人们有创造性地、自由地去开发和使用人工智能,这样才能给人类带来最大的好处,但是禁止越过的红线在哪呢?我认为我们并没有真正注意过这个问题。”
“我认为我们国家应该把这个作为外交重点,与志同道合的国家合作,开始在世界舞台上思考我们要做什么。如果世界经济论坛说这是我们应该思考的问题, 而不是急于采取监管措施,那么我认为我们应该好好思考。”
但其他人仍持不同意见,如瑞士神经科学家,Starmind 创始人Pascal Kaufmann,相信“真正的人工智能”还不存在,因为公司正在比照着人脑制造电脑。但人类的大脑并不像电脑那样处理信息、检索知识或存储记忆。
Kaufmann今年早些时候提到,在“大脑代码被破解之前”,AI仍然是一个停滞不前的技术领域。
Kaufmann说,在目前的阶段,人工智能还通常只是“由程序员转录成代码的人类智慧”。等到何时我们能通过神经科学理解自然智能了,我们才能够制造出真正的人工智能。