随着围绕人工智能价值争论的继续,人工智能的冬天这一风险是真实存在的。我们需要确定什么是真实的,什么是想象的,以便当你看到下一篇关于惊人突破的新闻报道时,可以有一个合理的判断。
毫无疑问,人工智能技术的热潮,推动了许多软件领域取得了不可思议的进步。
语言翻译、图像、场景识别和会话UI等曾是科幻小说梦想的成就,现在已经成了现实。
然而,让人们越来越感到沮丧的是,那些软件的进步,并不是真正“智能的”。
尽管使用AI标记技术的软件在大多数软件类别中产生了巨大的进步,但学者和怀疑论者都观察到,这样的算法远远不能满足智能化要求。
智能的定义
关于智能定义的争论可以追溯到希腊哲学家,他们主要关注的是人类与动物王国的区别,而不是与机器。亚里士多德有一句名言:“受过教育的人的标志,是有能力接受一种思想而不接受事物本身。”他几乎没有想到他的格言同样可以用来区分生物智能和人工智能。
我们的机器仍然不能独立地提出一个想法或假设,对他人进行测试,并基于推理和实验来决定接受或拒绝其有效性,即遵循科学方法的核心原则。
虽然有些形式的人工智能,比如对抗型网络,可能会利用相互对立而获得最佳的结果,但很少有人会把这种算法推理称为“智能”。
相反,它是一种更有效的实现既定目标的方法,通过使用一个公共数据集,让两个神经网络交叉工作,以获得比单独使用任何一个更精确的模型。
人类和机器之间关键的智力区别,在于确定目标和推理实现目标的能力不同。这也是区分因果关系的能力,能够理解尽管两件事经常发生在很近的地方,但并不意味着一件事会导致了另一件事。关联因果谬误是公共话语中常见的逻辑错误之一。
人工智能: 是学习还是描述?
人工智能研究人员正在讨论的一个新问题是,当前的机器和深度学习技术究竟是一种全新的算法推理形式,还是仅仅是描述性统计和曲线拟合等长期数学技术的延伸。
在后者阵营中,颇有影响力的计算机科学教授、图灵奖得主朱迪亚·珀尔(Judea Pearl)的新书《因果科学》(the science of cause and effect)引发了一场关于人工智能未来以及深度学习是否会导致接近一般人类智能的讨论。
珀尔在最近的一次采访中提出了一些犀利的见解。他在采访中阐述了自己书中的观点和对人工智能软件现状的看法,包括当前人工智能无法执行因果推理是一个严重的缺陷。他对深度学习的评价是毫不留情的,也是有启发性的(强调补充)。
“在我深入研究深度学习的过程中,我发现他们都停留在联想层面。曲线拟合。这听起来像是一种亵渎,说深度学习的所有令人印象深刻的成就仅仅是拟合数据的曲线。从数学层次结构的角度来看,无论你多么熟练地操作数据,以及在操作数据时你读进了什么内容,它仍然是一个曲线拟合的练习,尽管非常复杂和重要。
“从本质上讲,尽管深度学习算法具有大脑的灵感,但它们也可以算作另一种强大的数据分析工具,尤其是擅长处理大量非结构化数据。
“然而,深度学习是一种非常通用和强大的曲线拟合技术,它可以识别以前隐藏的模式,推断出趋势,并预测出各种问题的结果。曲线拟合方法在表示给定数据集方面的一个风险是过度拟合,即算法不能识别出数据中的正常波动,最终会被干扰所迷惑。”
珀尔承认,深度学习的成功甚至让该领域的专家都感到惊讶,但他担心,这可能会让研究人员陷入一种概念上的窠臼,并危及一般形式的人工智能的进展。
“我很感动,因为我们没有想到这么多的问题可以用纯曲线拟合来解决。事实证明他们可以。但我问的是未来——接下来呢?”
人工智能研究人员正与他们的深度学习观点所界定的派系结盟,其中最坚定的支持者不愿接受任何批评。珀尔以这种方式描述了当前的环境。
“人工智能目前在分裂。首先,有些人陶醉于机器学习、深度学习和神经网络的成功。他们不明白我在说什么。他们想继续保持那种曲线。但当你和那些在人工智能领域做过统计学习以外工作的人交谈时,他们马上就会明白。在过去的两个月里,我读过几篇关于机器学习的局限性的论文。”
珀尔认为,除非算法和由它们控制的机器能够推理因果关系,或者至少概念化差异,否则它们的效用和通用性永远不会接近人类。
他说,除非机器人能够模拟人类的直觉,否则不可能与它们进行有意义的对话,这就要求机器人具备理解因果关系以及可能采取的其他行动和结果的能力。简而言之,我们又回到了亚里士多德的名言上。
虽然珀尔可能是少数人,但他并不是唯一一个认识到人工智能需要超越深度学习,才能制造出像人一样思考的机器的人。
麻省理工学院(MIT)研究人员发表的一篇论文指出,创建类人的学习和思考的机器需要他们能够构建出世界的因果模型,能够理解和解释他们的环境,而不仅仅是使用模式识别来解决问题。
该论文还认为,这样的系统必须建立在物理(物理学)和社会(心理学)科学的基础上,才能具备对世界进行直观推理的能力,从而使机器能够“迅速获取知识,并将其推广到新的任务和情况中”。作者以对人工智能研究人员的劝诫作为结尾。
“不要仅仅建设一个识别手写字符,并使用Frostbite引擎或Go语言的系统,我们建议深度学习和其他计算范式的目标是使用尽可能少的训练数据以完成训练任务(因为人们需要),同时评估超出模型训练任务之外的一系列类似人类的模型。”
这种通用人工智能(AGI)是反乌托邦小说的素材,也是科技名人埃隆•马斯克(Elon Musk)和比尔•盖茨(Bill Gates)的警告。最坏的情况不太可能很快实现,也可能永远不会实现,如果像珀尔所担心的那样,研究人员不断改进现有的技术,而不去扩展他们的概念视野,结果就会如此。
我的看法
虽然我经常使用“人工智能”这个词,但它总是有些勉强,不符合约定,没有说服力。
就像物联网和云一样,是同样被滥用和不精确的一个词汇,人工智能是一种被广泛理解的技术的简写,它越来越强大,但从根本上与人类的智慧和理性不同。
虽然我经常使用今天所谓的机器学习和深度学习软件的那些令人印象深刻的应用,但我已经认识到,称它为“智能”有点夸张,也许“适应性”和“自我优化”是更好的术语。即使这些也有警告,因为模型需要对参数和结构进行大量的人工调整,正如我在这里和其他场所所讨论的。
显然,科技行业需要对人工智能技术的现状有一个集体的认识。
是的,应该庆祝它的成功,但要承认,在我们拥有可以被合法地称为“智能”的软件之前,需要对此进行更基础的研究。
尽管珀尔已经提供了必要的数学体系,可以使用贝叶斯网络来描述因果关系(他称之为“Do-Calculus”),但要教机器因果关系,仍有很多工作要做。
同时,使用各种机器学习工具的用户必须意识到它们的局限性,不能从特定问题和数据集的结果中进行分类和推断。
原文链接:
https://diginomica.com/2018/06/04/ai-curve-fitting-not-intelligence/
来源:diginomica
作者:Kurt Marko
智能观 编译
—完—
亲爱的朋友:
想了解人工智能,首先应该理性的弄清楚其定义,清楚其能做什么,不能做什么。才能让我们在爆炸的信息中有自己的判断,不至于妄自菲薄。
有在巨头企业工作的朋友曾调侃,现在的人工智能真的是“人工”的“智能”,有多少人工,就有多少智能。
路漫漫但可期......
希望本文能对你有一点启思,欢迎留言探讨。
祝安!
智能观 一米
2018-6-15 于北京中关村
作者:智能观
链接:https://www.jianshu.com/p/b0ef9807097e
共同学习,写下你的评论
评论加载中...
作者其他优质文章