15分钟看懂人工智慧和机器学习!

 

我们对于人工智慧的恐惧,其实可以追溯到科学怪人(Frankenstein),甚至招魂术(Necromancy)以前。我们害怕我们有一天能够自己创造或赋予一物体智慧,最后却失去对其之控制而遭杀身之祸。...



最近关于机器人与人工智慧的新闻不断,不管是 Boston Dynamics、AlphaGo 还是人形机器人 Sophia,都使关注人工智慧的朋友越来越多,自然而然有很多人开始产生疑问:

天网的时代是不是要来临了?(按:不要跟我说你没看过终结者。)

对于人工智慧的莫名恐惧



我们对于人工智慧的恐惧,其实可以追溯到科学怪人(Frankenstein),甚至招魂术(Necromancy)以前。我们害怕我们有一天能够自己创造或赋予一物体智慧,最后却失去对其之控制而遭杀身之祸。

当然,这种恐惧不是完全没有可能,但是在下任何结论以前,我们必须先深入了解什么是人工智慧。

何谓人工智慧?



其实我们口语上的人工智慧和学术上讨论的人工智慧有很大的差异。

多数人每天讨论的人工智慧,是非常含糊的概念,不但包含了所有的自动化、程序化作业外,任何模拟智能、模拟感官,甚至模拟情绪的现象都被人称之为人工智慧。

定义如此包山包海,也难怪那么容易就会挑动人们对于末日说的敏感神经。

反观,学术界的人工智慧虽然依学术领域不同而在定义上有些许差异,但基本上仍不离「了解、模拟人类或动物之智能、认知与行为」的宗旨。若要再细分,人工智慧大致上可以分为以下四大块:
粗略地解释,第一栏(黄色),关注的是人类在思考和做决策时,所需的知识、记忆和资讯处理技巧,并将这些理论模型透过机器进行实作,以达到模拟人类思考与行为的目的;第二栏,关注的则是逻辑性和理性的判断,出发点通常是以逻辑和计算学为基础。这两大派系的分歧并不是技术上的,而是哲学上对人工智慧的观点不同。

而说到人工智慧,其最早出自于哲学的知识学(Epistemology)。哲学上的知识学慢慢地知识学逐渐衍生出心理学、数学、经济学、计算学等学术领域,但最终的目的仍然在于了解知识模型与决策模型。

当然,各领域对于人工智慧的认知都经过了大幅度的变革,而最重大的变革应该算是五零年代的认知科学革命(Cognitive Revolution)。

在五零年代以前,我们对于人类心理与智能的认知,由行为主义(Behaviorism)主导。行为主义学派认为人类与动物的行为是以控制和动机为主,因此可靠重复训练(Conditioning)养成。

行为主义者一般认为具有智慧的行为可以用行为和训练去模拟,而无须去探讨人类与动物的认知系统。若以非常狭义行为主义而论,人类若有机会挑选面包多半会挑选体积较大的面包吃,若一只鸟可以被训练去挑选大的面包来吃的话,那这只鸟至少在挑选面包这方面拥有类似人类的智能。

所以,我们要怎么去定义和测量人工智慧呢?

说到人工智慧的测验,大家应该都听过鼎鼎大名的亚伦图灵(Alan Turing)。图灵测验(Turing Test)假设若一人透过一介面去跟一电脑(或另一人)互动,若测试者无法判断电脑和人类的差别,那该电脑之人工智慧便达到跟人类一样的等级。
许多电影和科幻小说都喜欢拿图灵测验来做文章,但是这测验存有很大的一个问题,那就是:我们到底测试电脑和人类的共通点到底代表什么?

举个例子:若今天测试者问电脑说二加三等于多少,电脑回答五,这是许多受过教育的人类会给的解答,这只代表电脑有能力做基本运算;如果今天测试者问电脑说大象有几只脚,若电脑回答四,这也是许多受过教育的人的解答,这也只代表电脑拥有了一些关于动物的基本知识;

反观,若电脑反问说「大象是什么?」,这也是没有见过大象的人可能会问的问题;若测试者问电脑今天开心吗,不管电脑回答是与否都合乎人类的标准,但这并不代表电脑真的了解人类的情感的感受以或是其在知识和决策上的意义。

图灵测试到底要测试多久?又测试的是什么?其实并没有一个标准答案。

为什么?因为图灵过世于 1954 年,当时的认知科学尚未成形。而在那个年代,图灵与其同侪所讨论的人工智慧,严格上来说其实是今天的计算学(Computational Theory)。

当时的人工智慧论者,在乎的是将人类所从事的工作步骤化、系统化,最后再将这种系统化的过程加以理论化。与其说是在形容人类的智慧,不如说是在奠定计算学的基础。

认知科学的到来,学术界对于智能的观点开始以人类和动物的认知架构(Cognitive Architecture)加以定义。在这种架构下,一个人的认知能力不但有基本的感官能力、短期记忆、长期记忆、专注力等,更有知识管理、情绪管理、学习管理等能力。

由于认知科学的进步能解释许多人类智能和认知能力的特性和限制,因而取代了行为主义成为心理学和哲学的主流。

同样地,学术界对于人工智慧的认知也随着心理学进步而一日千里。过去的图灵实验,今天看来是多么地含糊?同理,当我们重新审视大众口语之人工智慧就能看出其定义上的缺陷。

人工智慧真的危险吗?不见得,人工智慧可能是利用类似人类的知识管理系统来进行推理、利用搜寻演算法来做决策(AlphaGo 就是此类)、或是利用脸颊特征去做脸部辨识,这些都是很稀松平常的「智慧型」工作,似乎无须大惊小怪。

以下,让我们来进一步探讨人工智慧。

人类智能 vs. 人工智慧



由于人工智慧与人类智能息息相关,因此人工智慧作为一学术领域,算是出自于哲学与心理学。一直到九零年代以前,人工智慧领域之实作方法几乎清一色是以人类的认知能力与智能为设计蓝本。

当时的人工智慧以模拟人类智能之知识、分析、演绎、归纳等能力为宗旨,与今天业界使用的机器学习有不小的差异。 (机器学习部分下一段落再讨论)

过去的人工智慧方法衍生出以下(部分)主题与问题:

知识管理(Knowledge Base)



人类利用许多结构性知识来辅助自然语言。如
似这样的知识结构,让我们可以了解「大象看见兔子」因为大象有眼睛因此并非不合理。但随着知识库增长,大部分知识库都发生了语义歧异性(Semantic Ambiguity)的问题,

比如说阿帕契发射飞弹、阿帕契来自于墨西哥,以及阿帕契是开放原始码软体等语句都合理(但同时也都不合理),因为阿帕契这词有太多定义,必须靠更精准的语义分析去判断,而很难客观地(独立于语言的情况下)储存知识。这类问题成为知识库方法最大的缺点。

知识管理虽然仍在搜寻引擎中广为使用(多以知识图Knowledge Graph 的方式呈现),但其结构已不再是以丰富的结构性知识为主,而是以机器学习衍生出以统计学导向的语义关联性为主。

规则式系统 (Rule-based Systems) 与专家系统(Expert Systems)



由于人工智慧除了知识外还需要视情况动作,这种模拟人类智能的架构在过去都以专家系统的方式呈现,而专家系统又多以规则式系统的方式实作。

所谓专家系统就是将我们认为正确的规则以「情况」(Context)、「目标」(Target)与「动作」(Action)三集合的方式呈现。只有在合乎情况的时候,系统才会对目标进行更新的动作。

比如说今天我们在设计一四则运算系统,若两整数之个位数相加超过10(情况),那我们应该要在十位数栏位之上方(目标)加一以表示进位(动作) 。

规则式系统与一般的结构式程式设计最大的不同在于规则式系统的执行是属于非线性的,因此被用于模拟人类解题时使用的各种知识。

专家系统与规则式系统严格上来说并没有被机器学习淘汰,但是由于其设计成本和建置成本极高,因而今天在业界已较少见。

非线性逻辑(Non-monotonic Logic)与信仰更新系统(Belief Revision)



一般的逻辑系统在增加新的知识(或语句)后,其能够代表的可能性会增加。但是人类的知识却不见得如此,如果今天碰到互相矛盾的知识,可能性可能会因此减少。因此人工智慧发展出了非线性逻辑。

打个比方,若我们知道下雨会使地面潮湿,而今天地面是干的,那前两语句为真的情况下,那我们知道今天不可能有下雨。非线性逻辑系统的作用在于能自动移除不合理的结论,以维持系统的相容性(Consistency)而不会互相矛盾。

影格问题(Frame Problem)



在人工智慧中一直都是难以解决的问题,Frame problem 当属其一。所谓的 Frame problem,就是若把世界当作一电影,把时间与物件用「影格」的方式去分开,我们要如何去表示和储存该「影格」中的知识和规则?又要如何因应事件去改变影格内的知识?

打个比方:若今天两小孩在玩接球的游戏,A孩将球丢给B孩,之后B又将球丢给A。若一开始是Frame 1、A 孩球丢给B 之后是Frame 2,而B 将球丢给A 之后是Frame 3,
那很明显地,我们可以推测在Frame 1 时A 手上有球(不然怎么丢?)、在Frame 2 时B 拿到球,而A 手上没有球(不然B 手上拿到的是谁的球?),但是到了Frame 3,A 手上应该是没有球(已丢出),但是B 有可能会有球(成功接球)但是也有可能没有球(没接到球掉地上了)。


若我们在 Frame 2 与 Frame 3 之间再插入一Frame 2,我们可能会发现 A 与 B 手上都没有球,而球在空中(因为如果掉在地上 A 就接不到了)。

如此简单的逻辑语言,却暗藏了许许多多的隐性知识,若全部用显性的逻辑规则去表示,那一个简单的人工智慧系统在输入任何专家规则前,恐怕已有数不清的隐性知识了。

由于人工智慧使用的资料中的语句通常都只有显性知识,要如何将知识系统、规则系统等全部整合起来来精准地追踪每个「影格」的隐性知识与相关结论,是人工智慧至今无完解的问题。

故此,在九零年代以前,人工智慧作为一学术领域仍然以许多智能相关的议题为主,但是由于传统人工智慧方法有许多结构性和规则性设计,一旦资料集合过大,常常会碰到歧异性问题和系统性矛盾,使得人工智慧的系统实作方法都很难用来建置大型系统。

故此,虽然人工智慧的研究在哲学和心理学仍持续进行,在工程领域,许多实作方法已被机器学习取代。

机器学习 vs. 人工智慧



机器学习的理论基础出自统计学,其功用在于使用统计数据来归纳出可用于预测的统计模型。随着人工智慧领域对大型专案的实用性要求增加,机器学习便成为人工智慧中最重要的领域。如今业界看到的人工智慧解决方案,几乎都是以机器学习为主。甚至许多心理学、社会学、经济学、语言学等领域都借助机器学习来辅助建立结构性模型。

而机器学习(部分)有几大类:

1Unsupervised Learning (非监督式学习)



非监督式学习,粗略地解释就是从未被标示的资料中找到可预测的模型。由于资料尚未被标示,你很难直接去设定辨识的「正确」标准和杂音标准,因此非监督式学习多仰赖资料本身去寻找聚类集合(Cluster),并以此为标示的基准。

打个比方,若你今天有搜集到许多拥有不同特征的花,但是你却不知道他们是什么花。那你可以利用花的各种特征来寻找类似花朵的集合,未来找到新的花朵时,你可以依照花朵的特征来将其归类于其中一个集合,这种学习方式即类似非监督式学习。

非监督式学习的演算法包括 K-means、Expectation-Maximization、Principal Component Analysis 等。

2Supervised Learning (监督式学习)



监督式学习,相对于先前提到的非监督式学习,差别就在于资料已被明确标示,因此你可以去设定辨识的「正确」标准(通常能明确地标示辨识结果)。相对于前者,监督式学习通常都有更复杂的结构。

打个比方,若你今天有许多猫的特征资料与其所属的品种,你可以利用监督式学习去建出以特征资料去预测品种的统计模型,这种作法即类似监督式学习。

监督式学习包括类神经网路(Neural Networks)、贝氏学习(Bayesian Learning)、决策树(Decision Tree)等。

3Reinforcement Learning (强化学习)



在强化学习中,通常系统中都有一假设的「玩家」(Agent)。而这玩家在该环境中的所有动作都有反馈,也就是得失(Win & Loss)。因此在学习时,玩家必须要依环境中的资讯来寻找能将好处最大化的选项。

举个例子,若一系统在帮助一机器人寻找回家的路,在任何时候机器人的位置和状态都存有一定的不确定性,而这不确定性极有可能造成机器人摔入坑洞(坏处),也有可能帮助机器人成功返家(好处),系统必须依照环境中的资讯去决定对机器人最有利的决定。这种问题,多可用强化学习的 Markov Decision Process 来解决。

看到这边很多聪明的读者可能已经发现:传统人工智慧仍用结构性方法去建置智能,但是到了机器学习,却改用统计学方法去处理大型资料来模拟人类的某种智慧型行为。后者最大的好处在于其可以因应资料的特性而弹性地进行调适,并训练出新的统计模型。

对于现实世界中充满杂讯的大型资料集合,机器学习的弹性和错误通融性(Error Tolerance)都使其较过去的人工智慧方法高更实用。

但是,机器学习同时也有缺点一些缺点:首先,从科学的角度看来,传统AI 方法还可以算是某种程度的描述性科学(Descriptive Science),意思就是其产生的各种模型的结构仍以描述人类的认知架构为宗旨,

反观机器学习的方法虽然模拟人类的智慧型行为,却几乎放弃了作为人类认知架构的科学基础,严格上来说是种工程方法(当然这也是好事)。



再来,机器学习很难单独建出拥有高语义复杂度的知识库,尤其当专案规模不大时,机器学习达到一定准确度(85%+)所需的资料量比传统人工智慧大很多(传统人工智慧可能只需要几十行的逻辑式资料便能进行推理,机器学习却需要上千笔以上的资料才能建出像样的模型)。

故此,在看待现代机器学习主导的人工智慧,拥有「智慧型」的行为不代表拥有智能动物的知识管理、推理和决策架构和能力。

打个比方,一现代机器学习系统能了解「大象」与「哺乳类」二词有明显地关联性,但是却无法保证能演绎出「大象有能力哺乳」,或是「大象是胎生动物」等结论(通常需要设计新的系统重新训练)。

机器人 vs. 人工智慧



在这边稍微绕道讨论一下机器人学和人工智慧的关系。对于大众来说,自动化的各种机械都被认为是拥有某种程度的人工智慧。这样说没错,但是却稍嫌含糊了点。

机器人作为一学术领域是两千年以后的事情,而其学术领域对于机器人的定义很简单,就是:

  • 感测(Sense)
  • 思考(Think)
  • 动作(Act)
很明显地,这定义其实比传统的人工智慧广很多,因为这么说来,一拥有影像辨识能力的智慧型机械手臂,也可以算是机器人。

严格上来说,机器人学的目标和传统人工智慧有关联但是却不互相隶属。传统人工智慧在乎的是模拟人类的知能,而机器人学的重点在于创造可以根据资讯做出判断并与环境进行物理互动的智慧型机械。

后者可明显受益于许多知识管理和推理系统,但却不见得一定要运用人工智慧的架构才能够创造有用的机器人。

人类意识 vs. 人工智慧



最后,我们要来讨论一下人类的意识(Consciousness)。说穿了,大众对于人工智慧的恐惧,其实害怕的不是智慧而是意识。换句话说,我们不是怕机器会取代我们,而是我们害怕机器会拥有类似人类的爱恨情仇。

这边我们讲到重点了:一机器拥有人工智慧,却不代表拥有人工意识。

目前为止几乎 99.9999999999% 的人工智慧研究,都是专注于模拟人类的某种智能行为,并且用建出的模型去进行某种生产活动。这种活动其实跟意识完全没有关系,意思就是拥有人工智慧的机器会工作,但是对于工作、环境乃至世间万物,都没有真正的「感觉」。

说到意识,在哲学上仍是一个相对模糊且具有争议性的概念,但目前在现象学(Phenomenology)中研究的意识架构,人类意识包含了以下(部分)因素:

意向性(Intentionality)



所谓意向性就是能够「专注」于某事物上。比如说我们的意识拥有意向性,因此我们能够去观察特定的视觉物体、声音,甚至是在脑海中想像某事物。

直觉性(Intuition)



直觉性粗略的解释就是在意识中探索一物件的属性,即使是在脑中想像一物件的材质、重量、温度等。

同理性(Empathy)



同理性,是意识透过观察另一个体来感受特定经验的能力。比如说一人可以看到另外一人快乐而想像对方的快乐。

以上只是现象学与哲学等领域非常粗浅的部分定义。由此可见,意识的本质是人类一切价值判断的基础,而从以上定义看来,目前没有机器拥有类似人类的意识。故此,机器在进行既定的处理工作时,并没有意向、直觉、同理等,因此机器即使从事跟人类一样的工作,并不代表机器对于此工作有任何感觉,也不会对其有任何价值判断。

至少在未来数十年内,敝人相信人工智慧的研究仍不会认真考虑人工意识的可能性。

为什么呢?因为拥有意识和价值判断的机器有能力出自自我意愿去抗拒命令,而这对于设计重视生产力的智慧型机器并没有什么明显的好处,只能说是有趣的实验而已,最后至多跟传统人工智慧方法有类似的下场,因为缺乏实用性而逐渐没落。

故此,其实人们真正应该担心的不是智慧型机械,而是当人工智慧日益强大,最后有心人士会怎么使用这些机器来破坏秩序(高频交易造成股市和期货市场动荡较以前剧烈就是很好的例子)。

结语

聊到这边,我们对于人工智慧的讨论差不多要告一段落了。现在重新回顾 Boston Dynamics、AlphaGo 还是人形机器人 Sophia 等机器,我们会发现其实这些最近的「人工智慧」突破,其实是机器学习的高精准度结果。

而先前讨论过,机器学习的统计模型虽然可达到高精准度,却不具备有类似人类的知识管理和推理能力,因此,AlphaGo 的演算法无法使其学习其他游戏(因为其并不具备有跨领域之规则推理和归纳引擎)、Boston Dynamics 的机器人若脚被换成轮子马上就作废(因为机器人其实不懂得透过推理去学习物理),

而人形机器人Sophia 虽然可以认出你的脸和记住你的国籍和学历,但是却不了解你教育程度、文化背景对于你的生活、饮食习惯和工作习惯的影响(没有深层的背景知识和推理能力)。

因此在看待这些人工智慧产品时,我们对于人工智慧和人工意识的想像跟现代的机器学习工程方法有一定的出入,因此在惊奇之余实在无须太过紧张。

(本文转自:萧瑟寡人)
如果喜欢这篇内容,
欢迎点击右上角分享给朋友。

MultiCharts ∣分享量化和交易知识





长按,识别二维码,加关注


    关注 微文阅读推荐


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册