初露真容: 人工智能与机器学习

什么是人工智能?
对于人工智能的定义,学界一直有不同的表述。 在这里,我们采用一种被广 泛接受的说法:人工智能是通过机器来模拟人类认知能力的技术。


      人工智能涉及很广,涵盖了感知、学习、推理与决策等方面的能力。从实际应用的角度说,人工智能最核心的能力就是根据给定的输人做出判断或预测。比如:

  •       在人脸识别应用中,它是根据输入的照片,判断照片中的人是谁。.在语音识别中,它可以根据人说话的音频信号,判断说话的内容。
  • 在医疗诊断中,它可以根据输入的医疗影像,判断疾病的成因和性质。
  • 在电子商务网站中,它可以根据一个用户过去的购买记录,预测这位用户对什么商品感兴趣,从而让网站做出相应的推荐。
  • 在金融应用中,它可以根据一只股票过去的价格和交易信息,预测它未来的价格走势。
  • 在围棋对弈中,它可以根据当前的盘面形势,预测选择某个落子的胜率。

 思考和讨论
你在日常生活中接触到的人工智能技术,它们是根据什么输入,做出什么样的预测和判断呢?

      那么人工智能是如何自动做出判断或预测的呢?其实这并不神秘,有时候我们仅需要一些简单的规则。比如,我们用生活中常见的体温计就可以组成一个非常简单的智能系统。它通过水银或者其他对温度敏感的物质获得体温读数作为输入,然后通过简单的规则,比如“体温是否超过37.5摄氏度”,来判断接受测量的人是否正在发烧。

      在80年代一度兴起的专家系统就是基于人工定义的规则来回答特定问题的。可是人工定义规则的方式有着很多局限性。-方面,在复杂的应用场景下建立完备的规则系统往往是一个非常昂贵而耗时的过程;另-方面,很多基于自然输入的应用,比如语音和图像的识别,很难以人工的方式定义具体的规则。因此,当代的人工智能普遍通过学习( leamning)来获得进行预测和判断的能力。这样的方法破称为机器学习(machine leaming),它已经成为人工智能的主流方法。

从数据中学习

      机器学习方法通常是从已知数据(data) 中去学习数据中蕴含的规律或者判断规则。但是,已知数据主要是用作学习的素材,而学习的主要目的是推广( generalize),也就是把学到的规则应用到未来的新数据上并做出判断或者预测。

      机器学习有多种不同的方式。最常见的一种机器学 习方式是监督学习(super-Viedleaming)。下面我们看一个例子。 这里,我们希望能得到-一个公式来预测- -种宝石的价格。而我们知道这种宝石的价格主要由它的重量和等级确定。如果我们]使用监督学习的方法,为了得到这个价格公式,我们需要先收集- -批宝 石价格的数据,如表1-1。

      现在我们准备根据表 1-1来学习一个可用于价格预测的公式。表中每- – 行称为一个样本(sample)。 我们可以看到,每个样本包含了两个部分:用于预测的输人信息(重量、等级)和预测量(价格)的真实值。通过表1-1,我们可以对不同的预测公式进行测试,并通过比较在每个样本上的预测值和真实价格的差别获得反馈。机器学习的算法然后依据这些反馈不断地对预测的公式进行调整。在这种学习方式中,预测量的真实值通过提供反馈对学习过程起到了监督的作用。我们]称这样的学习方式为监督学习。在实际应用中,监督学习是- – 种非常高效的学习方式。我们会在后面的章节中介绍监督学习的具体方法。

      监督学习要求 为每个样本提供预测量的真实值,这在有些应用场合是有困难的。比如在医疗诊断的应用中,如果要通过监督学习来获得诊断模型,则需要请专业的医生对大量的病例及它们的医疗影像资料进行精确标注。这需要耗费大量的人力,代价非常高昂。为了克服这样的困难,研究者们也在积极探索不同的方法,希望可以在不提供监督信息(预测量的真实值)的条件下进行学习。我们称这样的方法为无监督字习(unsupevised leaming)。无监督学习往往比监督学习困难得多,但是由于它能帮助我们克服在很多实际应用中获取监督数据的困难,因此- -直是人工智能发展的- -个重要研究方向。
近年来,还有另外一种被称为半监督学习的学习方式也受到了广泛关注。半监督学习(semi supervised leaming)介于监督学习与无监督学习之间,它要求对小部分的样本提供预测量的真实值。这种方法通过有效利用所提供的小部分监督信息,往往可以取得比无监督学习更好的效果,同时也把获取监督信息的成本控制在可以接受的范围。

在行动中学习

      在机器学习的实际应用中,我们还会遇到另-种类型的问题:利用学习得到的模型来指导行动。比如在下棋、股票交易或商业决策等场景中,我们关注的不是某个判断是否准确,而是行动过程能否带来最大的收益。为了解决这类问题,人们提出了一种不同的机器学习方式,称为强化学习( reinforcement learning) 。

      强化学习的目标是要获得一一个策略( policy)去指导行动。比如在围棋博奔中,这个策略可以根据盘面形势指导每一步应该在哪里落子;在股票交易中,这个策略会告诉我们在什么时候买人、什么时候卖出。与监督学习不同,强化学习不需要一系列包含输入与预测的样本,它是在行动中学习。一个强化学 习模型一般包含如下几个部分:

      。一组可以动态变化的状态(state)。 比如,围棋棋盘上黑白子的分布位置,市场上每只股票的价格。

      .一组可以选取的动作(action)。 比如,对于围棋来说,就是可以落子的位置;对于股票交易来说,就是每个时间点,买入或者卖出的股票以及数量。

      ●一个可以和决策主体(agent) 进行交互的环境( environment)。 这个环境会决定每个动作后状态如何变化。比如,围棋博弈中的对手,或者股票市场。在强化学习中,为了降低学习的代价,很多时候我们会使用一个通过机器模拟的环境,而不是以真实场景作为环境。

      .回报(reward) 规则。当决策主体通过行动使状态发生变化时,它会获得回报或者受到惩罚(回报为负值)。

      强化学习会从一个初始的策略开始。通常情况下,初始策略不一-定很理想。在学习过程中,决策主体通过行动和环境进行交互,不断获得反馈( 回报或者惩罚),井根据反馈调整优化策略。这是一种非常强大的学 习方式。持续不断的强化学习甚至获得比人类更优的决策机制。在2016年击败围棋世界冠军李世艺九段的阿尔法狗,其令世人震惊的博弈能力就是通过强化学习训练出来的。

      1.5 本章小结

      人工智能是研究如何通过机器来模拟人类认知能力的学科。它可以通过人工定义或者从数据和行动中学习的方式获得预测和决策的能力。通过过去几十年的努力,人工智能已经获得了长足的发展,并且在多个行业得到了成功的应用。

      人工智能这一新兴的科技浪潮正 在深刻地改变着我们的世界并影响着我们的生话,但是这一切仅仅只是-一个开始。我们的生产、生活、社交、娱乐等方方面面依然可以通过人工智能技术的应用得到进一步的提升。人工智能过去的发展为我们展现了-个令人激动的前景,而这个更美好的新时代需要我们供同努力去创造。

《初露真容: 人工智能与机器学习》有一个想法

发表评论

电子邮件地址不会被公开。 必填项已用*标注