人工智能考研(人工智能考研考哪些科目)




人工智能考研,人工智能考研考哪些科目

今天,在相当多的情况下,判断你是在与人类还是算法进行交互,正在变得越来越困难。

决定谁值得信赖,获取正确的信息,以及阅读正确的“信任信号”,对人类来说已经足够困难了——想想你曾经上当受骗的情形。但是当我们开始将我们的信任外包给算法时,我们如何去相信它们的意图?当算法或机器人代表你作出你不同意的决定时,要是产生了意外后果,应该责怪谁?

人工智能要想替人类完成很多让大家放心的事情,有三个技术里程碑需要克服。

▌有多少人工,就有多少智能

在人工智能界,普遍可以听到一个说法:有多少人工,就有多少智能。

传统上,人工智能被娱乐业塑造出一个错误的形象,令我们以为它是在没有人类输入的情况下可以自如运作的技术。

与传统计算不同,人工智能可以在一系列尚未由人预编程的情况下作出决策。这也被称为认知计算,需要通过输入大量数据进行培训。

人工智能打着更好地把人从重复性的工作中解放出来的旗号,但现在存在一个悖论:要先通过人类的大量重复性工作才能让机器实现智能。

机器学习需要喂给机器大量的数据,而这些数据大部分是需要人工标注的,这在机器学习当中叫做“监督学习”,即根据输入-输出的样本对子,学习一个将输入映射到输出的函数或模式,并依此模式推测新的实例。

尽管数据标注一类的工作会逐渐为人工智能所接手,但放眼未来,人工智能将始终需要人类的投入和专业知识,从而以符合道德、负责和安全的方式充分发挥其潜力。

例如,在社交媒体中,需要人类对算法的极端化予以纠正;在医学上,人类和机器的共同努力将产生比任何一方单独所能实现的更大效果;在自动驾驶等领域,人工智能的优越性是训练的结果,然而一旦发生了人工智能未经训练而不得不处理的事情,由人工智能驱动的优势就会被抹去。当这种情况发生时,人工智能的处理能力必须让位于人类的创造力和适应能力。

所以,人工智能必须处理好人工与智能的关系。最终,只要有新的应用让人工智能学习,有新的任务让它掌握,人工智能就始终需要人类的投入。

▌学习如何学习

“智能”这一术语的使用常常导致人们对AI的能力和拟人化风险的误解(这里的拟人化,是指将人类特征和行为分配给非人类事物)。

今天可用的大多数AI技术都是根据特定目标学习或优化其活动,因此只能按照所传授的内容进行操作。其能力的大小,反映了培训的数据及培训的质量,以及AI流程的设计情况。通常,仍会需要人工处理异常情况。

这意味着AI目前的形式很狭窄,只能专门用于特定的应用程序,它所遵循的流程和程序是不可迁移的。

现实生活中,拥堵地区的路线规划、合同谈判甚至与客户的互动等任务,都涉及到考虑人们的偏好如何重合和冲突,并达成相应的妥协,就像在游戏中一样。即使人工智能系统是自利的,它们也可能通过协调、合作和在人群或组织之间的互动而获益。那么,像PoG这样能够推理出他人的目标和动机的系统,可以为致力于成功协作的人工智能铺平道路,包括处理围绕信任而产生的问题。

▌不知之不知

“未知的未知”(Unknown unknown)是前美国国防部长唐纳德·拉姆斯菲尔德在2002年2月回应记者提问时的名言。

“未知的未知”是指模式对其答案有信心,但实际上是错误的。 对人来说,这就产生了一个难题: 需要知道人工智能算法何时工作,何时不工作。虽然电影推荐假如不是那么准确可能并不要紧,但一旦一个算法在自动驾驶汽车或医疗应用程序中表现不佳,其结果可能是毁灭性的。

人工智能系统的内部工作往往不透明,人类很难理解人工智能学习系统如何得出他们的结论。套用拉姆斯菲尔德的形容,这就是典型的“未知的未知”。

所以,人工智能的一个必须克服的技术挑战是与人类自己相比的理解差距。为了解决这个问题,设计者和观察者已经讨论过在AI系统中需要一定程度的解释逻辑,以便检查错误并让人类学习和理解。

然而,人工智能系统复杂性的挑战并不容易克服。事实证明,机器“知道”得越多,我们就越不了解它们…… 与此同时,层数越深,优化算法就越难。最终,它们变得如此困难,以至于数据科学家无法解释它们是如何工作的。

在某一点上,用于深度神经网络的算法以某种方式,奇迹般地产生了准确的结果——但科学家和工程师并不完全了解结果如何产生的。人工智能使机器能够进行预测,但很难让计算机解释它是如何得出结论的。

这不仅提出了信任问题,而且还产生了潜在的法律和责任问题。在人工智能获得全力推进之前,这方面有很多东西需要探索和考虑。

▌人机共存,避免图灵陷阱

1950年,阿兰·图灵(Alan Turing)提出了一个测试机器是否智能的方法:机器能否很好地模仿人类,以至于它对问题的回答与人类无异?

从那时起,创造出与人类智能相匹配的智能就或隐或现地成为成千上万的研究人员、工程师和企业家的目标。类似人类的人工智能的好处包括生产力的飙升、休闲的增加等,也许最深刻的是对我们自己思想的更好理解。但并不是所有类型的人工智能都像人一样——事实上,许多最强大的系统与人类非常不同。

过度关注开发和部署HLAI会使我们陷入一个陷阱,不妨称之为“图灵陷阱”。随着机器成为人类劳动的更好替代品,工人们失去了经济和政治上的讨价还价能力,变得越来越依赖那些控制技术的人。

相反,当人工智能专注于增强人类而不是模仿人类时,人类保留了坚持分享所创造价值的权力。更重要的是,增强型人工智能创造了新的能力以及新的产品和服务,最终产生的价值远远超过了单纯的模仿型人工智能。

……因此, 尽管将自动化视为降低成本的可靠途径是很诱人的,但企业应该着眼于更大的前景,因为增强型人工智能提供了更大的经济效益。

不平等是我们这个时代最紧迫的问题之一,而且有合理的证据表明,技术对社会当中的不平等已经产生了影响。

人工智能的目标应该是使获得最佳服务和机会的机会均等化,而不是使之离我们越来越远。再也不可以接受的是,技术的所有好处都以牺牲社会其他人的利益为代价涓滴到资本所有者,特别是数字资本的所有者身上。

事实上,这种人工智能给相对少数人带来繁荣、同时造成社会其他人权力丧失的过程,就是斯坦福大学研究人员所说的“图灵陷阱”。

虽然我们目前还没有落入这个陷阱,但重要的是,在我们还有机会的时候,努力在人工智能的发展道路上确保避开它。由于人工智能仍然处于相对早期的阶段,现在正是这样做的时机,并去积极想象一个人类仍然不可或缺的技术未来。

当下,人工智能科技公司OpenAI发布ChatGPT以来,仅仅过去了四个月的时间,但是 可以清楚地看 出,现代性中的人类境况即将发生重大变化。

生活于AI飞速发展的当下,人们应当以怎样的方式对待互联网媒介和自身?“后人类主义”和“超人类主义”也许是这条路上最突出的两个分支,前者意味着人本主义主题的死亡,而后者试图无限期地放大人类的存在。我们该如何抉择?

媒介思想家麦克卢汉有一句名言:“我们透过后视镜观看现在,我们倒退着走向未来。”只有通过回顾过去数个世纪的媒介技术爆炸,才能看清这些技术的漫长影响。在熟悉中发现陌生,在新里体验旧,最终我们所预测的,不过是已发生的事情而已。

然而,当下关心数字商业的人数不胜数,但是关心数字社会基本问题的人少而又少。为此,先知书店诚挚推荐数字化研究前沿学者胡泳作品(签名版):《后人类的后真相》《媒介:回归与创新》,解读人与智能技术的交织,深刻透视数字时代下的社会巨变和人的生存状况;并回顾过去数世纪的媒介技术爆炸及其对人与社会的影响 ——

◎《后人类的后真相》:作者指出,我们都是越界人,活在时代更替的夹缝中。晕眩,是在夹缝中生存的基本感受。我们需要以非常不同的方式生活,而这需要非常不同的思考。也许像启蒙运动一样,我们所需要的是心灵的另一次革命,也即人类意识的范式转变。

◎《媒介:回归与创新》:众声喧哗的时代到来了,每个人都是媒介出口,置身于一个庞然的信息传播生态系统。数字化社群正在中国的兴起。然而我们不能以简单的二分法来认识媒介 的变化。信息越流通,社会越强健——从旧媒介到新媒介,信息流通的基本逻辑和目的并没有变。

网络既创造又破坏,互联网是一片矛盾的海洋,有人因它贫穷,有人因它致富,有人用他作弊,有人用它学习——关键不在于时代如何变化,关键在于人如何面对自身所处的时代。

胡泳的书启发读者思考当代人最现实的人生命题,学会批判性地看待互联网的一切变化。我们有幸获得胡泳老师亲笔签名版,库存有限,首期不足200本,长按下图,识别图中的二维码,即可抢先收藏:

添加:Leonardo2010317

人工智能考研(人工智能考研考哪些科目)