Terry怎么读(terry怎么读人名)

1.机器翻译一开始并不顺利。

从1953年到1954年,IBM资助美国乔治敦大学进行了有史以来第一次机器翻译。乔治敦实验的目标很明确:把几十个俄语句子翻译成英语,一共定义了6个语法规则,250个单词,主要领域是有机化学。

Terry怎么读(terry怎么读人名)

乔治敦大学乔治敦大学

乔治敦实验为计算机的应用烧了火,自动翻译成了很多人的研究课题。美国空陆军、原子能委员会和欧洲原子能发展组织都安装了IBM的翻译系统,试图解决翻译苏联文件的问题。

十年后的1964年,美国政府研究资助机构意识到机器翻译的研发进展缓慢,于是指示美国科学院对现状进行总结。经过两年的研究,1966年11月,ALPAC发布了《语言与机器》报告,称机器翻译比人工翻译更慢、更不准确、更昂贵(估计比人工翻译贵一倍)。结论是机器翻译在可预见的未来不会实用,应该立即停止对机器翻译的资助。

2.语言学的先知

乔姆斯基对于语言学和认知科学就像图灵对于计算机科学一样。没有这些“先知”,我们不知道还要在黑暗中摸索多久。

在哈佛,乔姆斯基发表了他的第一篇学术论文《句法分析系统》。根据乔姆斯基的句法分析,句子可以通过一系列规则来解析。一个句子可以解析成名词短语(NP)和动词短语(VP),可以再次解析。乔姆斯基认为所有的语言(人工的或自然的)都有相似的句法结构,并进一步指出语言的结构是内在的,而不是通过经验获得的。

乔姆斯基成名后,立即批判了邻校哈佛的行为心理学家伯尔赫斯·弗雷德里克·斯金纳。从某种意义上说,行为主义是极端经验主义。所有的黑箱理论,无论是神经网络还是统计学,在乔姆斯基眼里都属于行为主义。乔姆斯基认为理论应该先于事实,这显然与“实践是检验真理的唯一标准”的说法背道而驰。

在乔姆斯基之前,语言学也试图把自己当成一门科学,但那只是一种人为的分类,就像早期的生物学一样。直到乔姆斯基的句法理论,语言学才有了坚实的基础,就像生物学有了化学和分子生物学的理论和工具一样。

3.两个机器人的第一次聊天

1960年,韦森鲍姆获得数学硕士学位,随后进入该行业。他参加了斯坦福研究所(SRI)和美洲银行开发的第一个计算机银行系统ERMA,然后加入麻省理工学院担任客座副教授,4年后获得终身职位。他最突出的成就是对话节目《伊莱扎》。现在对话节目有了一个更通俗生动的词“聊天机器人”(chatbot或chatterbot),但它的根源都在伊莱扎。

伊莱扎出来几年后,它被放在麻省理工学院的人工智能实验室,向公众开放。许多访问学者和记者不得不尝试与伊莱扎一起上课。事实上,ELIZA是一个超级简单的程序,任何一个严肃的计算机科学家都不认为这个东西有任何智力上的难度。就是在按词频排序的词库中查找匹配的词,如果找到了,就在脚本库中选择合适的回复。但这么简单的一件事,居然让很多人困惑。

从20世纪50年代末到60年代,斯坦福大学发展迅速,一批有才华的人加入进来,包括在医学院教授“精神分析”的肯尼斯·科尔比(Kenneth Colby)。他的兴趣是将弗洛伊德的理论与当代物理学、认知科学和科学哲学联系起来。费根鲍姆把科尔比介绍给了当时正在斯坦福大学访问的韦森鲍姆。科尔比的兴趣正好与韦森鲍姆相反:如何构造一个会聊天的病人,一方面可以训练心理医生,另一方面可以理解病人的症状。他的成就是1972年的计算机程序帕里。

在1972年的国际计算机通信会议(ICCC)上,来自波士顿郊区BBN公司的医生伊莱扎和来自斯坦福大学人工智能实验室的病人帕里通过互联网的前身阿帕网进行了一次聊天。所有的对话记录现在都保存在硅谷的计算机历史博物馆里。

分别从伊莱扎和帕里的表现来看,目前的萧冰等聊天机器人并没有太大的进步,但是知识库的增加使得目前的聊天机器人更加实用。

4.积木世界中的人机对话

特里·维诺格拉德(Terry Winograd)本科就读于科罗拉多学院(一所文科学院),主修数学。1967年,他来到麻省理工学院,他的老师是明斯基和帕佩特。当时,元胞自动机和机器人是人工智能实验室的两个热门方向。明斯基的机器手像龙虾的爪子,“手眼协调”和儿童故事理解是他感兴趣的课题,这些都与语言有关。

诺格拉德在准备博士论文题目时,为了了解儿童世界,借了几本儿童百科全书来研究。后来他发现这是一条错误的路线,孩子的知识面还是太深,需要更简单的语言世界。这个更简单的世界就是后来所谓的“积木世界”。诺格拉德将他的系统命名为SHRDLU,读作“谢德路”。

SHRDLU远比ELIZA复杂,其学术意义更为深远。SHRDLU当时集成了很多AI技术,除了自然语言理解,还包括Planning和知识表示。这甚至是计算机图形学最早的应用。SHRLU的潜在应用范围远比ELIZA广泛,我们很容易想到如何将SHRLU扩展到不同的领域,比如计算可行的旅游路线。

诺格拉德不喜欢他的路线。他对人工智能的批判有点像他在计算机系的非人工智能专业同事。他不挑毛病,反而看不起它。他自己的研究方向也逐渐转向人机交互。他的两个学生谢尔盖·布林和拉里·佩奇创立了谷歌。

5.统计学家又被杀了,语言学家又被排斥了。

整个80年代,对自然语言处理的研究都很缺乏。在1988年的计算语言学大会上,IBM TJ Watson研究中心的机器翻译组发表了关于统计机器翻译的论文,并推出了法语/英语翻译系统CANDIDE,这标志着在大数据的支持下,统计学派的回归。

两年后,同一个小组在《计算语言学》上发表了一篇论文,对他们的工作做了更理论化的总结。他们的文集是加拿大议会的会议记录。这两篇划时代的文章虽然篇幅不长,但作者却多达八人,弗雷德里克·耶利内克就是这个群体的核心。Jarinik的学术训练是信息论,统计学是他们学校最自然的工具。他的金句是:“我每解雇一个语言学家,我的语音识别系统的性能就提高一点。”火药味十足。

CANDIDE虽然有所突破,但与传统方法相比,性能优势并不明显。2004年,曾在南加州大学信息科学研究所(ISI)做了两年博士后的德国人弗朗茨·约瑟夫·奥奇(Franz Josef Och)加入谷歌。他在亚琛工业大学的博士论文是用大量平行语料库构建语言模型和翻译模型。谷歌的海量数据让Oher很安心。谷歌翻译很快成为业界标杆,在NIST组织的机器翻译测试中一直名列前茅。

统计学的另一个优势是,工程师可以在没有语言学知识或源语言或目标语言知识的情况下从事机器翻译。Oher认为语言学知识对于翻译来说毫无用处,有时还会适得其反。

6.神经翻译是终极手段吗?

2016年,谷歌发布了谷歌神经机器翻译(GNMT)系统,再次大幅提升了机器翻译水平。谷歌使用递归神经网络RNN来学习序列到序列,硬件设备是谷歌自己的TensorFlow平台。与Google早期基于短语的翻译系统相比,神经翻译的错误减少了60%,这是翻译质量的巨大提升。

2017年,脸书进一步提高了翻译效率。他们使用自己的卷积神经网络CNN从一个序列到另一个序列进行学习。脸书声称,英德和英法翻译的基准测试表明,他们的结果与谷歌的结果一样准确,但计算速度可以比谷歌的RNN高一个数量级。

乔姆斯基可能会问,这种翻译可以理解吗?可能翻译根本不是理解的问题。翻译本身不需要解释。翻译只是翻译。翻译只是数据的问题,不是语义的问题。没有乔姆斯基,我们还是要在黑暗中摸索,但有了乔姆斯基,是不是又一次约束了探索其他方法的可能性?

7.问答系统和IBM Watson

语义问题大致可以分为两类,一类是人与世界的交互,诺格拉德的积木世界就属于这一类。人与人之间还有一种交流。韦森鲍姆的伊莱扎就属于这种,但是现在的问答系统比积木世界和伊莱扎复杂多了。

现在的问答系统靠的是常识和知识,还有浅层推理。知识图谱是核心。当知识图谱足够大的时候,它的答题能力会很惊人。2011年,IBM的沃森上了美国电视智力竞赛节目Jeopardy!在《危险边缘》中击败人类玩家,获得百万奖金。

8.争论仍在继续。

在谷歌和脸书在机器翻译方面取得巨大进展之前,语音输入是最先取得突破的。2011年,微软李征团队在语音识别方面的成功是深度学习的标志性事件之一。

随着各种神经网络技术的应用,机器翻译水平迅速提高。预言家库兹韦尔说,2029年,机器翻译将达到人类的水平。但即使解决了自然语言翻译的问题,机器能算是“理解”吗?也许我们根本不需要讨论“中国房子”的问题。当机器翻译问题解决后,“中国房子”问题就会自动变成伪问题。

2011年5月,麻省理工学院举办了“大脑、思维和机器研讨会”研讨会,以庆祝该校150周年校庆。邀请了学校的几位领导,还有乔姆斯基、明斯基、温斯顿等。所有人都参加了由语言学家史蒂夫·平克主持的研讨会。乔姆斯基批评了当前流行的神经网络和统计方法。乔姆斯基认为神经网络是一个黑箱,它不为我们提供解释,所以它不为我们提供知识。麻省理工学院主办的《技术评论》杂志为这次研讨会专门发表了一篇文章,题目是《不会思考的机器》,故意挑衅。时任谷歌R&D总监的彼得·诺维格(Peter Norvig)迅速回应了乔姆斯基,批评语言学规则在自然语言处理中毫无用处。有人开始用“两种文化”来概括乔姆斯基空与诺列加的争吵。

以乔姆斯基和诺维茨基为代表的两种人关注的是两个不同的问题。一种人力图打造实用工具,不用解释也能凑合。他们是不要求很多解决方案的工程师;另一种人寻求终极知识。他们是科学家。然而,在计算机科学这一特定学科中,科学家和工程师的角色变化太快了。这个学科的许多先驱,如图灵和冯·诺依曼,都身兼两职。

本文来自读书笔记:人工智能简史——尼克

原创文章,作者:助运帮,如若转载,请注明出处:https://m.xuefunan.com/69932.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注