
让AI模仿人类的学习方式,结果会怎样?
据介绍,参与竞赛的6项自研AI技术均采用模仿人类的学习模式,全方位提升了机器的语言理解能力,部分能力甚至已超越人类。目前,这些技术均已大规模应用于阅读理解、机器翻译、人机交互等场景。
8月26日,阿里达摩院语言技术实验室取得一系列突破,斩获自然语言处理(NLP)领域6大权威技术榜单。
据悉,过去几年,AI在图像识别、语音识别等方面已逐步超越人类水平,但在复杂文本语义的理解上,AI与人类尚有差距,其主要原因就是传统AI学习文本知识效率较低。
为此,业界提出了一种模仿人类的学习思路,即先让AI在大规模的网页和书籍文字中进行训练,学习基本的词法、语法和语义知识,然后再在固定领域内的文本上进行训练,学习领域专有知识。
这一思想就是预训练语言模型的核心创新。自Google提出模仿人类注意力机制的BERT模型以来,预训练语言模型已成为NLP领域的热点研究方向。
如今已建立一套系统化的深度语言模型体系,其自研通用语言模型StructBERT、多语言模型VECO、多模态语言模型StructVBERT、生成式语言模型PALM等6大自研模型分别刷新了世界纪录。
达摩院早在2018年就开始布局通用的预训练语言模型,并逐渐将该思路拓展到了多语言、多模态、结构化和篇章文本理解和文本生成领域,
达摩院自研模型位居GLUE榜单第一名
该模型以平均分90.6分在自然语言处理领域权威数据集GLUE Benchmark中位居第一,显著超越人类水平(87.1分)。
其中,StructBERT能让机器更好地掌握人类语法,使机器在面对语序错乱或不符合语法习惯的词句时,仍能准确理解并给出正确的表达和回应,大大提高机器对词语、句子以及语言整体的理解力。
实验室的目标是让AI掌握人类知识的基础技术,预训练语言模型的诞生使得AI像人一样学习新知识成为可能,未来达摩院会全面对外开放这些技术,让特定领域的AI变得更加智能。”
达摩院语言技术实验室团队表示:“
过去两年,阿里获得了30多项NLP领域赛事世界,有100多篇相关顶会论文; 阿里自然语言技术已在金融、新零售、通讯、互联网、医疗、电力、客服等领域服务超十亿用户和数万企业客户。

免责声明:本文仅代表作者个人观点,与每日科技网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
本网站有部分内容均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,若因作品内容、知识产权、版权和其他问题,请及时提供相关证明等材料并与我们联系,本网站将在规定时间内给予删除等相关处理.
今日热点
精彩推荐
-
-
采购拿回扣问题,教你一个小妙招,看看怎么做!
2017-09-18 11:09 广告 阅读
-
-
苦逼的老板,教你一个小妙招,怎么防采购拿回扣!
2017-09-18 11:09 广告 阅读
-
-
传播易上线视频制作频道
2020-11-18 14:03:07 更新 阅读
-
-
《SNK VS. CAPCOM SVC CHAOS》登陆Steam,格斗界
2024-07-22 17:06:38 更新 阅读
-
-
《使命召唤:黑色行动6》预告发布,海湾战争成焦
2024-05-24 17:50:37 更新 阅读
-
-
哈苏发布全新907X & CFV 100C数码中画幅相机,零
2024-01-25 09:40:53 更新 阅读
-
-
首届“群体协同与自主”创新发展论坛在京举行
2024-01-19 11:17:46 更新 阅读
-
-
华硕ROG幻14 2024款笔记本电脑:创新与性能的完
2024-01-04 15:08:31 更新 阅读
-
-
中国移动咪咕举办2024创新合作伙伴大会
2023-12-29 13:59:12 更新 阅读

