在 AICon 北京 2019 大会上,苏海波讲师做了《深度迁移学习在 NLP 中的应用及实践》主题演讲,主要内容如下。
演讲简介:
预训练模型 BERT 基于深度迁移学习的思想,目前已经成为业界 NLP 领域的主流技术。百分点科技在各种 NLP 任务中也广泛使用 BERT 技术,并进行持续的优化和改进,包括采用 Google TPU 解决算力的瓶颈、采用 BERT 和上层神经网络进行联合参数调优、采用 BERT 的各种扩展模型和数据增强进行效果提升等等。另外,我们在 NLP 方面有多年的技术和业务实践经验,服务了几百家企业级客户,并且成功采用深度迁移学习技术解决各个行业客户的 NLP 实际业务问题。本讲座将分享深度迁移学习模型在各种 NLP 任务中(包括智能问答、智能校对、情感分析等)的应用实践,具体内容包括模型的技术原理、Google TPU 的使用经验、模型的参数调优和数据增强等优化技巧,同时展示对应的使用场景、业务案例和应用价值。
提纲:
1)NLP 中的深度迁移学习模型原理
2)Google TPU 的实际使用经验
3)模型的参数调优、数据增强等优化实践
4)各种模型的效果对比
5)多个行业客户的使用场景及案例
听众受益点:
听众将会了解深度迁移学习在各种 NLP 业务场景中的应用和实践经验,包括如何采用 Google TPU 解决算力的瓶颈、如何采用 BERT 和上层神经网络进行联合参数调优、如何进行数据增强等技术,同时,听众还可以了解多个行业(包括媒体出版、公检法、快消零售等)客户的 NLP 实际使用场景和业务案例。
前言亮点:
1、预训练模型的各种优化和实际使用经验;
2、Google TPU 的实际使用经验;
3、数据增强的实践经验。
听懂我的演讲,需要具备这些知识储备:
1、自然语言处理的技术基础
2、深度学习的技术基础
讲师介绍:
苏海波,百分点首席算法科学家。
苏海波,清华大学电子工程系博士,百分点集团首席算法科学家,擅长人工智能领域的自然语言理解、动态知识图谱、深度学习、个性化推荐以及计算广告学技术;多篇论文发表于 GLOBECOM、ICC、IEICE Transactions 等国外顶尖学术会议和期刊;曾就职于新浪微博,负责广告系统的算法效果优化,以及信息流产品整体算法策略的设计及研发;现负责百分点自然语言处理、知识图谱以及智能问答等认知智能方面的算法研发,带领团队成功开发了智能问答、智能校对、智能翻译、AI 李白等多款 NLP 应用产品,并在多个行业的客户中成功落地使用。
完整演讲 PPT 下载链接:
https://aicon.infoq.cn/2019/beijing/schedule
评论