赞
踩
作者:禅与计算机程序设计艺术
在自然语言处理(NLP)中,通过利用预训练模型(pre-trained models)对文本进行特征提取(feature extraction),然后再将其作为输入,应用于其他任务上(如分类、命名实体识别等)。这种方法被称作迁移学习(transfer learning)。迁移学习在许多实际任务中都有效果。例如,在自然语言生成(natural language generation)领域,通过迁移学习,可以使得机器能够模仿人类的阅读习惯并生成独特的文本。而在情感分析(sentiment analysis)领域,通过迁移学习,可以帮助机器从普通的正面或负面评论中发现更深层次的模式。近年来,随着神经网络技术的不断进步,越来越多的模型采用迁移学习方法,取得了突破性的成果。本文就是基于最近火热的BERT(Bidirectional Encoder Representations from Transformers)模型来阐述迁移学习的原理及实践技巧。
机器学习的一个重要分支——深度学习(deep learning)已经成为主流。早期,计算机只能执行很少数量的任务,如识别图像中的物体,语音识别等。随着深度学习的发展,计算机开始具备了很多通用功能,如图像分类、目标检测、文字识别、语言理解等。由于这些通用功能往往由大量的知识和经验驱动,因此,当遇到新的任务时,需要训练一个全新的模型可能就比较困难了。一种解决这个问题的方法就是采用迁移学习。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。