赞
踩
博主作为一名大模型开发算法工程师,很希望能够将所学到的以及实践中感悟到的内容梳理成为书籍。作为先导,以专栏的形式先整理内容,后续进行不断更新完善。希望能够构建起从理论到实践的全流程体系。 助力更多的人了解大模型,接触大模型,一起感受AI的魅力!
在计算机科学与语言学相互交织的早春时期,语言模型的概念首次在20世纪50年代的信息论与概率论交融之际破土而出。这一时期的理论奠基者,如克劳德·香农(Claude Shannon)与诺伯特·维纳(Norbert Wiener)等科学家,通过探究信息传递的本质,为语言模型的诞生播下了种子。他们认识到语言是一种有序的信息序列,而统计学方法可以用来量化语言内在的规律性。
最初的语言模型形态,即统计语言模型,集中体现于N-gram模型的发展。N-gram模型源自马尔可夫假设,这一假设简化了语言生成的复杂性,认为一个词语出现的概率仅取决于其前面有限个词语的状态。一阶至高阶的N-gram模型即是遵循这一思想,以一阶(unigram)、二阶(bigram)、三阶(trigram)乃至更高阶的形式构建起来。这些模型建立在Markov链理论上,通过对大规模文本数据进行细致的统计分析,精确估计词语间的条件概率分布,从而为自然语言处理任务如自动编码、机器翻译、语音识别、文本摘要以及信息检索等提供关键的底层支持。
随着60年代的到来,计算机硬件技术的飞跃式进步使得更大规模的数据处理和计算成为可能,同时也带动了语言数据资源的急剧积
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。