当前位置:   article > 正文

Spark修炼之道(基础篇)——Linux大数据开发基础:第十五节:基础正则表达式(一)_在spark内,可以使用正则表达式对syslog进行拆分成结构化字段,以下是示例代码:

在spark内,可以使用正则表达式对syslog进行拆分成结构化字段,以下是示例代码:

参考书目:鸟哥的LINUX私房菜基础学习篇(第三版)
Linux Shell Scripting Cookbook

本节主要内容

  1. 基础正则表达式

1. 基础正则表达式

(1)^行开始符

^匹配一行的开始,例如’^Spark’ 匹配所有Spark开始的行

//grep -n表示查找到的结果显示行号
root@sparkslave02:~/ShellLearning# grep -n '^Spark' /hadoopLearning/spark-1.5.0-bin-hadoop2.4/README.md 
3:Spark is a fast and general cluster computing system for Big Data. It provides
22:Spark is built using [Apache Maven](http://maven.apache.org/).
53:Spark also comes with several sample programs in the `examples` directory.
83:Spark uses the Hadoop core library to talk to HDFS and other Hadoop-supported
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

这里写图片描述

(2)$行结束符

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/640197
推荐阅读
相关标签
  

闽ICP备14008679号