赞
踩
不直接参与科研的人都觉得科研是一种充满了新idea和思想碰撞的活动。可是那只是整个科研过程中的一小部分。相信所有已经做过科研的人,不管你在哪一个科研领域,在你的成果足够写成论文之前都避免不了进行大量的重复性机械性的工作。这些看上去并没有技术含量的工作有相当一部分便是数据处理了。做大热点的方向,随便做点东西就能发很好文章的人毕竟是少数。大部分科研人员,尤其是刚入门的新手,都需要做系统重复的实验,和处理大量的数据来提高工作的可靠性和质量。在这些过程中,高效处理自己的科研数据往往会有意想不到的效果。
而利用的简单的代码和编程来自动化数据处理则往往会意想不到的节约大量数据处理的时间。写代码处理数据的本质就是把模式化的过程自动化。对于编程不熟悉的同学可能初期要花费一些时间写出相应代码,可是这些短期的时间投入是绝对值得的。举个简单的例子,假设你有3000条数据存在一个文本文件里,每一行代表了某一个时间的一次实验以及结果,而你现在需要把其中的包含特定结果的500条给找出来,然后做一些数学运算。如果你仅仅依靠手动复制黏贴处理这类问题,轻轻松松几个小时就过去了。假设你的科研工作经常需要处理这样的数据,可能你会有无数个烦躁的下午在做最最机械的工作,而且还可能会出错。可是如果你懂一些脚本语言,比如linux下的grep,
awk, sed,做这个工作可能只需要一行代码。
假设你现在手上有一个excel表格里面是自己的仪器输出的实验数据,你突然需要把每个子表中的特定的行列提取出来做一些计算排序然后最后作图。正常的做法就是进入每个字表手动复制黏贴,然后处理,最后用excel或者导出到origin之类的软件作图。可是只要你会任意一种编程语言,这个也就是几句代码的事。相信每一个做科研的人都学过基
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。