linux下拆分文件产生大量的\0问题

直接上源码

#!/bin/bash
filename=$1
if [ -e $filename ] ; then
    yesterday=`date -d yesterday +%Y%m%d`

    cp $filename $filename.$yesterday
    now=`date '+%Y-%m-%d%H:%M:%S'`
    echo "========split log at $now========" > $filename
    echo "========split log $filename to $filename.$yesterday  at $now========"
else
    echo "$filename not exist."
fi

脚本中运行这行代码echo "========split log at $now========" > $filename后,$filename中确实被重写,但是重写之后的文件中多了N多字节的\0,大概有十几K字节。
图片描述

阅读 4.7k
1 个回答

经过沟通,题主的问题出在重定向文件的打开方式上面。

nohup cmd > log.file

如果使用 > 进行重定向,nohup 会以 w+ 方式打开文件,这种方式写文件会记录文件当前偏移量,外部脚本 truncate log.filenohup 还会继续往当前记录的文件偏移量写内容,导致前面很大一段被跳过,跳过部分被自动填充 \0

如果想要 truncate 正常工作,命令应该使用 >> 进行重定向,也就是以 a 方式打开并写入文件,这样就没有任何问题了。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题