您好,登录后才能下订单哦!
这期内容当中小编将会给大家带来有关服务器的日志输出怎么利用paramiko进行实时获取,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。
def get_report_info_perid(self, cmd, diff_time, thre_time): # 发送要执行的命令 pre_time_stamp = [0] * 4 self._channel.send(cmd + '\r') # 回显很长的命令可能执行较久,通过循环分批次取回回显 time_stamp_arr = [] index = [0] * 4 current_line = b'' line_counter = 0 line_feed_byte = '\n'.encode(self.encoding) while True: buffer = self._channel.recv(1) if len(buffer) == 0: logger.info('end______________') break current_line += buffer if buffer == line_feed_byte: line = current_line.decode(self.encoding) logger.debug('shell显示:%s'%line) if not line.startswith(self.rq): line_counter += 1 current_line = b'' continue col = self.check_type(line) time_stamp = int(time.mktime(time.strptime(' '.join([line[:8], line[9:17]]), "%Y%m%d %H:%M:%S"))) time_stamp_dec = line[18: 21] # 精确到毫秒 time_stamp = time_stamp * 1000 + int(time_stamp_dec) logger.info('%s:%s' % (senior_name[col], time_stamp)) self.write_xl(index[col] + 1, col, time_stamp) index[col] += 1 if pre_time_stamp[col] == 0: pre_time_stamp[col] = time_stamp else: if abs((time_stamp - pre_time_stamp[col]) - diff_time[col]) > thre_time[col]: logger.error( '两帧数据间隔为{}ms,时间戳分别为:({},{}),行号:{}'.format(time_stamp - pre_time_stamp[col], time_stamp, pre_time_stamp[col], index[col])) pre_time_stamp[col] = time_stamp line_counter += 1 current_line = b'' def get_temp_info(self, col, max_number): index = 0 cpu_arr, gpu_arr = [], [] while True: cpu_temp, gpu_temp = self.get_cpu_gpu_temp() logger.info('cpu_temp:%s, gpu_temp:%s' % (cpu_temp, gpu_temp)) cpu_arr.append(cpu_temp) gpu_arr.append(gpu_temp) self.write_xl(index + 1, col, cpu_temp) self.write_xl(index + 1, col + 1, cpu_temp) time.sleep(60) index += 1 if max_number == index: break return cpu_arr, gpu_arr
1.问题1
一开始的cmd命令为 tail -f log.txt | grep -aE “a|b”
结果出现一个问题,在代码运行几分钟之后,就获取不到数据了
一开始以为是paramiko的问题,会在一定时间之后自动关闭client,但是经过调试之后发现是阻塞在_channel.recv,一直收不到服务端的数据导致。
经过百度之后发现由于linux的缓冲机制影响导致tail -f 结合管道|的时候会输出延迟
缓冲是一种有效提高IO效率的方法,把频繁的读写请求积累到一定程度后再一次性的与IO设备交互操作。
IO缓冲有3种,无缓冲,行缓冲,和全缓冲。
在终端窗口中执行tail命令,是面向终端设备的,会使用行缓冲,所以日志中每写入一行,立刻就会输出。
当使用管道时,会变为使用全缓冲,这样一来,就要等到日志中写入的字节数填满buffer后才会输出。
解决方法:
把tail的标准输出重定向到标准错误上,并把标准错误也给管道。
因为stderr是无缓冲的。
例如 tail -f >&2 | grep
或者直接去掉管道
2.问题2
按照问题一的结论,我去掉了命令中的管道,直接使用 tail -f log.txt命令,将过滤放到check_type函数中进行,发现运行几分钟之后获取不到数据的情况并没有解决。于是继续定位。最后经过一番挫折之后发现是使用的tail -f命令有问题
tail -f
等同于–follow=descriptor,根据文件描述符进行追踪,当文件改名或被删除,追踪停止
tail -F
等同于–follow=name --retry,根据文件名进行追踪,并保持重试,即该文件被删除或改名后,如果再次创建相同的文件名,会继续追踪
log.txt文件在程序运行过程中被修改了文件描述符从而导致tail -f不继续跟踪。修改为tail -F后问题解决
上述就是小编为大家分享的服务器的日志输出怎么利用paramiko进行实时获取了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。