您好,登录后才能下订单哦!
密码登录
登录注册
点击 登录注册 即表示同意《亿速云用户服务条款》
这篇文章主要介绍python怎么实现linux下抓包并存库功能,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
最近项目需要抓包功能,并且抓包后要对数据包进行存库并分析。抓包想使用tcpdump来完成,但是tcpdump抓包之后只能保存为文件,我需要将其保存到数据库。想来想去shell脚本似乎不太好实现,于是用了比较热门的python来实现。不得不说,python丰富的第三方库确实是很强大,下面是具体的功能代码。
from apscheduler.scheduler import Scheduler import os import sys import time import MySQLdb import ConfigParser import Logger def main(): logger = Logger.Logger(logname='flowstat.log', loglevel=1, logger='flowstat').getlog() try: cf = ConfigParser.ConfigParser() cf.read('./flowstat.conf') filterNet1 = cf.get('packet', 'filterNet1') filterNet2 = cf.get('packet', 'filterNet2') packetFile = cf.get('packet', 'packetFile') db_host = cf.get('db', 'host') db_user = cf.get('db', 'user') db_passwd = cf.get('db', 'passwd') db_dbname = cf.get('db', 'dbname') conn = MySQLdb.connect(host=db_host, user=db_user, passwd=db_passwd, db=db_dbname, port=3306) os.system('nohup ./capturePacket.sh ' + filterNet1 + ' ' + filterNet2 + ' ' + packetFile + ' &') except Exception, e: logger.error(e) sys.exit(1) sched = Scheduler(daemonic = False) @sched.cron_schedule(day_of_week='0-4', hour='*', minute='0-59', second='*/60') def packagestat_job(): logger.debug('stat package' + ' ' + time.strftime("%Y-%m-%d %H:%M:%S")) try: fos = open(packetFile, 'r+') lines = fos.readlines() values = [] for line in lines: arr = line.split(',') if len(arr) > 4: values.append((arr[0].strip(), arr[2].strip(), arr[3].strip(), arr[4].strip())) if len(values) > 0: cur = conn.cursor() cur.executemany('insert into tbpk_packet(TimesMacs, LengthIps, Seq, Ack) values(%s,%s,%s,%s)', values) conn.commit() cur.close() fos.truncate(0) fos.close() except Exception, e3: Logger.error(e3) sched.start() while 1: time.sleep(60) conn.close() if __name__ == '__main__': main() shell脚本 #!/bin/sh tcpdump -i eth0 -l >> *.txt
以上是“python怎么实现linux下抓包并存库功能”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。