您好,登录后才能下订单哦!
这篇文章给大家分享的是有关python爬虫从网页上获取源码的示例的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。
直接上代码:
import requests s = requests.session() url = "http://www.baidu.com" data = s.get(url) with open("baidu.txt","w+",encoding='UTF-8') as f: f.write(data.content.decode("utf-8"))
import requests 把这个工具箱拿过来。 s = requests.session() 其中的一个工具取个短名,就叫s。 url = "http://www.baidu.com" 这是我们要测试的地址,主要http://不能省。用双引号包起来说明是个字符串。 data = s.get(url) s.get(url)就是让程序去访问网站,拿到源码了,拿到的源码命名为data。 with open("baidu.txt","w+",encoding='UTF-8') as f:
源码拿到了我们又看不见,很抽象,很难受,我当时是喜欢把它们写到文档里再研究;所以创建个baidu.txt(用完整的路径也行)的文档,w+模式打开,文件编码是UTF-8,告诉程序这个文件里面写的是中文,不是俄语。as f,让这个文件打开后代号为f,对f的操作就是对文件的操作。
f.write(data.content.decode("utf-8")) 对f执行write操作,写入的内容是获取的源码data中的content;
data是requests.Session.get返回的一整坨东西,是一个结构体,不是能写入文本文件的字符串,所以要用里面的content。.decode("utf-8") 意思是把鸟语翻译成格式为”utf-8”中文再写进去。
这些代码可以直接复制到Python Console回车就可以执行;会再py文件所在路径或者你自己设定的baidu.txt的路径生成一个baidu.txt的文件;打开就可以看到源码。
感谢各位的阅读!关于python爬虫从网页上获取源码的示例就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。