在Ubuntu上部署Python爬虫可以按照以下步骤进行:
安装Python和pip:
sudo apt update
sudo apt install python3 python3-pip
安装虚拟环境(推荐):
python3 -m venv myenv
source myenv/bin/activate
安装爬虫库:
pip install requests beautifulsoup4 lxml
安装Selenium(如果使用):
pip install selenium
并且需要下载并安装与Chrome浏览器版本匹配的chromedriver
。
创建一个新的Python文件,例如my_spider.py
,并编写基本的爬虫脚本。以下是一个简单的示例,用于抓取网页标题和所有链接:
import requests
from bs4 import BeautifulSoup
url = 'http://example.com'
response = requests.get(url)
if response.status_code == 200:
soup = BeautifulSoup(response.text, 'html.parser')
print(soup.title.string) # 打印网页标题
for link in soup.find_all('a'):
print(link.get('href')) # 打印所有链接
else:
print('网页加载失败')
在终端中,激活虚拟环境(如果有)并运行爬虫脚本:
source myenv/bin/activate
python my_spider.py
根据你的需求,可以选择不同的部署方式:
如果你需要更复杂的爬虫解决方案,可以考虑使用Scrapy框架:
安装Scrapy:
pip install scrapy
创建Scrapy项目:
scrapy startproject myproject
cd myproject
运行Scrapy爬虫:
scrapy crawl myspider
```。
你可以将爬虫代码和依赖库打包成Docker容器,方便部署和扩展:
FROM python:3.7-slim
RUN apt-get update && apt-get install -y \
python3-pip \
python3-dev \
libxml2-dev \
libxslt1-dev
COPY . /app
WORKDIR /app
RUN pip install -r requirements.txt
CMD ["python", "app.py"]
然后构建和运行Docker容器:
docker build -t my-python-spider .
docker run -d my-python-spider
```。
以上步骤涵盖了在Ubuntu上配置和部署Python爬虫的基本流程。根据具体需求,可能还需要进行进一步的优化和配置,例如设置代理、处理反爬虫机制、数据存储等。