安装指导

安装Scrapy

Scrapy在Python 2.7和Python 3.3或更高版本上运行。

如果您使用的是Anaconda或Miniconda,则可以从conda-forge通道安装软件包,该通道具有适用于Linux,Windows和OS X的最新软件包。

要安装Scrapy使用conda,运行:

conda install -c conda-forge scrapy

或者,如果您已经熟悉安装Python软件包,您可以从PyPI安装Scrapy及其依赖关系:

pip install scrapy

请注意,有时这可能需要根据您的操作系统解决某些Scrapy依赖关系的编译问题,因此请务必查看Platform特定的安装说明。

我们强烈建议您在专用的virtualenv中安装Scrapy,以避免与系统包冲突。

有关更详细的和平台细节的说明,请继续阅读。

很好知道的事情

Scrapy是用纯Python编写的,并且取决于几个关键的Python包(其中包括):

lxml,一个高效的XML和HTML解析器

parsel,一个写在lxml之上的HTML / XML数据提取库,

w3lib,一个用于处理URL和网页编码的多功能助手

扭曲,异步网络框架

加密和pyOpenSSL,以处理各种网络级的安全需求

Scrapy测试的最小版本是:

扭转14.0

lxml 3.4

pyOpenSSL 0.14

Scrapy可能与旧版本的这些软件包兼容,但不能保证它将继续工作,因为它们没有被测试。

其中一些软件包本身取决于非Python软件包,这可能需要额外的安装步骤,具体取决于您的平台。请查看下面的平台指南。

如果与这些依赖关系有任何问题,请参考各自的安装说明:

lxml安装

加密安装

使用虚拟环境(推荐)

TL; DR:我们建议在所有平台的虚拟环境中安装Scrapy。

Python包可以全局安装(a.k.a系统范围)或用户空间。我们不建议安装刮刀系统。

相反,我们建议您在所谓的“虚拟环境”(virtualenv)中安装scrapy。 Virtualenvs允许您不与已安装的Python系统软件包冲突(这可能会破坏您的一些系统工具和脚本),并且仍然通过pip安装软件包(没有sudo等)。

要开始使用虚拟环境,请参阅virtualenv安装说明。要在全球安装(全球安装实际上在这里有帮助),它应该是一个运行的问题:

$ [sudo] pip install virtualenv

查看本用户指南,了解如何创建virtualenv。

注意

如果您使用Linux或OS X,则virtualenvwrapper是创建virtualenvs的便利工具。

一旦创建了一个virtualenv,就可以像其他Python软件包一样使用pip来安装scrapy。 (有关可能需要事先安装的非Python依赖关系,请参阅下面的针对平台的指南)。

默认情况下,可以创建Python virtualenvs以使用Python 2,或者默认使用Python 3。

如果要使用Python 3安装scrapy,请在Python 3 virtualenv中安装scrapy。

如果要使用Python 2安装scrapy,请在Python 2 virtualenv中安装scrapy。

平台具体安装说明

视窗

虽然可以使用pip在Windows上安装Scrapy,但我们建议您安装Anaconda或Miniconda,并使用conda-forge通道中的软件包,以避免大多数安装问题。

安装Anaconda或Miniconda后,安装Scrapy with:

conda安装-c conda-forge scrapy

Ubuntu 12.04或以上

Scrapy目前正在使用最新版本的lxml,twisted和pyOpenSSL进行测试,并且与最近的Ubuntu发行版兼容。但它也应该支持较早版本的Ubuntu,如Ubuntu 12.04,尽管TLS连接存在潜在问题。

不要使用Ubuntu提供的python-scrapy软件包,它们通常太老且缓慢,无法赶上最新的Scrapy。

要在Ubuntu(或Ubuntu)系统上安装scrapy,您需要安装这些依赖项:

sudo apt-get install python-dev python-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev

python-dev,zlib1g-dev,libxml2-dev和libxslt1-dev是lxml所必需的

libssl-dev和libffi-dev是加密需要的

如果你想在Python 3上安装scrapy,你还需要Python 3开发头:

sudo apt-get install python3 python3-dev

在一个virtualenv里面,你可以在之后安装Scrapy:

点安装刮

注意

在Debian Wheezy(7.0)及更高版本中,可以使用相同的非python依赖来安装Scrapy。

Mac OS X

构建Scrapy的依赖项需要存在C编译器和开发头。在OS X上,这通常由Apple的Xcode开发工具提供。要安装Xcode命令行工具打开终端窗口并运行:

xcode-select --install

有一个已知的问题,阻止pip更新系统包。必须解决这个问题,才能成功安装Scrapy及其依赖。以下是一些提出的解决方案:

(推荐)不要使用系统python,安装不与系统其余部分冲突的新的更新版本。以下是使用自制软件包管理器进行操作的方法:

按照http://brew.sh/中的说明安装自制软件

更新您的PATH变量以声明在系统软件包之前应使用自制软件包(如果您使用zsh作为默认shell,则将.bashrc更改为.zshrc)。

echo“export PATH = / usr / local / bin:/ usr / local / sbin:$ PATH”>>〜/ .bashrc

重新加载.bashrc以确保发生更改:

源〜/ .bashrc

安装python:

brew安装python

最新版本的python与它们捆绑在一起,因此您不需要单独安装它们。如果不是这样,升级python:

酿造更新酿造升级python

(可选)在孤立的python环境中安装Scrapy。

此方法是上述OS X问题的解决方法,但它是管理依赖关系的整体良好做法,可以补充第一种方法。

virtualenv是可以用来在python中创建虚拟环境的工具。我们建议您阅读一个教程,如http://docs.python-guide.org/en/latest/dev/virtualenvs/开始使用。

任何这些解决方法后,您应该能够安装Scrapy:

pip install scrapy

results matching ""

    No results matching ""