xml-parsing – 从Wikipedia XML转储中获取静态HTML文件

我希望能够从 WikiMedia dump page下载的巨大的(甚至是压缩的)英文维基百科XML转储文件 enwiki-latest-pages-articles.xml.bz2中获取相对最新的静态HTML文件.虽然文档似乎有相当多的工具可用在他们身上相当不足,所以我不知道他们大多数人做了什么,或者他们是否与最新的转储最新. (我非常擅长构建可以抓取相对较小的HTML页面/文件的网页抓取工具,虽然我对SQL和XML很糟糕,而且至少在一年之内,我不希望它们非常好.)我希望能够从脱机转储中获取HTML文件,而无需在线访问Wikipedia.

有没有人知道从最近的Wikipedia XML转储中获取静态HTML文件的好工具?

首先, import the data.然后使用 DumpHTML创建HTML文件.虽然理论上很简单,但由于涉及的数据量和DumpHTML有点被忽略,这个过程在实践中可能很复杂,因此请不要犹豫 ask for help.
相关文章
相关标签/搜索