It depends on what you want, but the wikipedia data dumps can be found here

http://en.wikipedia.org/wiki/Wikipedia:Database_download

On 19/06/12 17:03, Elshaimaa Ali wrote:
I only have the source text on a mysql database
Do you know where I can download it in xml and is it possible to split the 
documents into content and title
thanksshaimaa
From: luc...@mikemccandless.com
Date: Tue, 19 Jun 2012 19:48:24 -0400
Subject: Re: Wikipedia Index
To: java-user@lucene.apache.org

I have the index locally ... but it's really impractical to send it
especially if you already have the source text locally.

Maybe index directly from the source text instead of via a database?
Lucene's benchmark contrib/module has code to decode the XML into
documents...

Mike McCandless

http://blog.mikemccandless.com

On Tue, Jun 19, 2012 at 6:27 PM, Elshaimaa Ali
<elshaimaa....@hotmail.com>  wrote:
Thanks Mike for the prompt replyDo you have a fully indexed version of the 
wikipedia,  I mainly need two fields for each document the indexed content of 
the wikipedia articles  and the title.if there is any place where I can get the 
index, that will save me great time
regardsshaimaa

From: luc...@mikemccandless.com
Date: Tue, 19 Jun 2012 16:29:39 -0400
Subject: Re: Wikipedia Index
To: java-user@lucene.apache.org

Likely the bottleneck is pulling content from the database?  Maybe
test just that and see how long it takes?

24 hours is way too long to index all of Wikipedia.  For example, we
index Wikipedia every night for our trunk/4.0 performance tests, here:

     http://people.apache.org/~mikemccand/lucenebench/indexing.html

The export is a bit old now (01/15/2011) but it takes just under 6
minutes to fully index it.  This is on a fairly beefy machine (24
cores)... and trunk/4.0 has substantial concurrency improvements over
3.x.

You can also try the ideas here:

     http://wiki.apache.org/lucene-java/ImproveIndexingSpeed

Mike McCandless

http://blog.mikemccandless.com

On Tue, Jun 19, 2012 at 12:27 PM, Elshaimaa Ali
<elshaimaa....@hotmail.com>  wrote:
Hi everybody
I'm using Lucene3.6 to index Wikipedia documents which is over 3 million 
article, the data is on a mysql database and it is taking more than 24 hours so 
far.Do you know any tips that can speed up the indexing process
here is mycode:
public static void main(String[] args) { á á á á á á String indexPath = 
INDEXPATH; á á á á á IndexWriter writer = null; á á á DatabaseConfiguration 
dbConfig = new DatabaseConfiguration(); á á á á á dbConfig.setHost(host); á á á 
á dbConfig.setDatabase(data); á á á á á á dbConfig.setUser(user); á á á á 
dbConfig.setPassword(password); á á á á dbConfig.setLanguage(Language.english);
á á á á á á á á átry { á á á á á Directory dir = FSDirectory.open(new File(indexPath)); á á á á á á á á áAnalyzer analyzer = 
new StandardAnalyzer(Version.LUCENE_31); á á á áIndexWriterConfig iwc = new IndexWriterConfig(Version.LUCENE_31, analyzer); á 
á á á á á iwc.setOpenMode(OpenMode.CREATE); á á á writer = new IndexWriter(dir, iwc); á á á á á á á á á á á á } á á á á á á á 
catch (IOException e) { á á á á á á á á á á System.out.println(" caught a " + e.getClass() + á á á á á á á á 
"\n with message: " + e.getMessage()); á á á á á á á } á á á á á á á á á á á á á á try { á á á á á á á á á á á á 
Wikipedia wiki = new Wikipedia(dbConfig); á á á á á á á á á á á á á á á Iterable<Page>  wikipages = wiki.getPages(); 
//get wikipedia articles from the database á á á á á á á á á á á á áIterator iter = wikipages.iterator(); á á á á á á á á á á 
á á á while(iter.hasNext()){ á á á á á á á á á á á á áPage p = (Page)iter.next(); á á á á á á á á á á á á á á 
System.out.println(p.getTitle().getPlainTitle()); á á á á á á á á á á á á á á á á á Document doc = new Document(); á á á á á 
á á á á á á á á á á á áField contentField = new Field("contents", p.getPlainText(), Field.Store.NO, 
Field.Index.ANALYZED); á á á á á á á á á á á á á á Field titleField = new Field("title", 
p.getTitle().getPlainTitle(),Field.Store.YES, Field.Index.NOT_ANALYZED ); á á á á á á á á á á á á á á á á 
doc.add(contentField); // wiki page text á á á á á á á á á á á á á á á ádoc.add(titleField); // wiki page title á á á á á á á 
á á á á á á á á á writer.addDocument(doc); á á á á á á á á á á á á á á} á á á á á á á á á á á } catch (Exception e) { á á á á 
á á á á á á á á e.printStackTrace(); á á á á á á á á á á} á á á á á á á á á á á á á á á á }

---------------------------------------------------------------------
To unsubscribe, e-mail: java-user-unsubscr...@lucene.apache.org
For additional commands, e-mail: java-user-h...@lucene.apache.org

---------------------------------------------------------------------
To unsubscribe, e-mail: java-user-unsubscr...@lucene.apache.org
For additional commands, e-mail: java-user-h...@lucene.apache.org

                                        



---------------------------------------------------------------------
To unsubscribe, e-mail: java-user-unsubscr...@lucene.apache.org
For additional commands, e-mail: java-user-h...@lucene.apache.org

Reply via email to