Salut

Suite a la video que j'ai partagé avec Vous récemment  traitant
les problèmes de Large Data /Big Data . J'ai pense écrire un
Tutoriel [1], dont le seul But est de vérifier les performances de
recherche de données lorsque la taille devient critique . Dans des
contextes très différents les gens font face aux mêmes problématiques
d’accès aux données dans des délais raisonnables


ElasticSearch [2] , peut être un début de solution a ce problématique . J'ai
également consulté des vidéos écris par des Français , et qui m'ont
donnée l'idée  de tester un volume important d'information
en Indexant tout simplement Wikipedia !


Ce Tutoriel est écrit dans un environnement Debian Weezy , Il se pourrait
donc  que vous soyez amené a modifier le script ./make.sh  [3] pour
l'installer dans votre environnement , mais cela ne devrait pas être
difficile

La plus part du code est inspiré dans HaysTack [4] ,
une Librairie Python -Django  pour interfacer ElastictSearch .

Pour la riviere Wikipedia , il est déjà installé par ./make  [3] , mais
pour la
documentation , il faut voir ici  [4]

[1] - https://github.com/Dakarlug/haystack_tutorial

[2] - http://www.elasticsearch.org/

[3] -
https://github.com/Dakarlug/haystack_tutorial/blob/master/haystack_app/make.sh

[4] - http://haystacksearch.org/

[5] - https://github.com/elasticsearch/elasticsearch-river-wikipedia

--Ad
--
Ce message a été envoyé à la liste [email protected]
Gestion de votre abonnement : http://dakarlug.org/liste
Archives : http://news.gmane.org/gmane.org.user-groups.linux.dakarlug
Le site du DakarLUG : http://dakarlug.org

Répondre à