Salut Suite a la video que j'ai partagé avec Vous récemment traitant les problèmes de Large Data /Big Data . J'ai pense écrire un Tutoriel [1], dont le seul But est de vérifier les performances de recherche de données lorsque la taille devient critique . Dans des contextes très différents les gens font face aux mêmes problématiques d’accès aux données dans des délais raisonnables
ElasticSearch [2] , peut être un début de solution a ce problématique . J'ai également consulté des vidéos écris par des Français , et qui m'ont donnée l'idée de tester un volume important d'information en Indexant tout simplement Wikipedia ! Ce Tutoriel est écrit dans un environnement Debian Weezy , Il se pourrait donc que vous soyez amené a modifier le script ./make.sh [3] pour l'installer dans votre environnement , mais cela ne devrait pas être difficile La plus part du code est inspiré dans HaysTack [4] , une Librairie Python -Django pour interfacer ElastictSearch . Pour la riviere Wikipedia , il est déjà installé par ./make [3] , mais pour la documentation , il faut voir ici [4] [1] - https://github.com/Dakarlug/haystack_tutorial [2] - http://www.elasticsearch.org/ [3] - https://github.com/Dakarlug/haystack_tutorial/blob/master/haystack_app/make.sh [4] - http://haystacksearch.org/ [5] - https://github.com/elasticsearch/elasticsearch-river-wikipedia --Ad
-- Ce message a été envoyé à la liste [email protected] Gestion de votre abonnement : http://dakarlug.org/liste Archives : http://news.gmane.org/gmane.org.user-groups.linux.dakarlug Le site du DakarLUG : http://dakarlug.org
