100万条记录其实不多,要看你的记录是什么数据类型,这不是perl的问题,而是算法 的问题。
发件人: grbounce-_mwj1quaaadplfc8fq-7oyyqfcvs3wxt=hfahe=163....@googlegroups.com [mailto:grbounce-_mwj1quaaadplfc8fq-7oyyqfcvs3wxt=hfahe=163....@googlegroups .com] 代表 [email protected] 发送时间: 2009年11月5日 22:02 收件人: [email protected] 主题: [PerlChina] 寻找更快的数据搜寻方案 Hi all, 我现在需要将大约100万条记录存储到hash中,然后在这个hash中查找某一个数据,或 者删除某个数据。 因为hash本身遇到这么大的数据量不占优势,例如会比数据本身多占用更多的内存,数 据量太大以后搜索的速度并不是很快等等 谁有更好的Perl方案适合这种项目? Thank You, Alexe Blog:http://alexe.cublog.cn/ --~--~---------~--~----~------------~-------~--~----~ 您收到此信息是由于您订阅了 Google 论坛“PerlChina Mongers 讨论组”论坛。 要在此论坛发帖,请发电子邮件到 [email protected] 要退订此论坛,请发邮件至 [email protected] 更多选项,请通过 http://groups.google.com/group/perlchina?hl=zh-CN 访问该论坛 -~----------~----~----~----~------~----~------~--~---
