每天2000万数据量如何做统计.

目前有个项目.数据库有一表中的数据量每天会插入2000万行,目前我们是每天加一个表分区进行进行存储,就是每天的数据单独存到一个分区. 现在的问题是统计分析难处理..最多要可以统计三个月的数据。现在这样如果要统计三个月的数据,那就要访问30*3*2000万=18亿数据..统计起来非常慢.大家有没有处理过海量数据统计分析.有没有什么方案,现在用的oracle 10g,谢谢.

具体分析要做什么统计,看看是否可以在数据插入后产生中间数据。直接从原始数据作统计不一定行。