碎片

似乎遇到了和[这个帖子]一样的问题。我的数据还要悬殊(109M对8K),应该更加容易走dupe。但是我们有将近4K的amp,所以dupe后要30M,optimzer就觉得redistrib也挺好。(问题是数据按照join column redistribute有skew,所以即使数据量不算特大redistrib也会挂)。amp多机器强,反而跑不出来了。(那个帖子里说把同样的数据放到150 amp的系统里就会dupe然后能跑。)

我的问题解决方案是改变我小表的用途,把小表数据量再减半。

就是觉得博客上应该写点别的。。。