• 步骤是一个有用命令行程序支持的字典大于RAM提供,并可以帮助你处理文件的20倍,大于RAM的大小。

    默认设置(-l512)允许进程的文件20倍,大于RAM的大小。 存储器的要求是成比例的1/L,所以通过增加-我值这有可能处理甚至更大的文件。

    当压缩、储存使用情况哈希:filesize/L*20+filesize/L*4+综述(filesize/L*4*5/4)+综述(filesize/(L*8)*4)其中综述()轮到下一个2和第存储器模块(即*20)只有在用-m1模式。 因此,总体而言,哈希包括3或4个区块。 除了散,使用压缩3*8mb缓冲区。

    减压使用的仅仅2*8mb缓冲区并没有散。 重复复制的数据直接输出的文件,虽然,所以你需要有足够的内使用磁盘缓,以便使解压缩快速。

  • SREP एक उपयोगी कमांड लाइन उपयोगिता का समर्थन करता है कि शब्दकोशों की तुलना में बड़ा रैम उपलब्ध है और मदद करता है आप करने के लिए प्रक्रिया कर रहे हैं कि फ़ाइलों 20x से बड़ा राम का आकार.

    डिफ़ॉल्ट सेटिंग्स (-l512) की अनुमति देता है प्रक्रिया के लिए फ़ाइलें है कि कर रहे हैं 20x से बड़ा राम का आकार. स्मृति आवश्यकताओं के लिए आनुपातिक हैं 1/एल है, तो वृद्धि से -एल मूल्य यह संभव है करने के लिए प्रक्रिया भी बड़ी फ़ाइलों.

    जब compressing, स्मृति के उपयोग के लिए हैश: filesize/एल*20 + filesize/एल*4 + राउंडअप(filesize/एल*4 * 5/4) + राउंडअप(filesize/(एल*8) * 4) जहां राउंडअप() राउंड अप करने के लिए अगले 2 की शक्ति और स्मृति ब्लॉक (यानी *20) में ही इस्तेमाल किया -एम 1 मोड. तो, कुल मिलाकर, हैश शामिल 3 या 4 हिस्सा है । इसके अलावा, हैश, संपीड़न का उपयोग करता है 3*8mb बफ़र्स.

    Decompression का उपयोग करता है केवल 2*8mb buffers और कोई हैश । दोहराया डेटा से सीधे कॉपी आउटपुट फ़ाइल, हालांकि, तो आप की जरूरत करने के लिए पर्याप्त RAM है के लिए इस्तेमाल किया डिस्क कैश बनाने के क्रम में तेजी से decompression.

  • SREP is a useful command line utility that supports dictionaries larger than RAM available and helps you to process files that are 20x larger than the RAM size.

    Default settings (-l512) allows to process files that are 20x larger than RAM size. Memory requirements are proportional to 1/L, so by increasing -l value it's possible to process even larger files.

    When compressing, memory usage for hash: filesize/L*20 + filesize/L*4 + roundup(filesize/L*4 * 5/4) + roundup(filesize/(L*8) * 4) where roundup() rounds up to the next power of 2 and first memory block (i.e. *20) used only in -m1 mode. So, overall, hash includes 3 or 4 chunks. Besides hash, compression uses 3*8mb buffers.

    Decompression uses only 2*8mb buffers and no hash. Repeated data copied directly from output file, though, so you need to have enough RAM used for disk cache in order to make decompression fast.