• 赢网履将取URL,meta tag(标题中,描述、关键词),身体文本,页面尺寸,上修改的日期的价值从网站的搜索结果或清单的网址。

    赢网履将查询受欢迎的搜索引擎,提取的所有匹配的网址的搜索结果,可以删除重复的网址和最后访问这些网站并从中提取数据。

    你可以告诉赢网履多少搜索引擎的使用。 点击"引擎"按钮,并取消清单,你不想使用。 你可以添加其他的发动机的来源。

    赢网履查询发送给搜索引擎,得到匹配的网站的网址。 接下来它走访这些配对网站进行数据提取。 多少深它蜘蛛在前进的网站上取决于深度设定的"外部网站"标签。

    高速的多线程,精确提取直接保存数据的磁盘文件。 程序有许多过滤器来限制届会喜欢的-URL过滤器,文本过滤器,数据的过滤器,域的过滤器,修改日期,等等。

    赢网履允许用户选择递归的水平,检索线、超时,代理支持和许多其他的选择。

    要求:

    ■32RAM

    ■1MB硬盘空间

    ■互联网连接

    限制:

    ■15天的审判

  • जीतने के लिए वेब क्रॉलर निकालने जाएगा यूआरएल, मेटा टैग (शीर्षक, जानकारी, कीवर्ड), शरीर पाठ, पृष्ठ आकार, अंतिम संशोधन की तारीख से मूल्य वेब साइट, खोज परिणाम या यूआरएल की सूची है ।

    जीतने के लिए वेब क्रॉलर क्वेरी करेगा लोकप्रिय खोज इंजन, निकालने सभी मिलान यूआरएल खोज परिणामों से निकालने के लिए, डुप्लिकेट यूआरएल और अंत में यात्राओं उन वेबसाइटों और डेटा निकालने से वहाँ.

    आप बता सकते हैं जीतने के लिए वेब क्रॉलर कैसे कई खोज इंजन का उपयोग करने के लिए है । क्लिक करें "इंजन" बटन और अचयनित सूची है कि आप का उपयोग नहीं करना चाहते. आप जोड़ सकते हैं इंजन के अन्य स्रोतों के रूप में अच्छी तरह से.

    जीतने के लिए वेब क्रॉलर प्रश्नों भेजें करने के लिए इंजन खोज करने के लिए मिलान पाने के लिए वेबसाइट यूआरएल है. अगला यह दौरा मिलान उन वेबसाइटों के लिए डेटा निष्कर्षण. कितनी गहरी यह मकड़ियों में अग्रसर वेबसाइटों पर निर्भर करता है गहराई की स्थापना की "बाहरी साइट" टैब.

    उच्च गति, बहु लड़ी पिरोया, सही निकासी - सीधे बचाता है डेटा डिस्क के लिए फ़ाइल. कार्यक्रम में कई फिल्टर करने के लिए प्रतिबंधित सत्र, तरह - यूआरएल फिल्टर, पाठ फिल्टर, डेटा फिल्टर, डोमेन फिल्टर, तारीख, संशोधित, आदि.

    जीतने के लिए वेब क्रॉलर उपयोगकर्ता की अनुमति देता है-चयन प्रत्यावर्तन के स्तर पुनर्प्राप्ति धागे, मध्यांतर, प्रॉक्सी का समर्थन और कई अन्य विकल्प ।

    आवश्यकताओं:

    ■ 32 एमबी रैम

    ■ 1 MB हार्ड डिस्क स्थान

    ■ इंटरनेट कनेक्शन

    सीमाएं:

    ■ 15 दिन परीक्षण

  • Win Web Crawler will extract URL, meta tag (title, desc, keyword), body text, page size, last modified date value from web site, search results or list of URLs.

    Win Web Crawler will query popular search engines, extract all matching URLs from search results, remove duplicate URLs and finally visits those websites and extract data from there.

    You can tell Win Web Crawler how many search engines to use. Click "Engines" button and uncheck listing that you do not want to use. You can add other engine sources as well.

    Win Web Crawler send queries to search engines to get matching website URLs. Next it visits those matching websites for data extraction. How many deep it spiders in the marching websites depends on Depth setting of "External Site" tab.

    High speed, multi-threaded, accurate extraction - directly saves data to disk file. Program has numerous filters to restrict session, like - URL filter, text filter, data filter, domain filter, date modified, etc.

    Win Web Crawler allows user-selectable recursion levels, retrieval threads, timeout, proxy support and many other options.

    Requirements:

    ■ 32 MB RAM

    ■ 1 MB Hard Disk Space

    ■ Internet Connection

    Limitations:

    ■ 15 days trial