虫虫首页| 资源下载| 资源专辑| 精品软件
登录| 注册

USEr-Agent

  • 在J2ME中实现虚拟代理

    在J2ME中实现虚拟代理,然后过滤USEr-Agent ,用于突破广东移动等的cmwap限制 使用方法,启动后将相应软件(如Opera)的代理设成localhost 8080,即可

    标签: J2ME 虚拟 代理

    上传时间: 2014-01-12

    上传用户:aappkkee

  • sipbomber - tool for testing SIP-protocol implementation (RFC3261). Current version can check only

    sipbomber - tool for testing SIP-protocol implementation (RFC3261). Current version can check only server implementation - UAS (UAS are proxies, user agent servers, redirect servers, and registrars).

    标签: implementation SIP-protocol sipbomber Current

    上传时间: 2014-09-10

    上传用户:stella2015

  • Here are some short instructions for use of mod-xslt. The stylesheet is specified using the Proce

    Here are some short instructions for use of mod-xslt. The stylesheet is specified using the Processing Instruction <?xml-stylesheet type="text/xsl" href="URL-OF-YOUR-STYLESHEET"?> or now new <?xslt-stylesheet agent="THE-USEr-Agent-STRING-OF-THE-BROWSER" href="URL-OF-YOUR-STYLESHEET"?> This now enables you to use different Stylesheets for different browsers. (For example Netscape & IE) (or Web & WAP for that matter)

    标签: instructions stylesheet specified mod-xslt

    上传时间: 2014-01-14

    上传用户:as275944189

  • 1、锁定某个主题抓取; 2、能够产生日志文本文件

    1、锁定某个主题抓取; 2、能够产生日志文本文件,格式为:时间戳(timestamp)、URL; 3、抓取某一URL时最多允许建立2个连接(注意:本地作网页解析的线程数则不限) 4、遵守文明蜘蛛规则:必须分析robots.txt文件和meta tag有无限制;一个线程抓完一个网页后要sleep 2秒钟; 5、能对HTML网页进行解析,提取出链接URL,能判别提取的URL是否已处理过,不重复解析已crawl过的网页; 6、能够对spider/crawler程序的一些基本参数进行设置,包括:抓取深度(depth)、种子URL等; 7、使用USEr-Agent向服务器表明自己的身份; 8、产生抓取统计信息:包括抓取速度、抓取完成所需时间、抓取网页总数;重要变量和所有类、方法加注释; 9、请遵守编程规范,如类、方法、文件等的命名规范, 10、可选:GUI图形用户界面、web界面,通过界面管理spider/crawler,包括启停、URL增删等

    标签: 日志

    上传时间: 2013-12-22

    上传用户:wang5829

  • 邮件系统是Linux网络应用的重要组成

    邮件系统是Linux网络应用的重要组成,一个完整的邮件系统包括三个部分:底层操作系统(Linux Operation),邮件传送代理(Mail Transport Agent,MTA),邮件分发代理(Mail Delivery Agent,MDA),邮件用户代理(Mail User Agent,MUA)。 Postfix是一个非常优秀的MTA,她素以高效、安全的特点而著称。Postfix是作者在UNIX上所见过的MTA中在反垃圾邮件(Anti- Spam或Anti-UCE)方面做得最好的一个,甚至有很多公司在Postfix代码的基础上进行二次开发而推出反垃圾邮件网关产品。MTA的反垃圾邮件功能,实际上就是在MTA处理过程中对会话进行过滤。这个过滤不但过滤了发往自身的垃圾邮件,而且还防止了自身被恶意利用发送垃圾邮件。Postfix 实现了目前所有主要的MTA过滤技术。postfix是Wietse Venema在IBM的GPL协议之下开发的MTA(邮件传输代理)软件。和Sendmail相比Postfix更快、更容易管理、更灵活、更安全。

    标签: Linux 邮件系统 网络应用

    上传时间: 2015-11-25

    上传用户:dapangxie

  • 在J2ME中实现虚拟代理

    在J2ME中实现虚拟代理,然后过滤USEr-Agent ,用于突破广东移动等的cmwap限制使用方法,启动后将相应软件(如Opera)的代理设成localhost 8080,即可-J2ME virtual agents, then filter USEr-Agent, Guangdong Mobile breakthrough for the restrictions on the use of SMS, will start corresponding software (such as the Opera), the agent set to localhost 8080 can be

    标签: J2ME 虚拟 代理

    上传时间: 2017-05-22

    上传用户:wuyuying

  • user agent twebbrowser

    Ini adalah contoh source code untuk mengganti useragent pada twebbrowser

    标签: twebbrowser agent user

    上传时间: 2016-11-07

    上传用户:beryindo

  • python爬虫获取大量免费有效代理ip--有效防止ip被封

    以后再也不用担心写爬虫ip被封,不用担心没钱买代理ip的烦恼了 在使用python写爬虫时候,你会遇到所要爬取的网站有反爬取技术比如用同一个IP反复爬取同一个网页,很可能会被封。如何有效的解决这个问题呢?我们可以使用代理ip,来设置代理ip池。 现在教大家一个可获取大量免费有效快速的代理ip方法,我们访问西刺免费代理ip网址 这里面提供了许多代理ip,但是我们尝试过后会发现并不是每一个都是有效的。所以我们现在所要做的就是从里面提供的筛选出有效快速稳定的ip。 以下介绍的免费获取代理ip池的方法: 优点:免费、数量多、有效、速度快 缺点:需要定期筛选 主要思路: 从网址上爬取ip地址并存储 验证ip是否能使用-(随机访问网址判断响应码) 格式化ip地址 代码如下: 1.导入包 import requests from lxml import etree import time 1 2 3 2.获取西刺免费代理ip网址上的代理ip def get_all_proxy():     url = 'http://www.xicidaili.com/nn/1'     headers = {         'USEr-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',     }     response = requests.get(url, headers=headers)     html_ele = etree.HTML(response.text)     ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()')     port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()')     proxy_list = []     for i in range(0,len(ip_eles)):         proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i]         proxy_list.append(proxy_str)     return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.验证获取的ip def check_all_proxy(proxy_list):     valid_proxy_list = []     for proxy in proxy_list:         url = 'http://www.baidu.com/'         proxy_dict = {             'http': proxy         }         try:             start_time = time.time()             response = requests.get(url, proxies=proxy_dict, timeout=5)             if response.status_code == 200:                 end_time = time.time()                 print('代理可用:' + proxy)                 print('耗时:' + str(end_time - start_time))                 valid_proxy_list.append(proxy)             else:                 print('代理超时')         except:             print('代理不可用--------------->'+proxy)     return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.输出获取ip池 if __name__ == '__main__':     proxy_list = get_all_proxy()     valid_proxy_list = check_all_proxy(proxy_list)     print('--'*30)     print(valid_proxy_list) 1 2 3 4 5 技术能力有限欢迎提出意见,保证积极向上不断学习 ———————————————— 版权声明:本文为CSDN博主「彬小二」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_39884947/article/details/86609930

    标签: python ip 代理 防止

    上传时间: 2019-11-15

    上传用户:fygwz1982

  • Cadence icfb User manual

    Cadence icfb User manual

    标签: Cadence manual icfb User

    上传时间: 2013-09-05

    上传用户:zhuoying119

  • Allegro User Preference功能介绍

    在这里可以进行工作环境、界面和显示效果的一些设定,执行菜单\r\nSetup>User Preferences出现下面窗体,因为这里涉及的内容比较多,而且很多功\r\n能都很少用到,所以下面只针对一些常用设置作介绍。

    标签: Preference Allegro User

    上传时间: 2013-09-06

    上传用户:lbbyxmoran