(1)myfind <pathname> 的功能: 除了具有与程序4-7相同的功能外,还要输出在<pathname>目录子树之下,文件长度不大于4096字节的常规文件,在所有允许访问的普通文件中所占的百分比。程序不允许打印出任何路径名。 (2)myfind <pathname> -comp <filename>的功能: <filename>是常规文件的路径名(非目录名,但是其路径可以包含目录)。命令仅仅输出在<pathname>目录子树之下,所有与<filename>文件内容一致的文件的绝对路径名。不允许输出任何其它的路径名,包括不可访问的路径名。 (3)myfind <pathname> -name <str>…的功能: <str>…是一个以空格分隔的文件名序列(不带路径)。命令输出在<pathname>目录子树之下,所有与<str>…序列中文件名相同的文件的绝对路径名。不允许输出不可访问的或无关的路径名。 <pathname>和<filename>均既可以是绝对路径名,也可以是相对路径名。<pathname>既可以是目录,也可以是文件,此时,目录为当前工作目录。
上传时间: 2014-01-26
上传用户:aappkkee
This string-include defines all string functions as inline functions. Use gcc. It also assumes ds=es=data space, this should be normal. Most of the string-functions are rather heavily hand-optimized, see especially strtok,strstr,str[c]spn. They should work, but are not very easy to understand. Everything is done entirely within the register set, making the functions fast and clean.
标签: functions string-include defines assumes
上传时间: 2014-01-09
上传用户:tedo811
This demonstration illustrates the application of adaptive filters to signal separation using a structure called an adaptive line enhancer (ALE). In adaptive line enhancement, a measured signal x(n) contains two signals, an unknown signal of interest v(n), and a nearly-periodic noise signal eta(n). The goal is to remove the noise signal from the measured signal to obtain the signal of interest.
标签: demonstration application illustrates separation
上传时间: 2014-09-08
上传用户:2525775
//建立顶级窗口 toplevel = XtVaAppInitialize[&app, "Label", NULL, 0, &argc, argv, NULL, NULL] //建立按钮上标签的字符串 str = XmStringCreateLtoR["A Simple\n Label", XmFONTLIST_DEFAULT_TAG] n = 0 XtSetArg[args[n], XmNlabelString, str] n++ label = XmCreateLabel[toplevel, "pushbutton", args, n] XtManageChild[label] XmStringFree[str] //显示窗口 XtRealizeWidget[toplevel] //进入事件循环 XtAppMainLoop[app]
标签: NULL XtVaAppInitialize toplevel Label
上传时间: 2014-01-11
上传用户:bruce5996
用维吉尼亚算法加密 /** * 维吉尼亚密码算法(BigDecimal),加/解密处理后仍为BigDecimal类型,正负号和小数点不进行处理 * * @param str * 源BigDecimal * @param key * 密钥,应为数字字符组成的字符串 * @param mode * 模式(加密or解密) * @return 加/解密后的BigDecimal
标签: BigDecimal 算法 加密 密码算法
上传时间: 2013-12-23
上传用户:yyyyyyyyyy
学习arm时自己编的一个关于数组计算的小程序,主要用到STR和LDR等
上传时间: 2017-08-29
上传用户:GHF
简单命令使用grep等的使用 [zorro@isch ~]$ history 1 ifconfig 2 su 3 exit 4 ls 5 cd Desktop/ 6 ls 7 tar zxcf VMwareTools-8.4.5-324285.tar.gz 8 tar zxvf VMwareTools-8.4.5-324285.tar.gz 9 cd vmware-tools-distrib/ 10 ls 11 ./vmware-install.pl 12 su 13 ls 14 cd .. 15 ls 16 rm VMwareTools-8.4.5-324285.tar.gz 17 rm -r vmware-tools-distrib 18 ls 19 make 20 ls 21 cd redis/ 22 quit 23 ls 24 ca redis/ 25 cd redis/ 26 cd redis-2.8.17 27 make 28 cd redis-2.8.17 29 ls 30 cd redis-2.8.17 31 cd str 32 cd src 33 ls 34 ./redis-cli 35 ls 36 cd redis-2.8.17 tar.gz 37 make 38 cd src 39 ./redis-server .. /redis.conf 40 ./redis-cli 41 ./redis-server ../redis.conf 42 vi test1.sh 43 ./test1.sh 44 vi test.sh 45 ./test.sh 46 ls 47 chmod 777 test.sh 48 ./test.sh 49 vi express 50 $ grep –n ‘the’ express 51 clear 52 grep -n 'the' express 53 vi express 54 grep -n 'the' express 55 grep -vn 'the'express 56 grep -vn 'the' express 57 grep -in 'the' express 58 vi test2.c 59 grep -l 'the' *.c 60 grep -n 't[ae]st' express 61 grep -n 'oo' express 62 grep -n '[^g]oo' express 63 grep -n '[a^z]oo' express 64 grep -n '[0^9]' express 65 grep -n '^the' express 66 vi express 67 sed -e 'd' express 68 sed -e '1d' express 69 sed -e '1~7d' express 70 sed -e '$d' express 71 sed -e '1,/^$/d' express 72 ls 73 cd 74 pwd 75 history [zorro@isch ~]$
标签: 简单命令使用
上传时间: 2016-05-24
上传用户:12345678gan
#include "string.h" #include "ctype.h" #include "stdio.h" search(char pd[]) {FILE *fp; int time=0,i=0,j=0,add[80],k=0,m; char *ch, str[900]; m=strlen(pd); if((fp=fopen("haha.txt","r"))==NULL) { printf("Cannot open this file\n"); exit(0); } for(;!feof(fp);i++) { str[i]=fgetc(fp); if(tolower(str[i])==tolower(pd[k])) {k++; if(k==m) if(!isalpha(i-m)&&!isalpha((str[i++]=fgetc(fp)))) { time++; add[j]=i-m+1; j++; k=0; } else k=0; } } if(time) { printf("The time is:%d\n",time); printf("The adders is:\n"); for(i=0;i
标签: 查询学会少年宫
上传时间: 2016-12-29
上传用户:767483511
#include "string.h" #include "ctype.h" #include "stdio.h" search(char pd[]) {FILE *fp; int time=0,i=0,j=0,add[80],k=0,m; char *ch, str[900]; m=strlen(pd); if((fp=fopen("haha.txt","r"))==NULL) { printf("Cannot open this file\n"); exit(0); } for(;!feof(fp);i++) { str[i]=fgetc(fp); if(tolower(str[i])==tolower(pd[k])) {k++; if(k==m) if(!isalpha(i-m)&&!isalpha((str[i++]=fgetc(fp)))) { time++; add[j]=i-m+1; j++; k=0; } else k=0; } } if(time) { printf("The time is:%d\n",time); printf("The adders is:\n"); for(i=0;i<j;i++) printf("%5d",add[i]); if(i%5==0) printf("\n"); getch(); fclose(fp); } else printf("Sorry!Cannot find the word(^_^)"); } main() { char pd[10],choose='y'; int flag=1; while(flag) {printf("In put the word you want to seqarch:"); scanf("%s",pd); search(strlwr(pd)); printf("\nWould you want to continue?(Y/N):"); getchar(); scanf("%c",&choose); if((tolower(choose))=='n') flag=0; else flag=1; } printf("Thanks for your using!Bye-bye!\n"); getch(); }
标签: 学生专用
上传时间: 2016-12-29
上传用户:767483511
以后再也不用担心写爬虫ip被封,不用担心没钱买代理ip的烦恼了 在使用python写爬虫时候,你会遇到所要爬取的网站有反爬取技术比如用同一个IP反复爬取同一个网页,很可能会被封。如何有效的解决这个问题呢?我们可以使用代理ip,来设置代理ip池。 现在教大家一个可获取大量免费有效快速的代理ip方法,我们访问西刺免费代理ip网址 这里面提供了许多代理ip,但是我们尝试过后会发现并不是每一个都是有效的。所以我们现在所要做的就是从里面提供的筛选出有效快速稳定的ip。 以下介绍的免费获取代理ip池的方法: 优点:免费、数量多、有效、速度快 缺点:需要定期筛选 主要思路: 从网址上爬取ip地址并存储 验证ip是否能使用-(随机访问网址判断响应码) 格式化ip地址 代码如下: 1.导入包 import requests from lxml import etree import time 1 2 3 2.获取西刺免费代理ip网址上的代理ip def get_all_proxy(): url = 'http://www.xicidaili.com/nn/1' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } response = requests.get(url, headers=headers) html_ele = etree.HTML(response.text) ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()') port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()') proxy_list = [] for i in range(0,len(ip_eles)): proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i] proxy_list.append(proxy_str) return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.验证获取的ip def check_all_proxy(proxy_list): valid_proxy_list = [] for proxy in proxy_list: url = 'http://www.baidu.com/' proxy_dict = { 'http': proxy } try: start_time = time.time() response = requests.get(url, proxies=proxy_dict, timeout=5) if response.status_code == 200: end_time = time.time() print('代理可用:' + proxy) print('耗时:' + str(end_time - start_time)) valid_proxy_list.append(proxy) else: print('代理超时') except: print('代理不可用--------------->'+proxy) return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.输出获取ip池 if __name__ == '__main__': proxy_list = get_all_proxy() valid_proxy_list = check_all_proxy(proxy_list) print('--'*30) print(valid_proxy_list) 1 2 3 4 5 技术能力有限欢迎提出意见,保证积极向上不断学习 ———————————————— 版权声明:本文为CSDN博主「彬小二」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_39884947/article/details/86609930
上传时间: 2019-11-15
上传用户:fygwz1982