|

Redis若要进入交互环境,需要打开终端输入()
A:redis-cli
B:redis
C:redis-cmd
D:redis-start
使用UI Automatorr根据坐标来滑动桌面的操作是得到相应控件后使用命令()
A:swipe
B:move
C:scroll
D:fly
Python中Object={'obj_1':'1','obj_2':'2'},则Objcet.get('boj_3','3')是()
A:1
B:2
C:3
D:无输出
Python中若定义object="12345",则print(object[::-1])输出()
A:1
B:5
C:54321
D:程序报错
在Scrapy的目录下,哪个文件负责定义需要爬取的数据?()
A:spiders文件夹
B:item.py
C:pipeline.py
D:settings.py
Python中Object=(1, 2, 3, 4, 5),则Objcet是()
A:列表
B:元组
C:字典
D:集合
如果很多爬虫同时对一个网站全速爬取,那么其实就是对网站进行了()攻击
A:XSS
B:DOS
C:DDOS
D:跨域
当爬虫创建好了之后,可以使用"scrapy()<爬虫名>" 命令运行爬虫。
A:startup
B:starwar
C:drawl
D:crawl
Redis是()数据库
A:关系数据库
B:键值数据库
C:列存数据库
D:图数据库
Scrapy中使用Xpath获得的结果调用了.extract方法,结果以()形式生成
A:列表
B:元组
C:字典
D:集合
使用UI Automator打开微信的操作是获取相应图标后使用命令()
A:touch
B:click
C:push
D:hover
使用xpath方法的返回类型是()
A:列表
B:元组
C:字典
D:集合
Python并导入uiautomator来操作设备的语句是from uiautomator import ()
A:Device
B:Devices
C:Jobs
D:Job
使用UI Automatorr点亮屏幕的操作是得到相应控件后使用命令()
A:wakeup
B:light
C:bright
D:sleep
PyMongo中逻辑查询表示不等于的符号是()
A:$gt
B:$lt
C:$eq
D:$ne
Python中若定义object=(1, 2, 3, 4, 5),则print(object[:3])输出()
A:345
B:34
C:45
D:123
Python中列表可以用()方法在末尾添加元素
A:add
B:append
C:plus
D:
Python读CSV文件需要哪个方法()
A:CSVReader
B:CsvReader
C:DictReader
D:FileReader
服务器端记录信息确定用户身份的数据是
A:session
B:cookies
C:moonpies
D:localstorage
Python中退出循环应用关键字()
A:break
B:continue
C:exit
D:return
以下哪些方法属于Python写CSV文件的方法()
A:writeheaders
B:writeheader
C:writerrows
D:writerow
PyMongo更新操作有()
A:update
B:update_all
C:update_one
D:update_many
如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()
A:非法侵入计算机系统罪
B:非法获取计算机信息系统数据罪
C:非法获取计算机数据罪
D:非法获取系统罪
网络爬虫的用途有()
A:收集数据
B:尽职调查
C:提高流量
D:攻击服务器
HTTP常用状态码表明表明客户端是发生错误的原因所在的有()
A:403
B:404
C:500
D:503
Python中一个函数没有返回值则可以写()
A:没有return
B:return
C:return None
D:return NULL
下列说法错误的是()
A:mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本,并在Python脚本里面直接操作HTTP和HTTPS的请求,以及返回的数据包。
B:命令行中执行mitmdump -s parse_request.py即可运行python 脚本
C:使用python可以自定义返回的数据包,如 response.headers,就是返回的头部信息
D:如果返回的是JSON类型的字符串,python无法进行解析。
以下HTTP状态码表示服务器本身发生错误的是
A:400
B:503
C:302
D:500
Python中有哪些实现多线程方法()
A:multiprocess.dummy
B:threading.Thread
C:process
D:PyMongoDB
Python中通过Key来从字典object中读取对应的Value的方法有()
A:object[key]
B:object.get(key)
C:object.pop(key)
D:object.pop()
使用UI Automator使屏幕向上滚动一屏的操作是得到相应控件后使用命令scroll.vert.forward()
A:对
B:错
爬虫登录需要识别验证码可以先把程序关闭,肉眼识别以后再重新运行
A:对
B:错
Python正则表达式中“.*?”是非贪婪模式,获取最短的能满足条件的字符串。
A:对
B:错
Python中使用下面代码打开文件也需要对文件进行close关闭操作
with open('文件路径', '文件操作方式', encoding='utf-8') as f
A:对
B:错
mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本
A:对
B:错
Python正则表达式中“.*”是贪婪模式,获取最长的满足条件的字符串。
A:对
B:错
如果通过爬虫抓取某公司网站的公开数据,分析以后发现这个公司业绩非常好。于是将数据或者分析结果出售给某基金公司,从而获得销售收入。这是合法的。
A:对
B:错
robots.txt是一种规范,在法律范畴内
A:对
B:错
Charles是一个收费软件,如果没有注册,安装以后的前30天可以正常使用。30天以后,虽然功能不会缩水,但每过30分钟Charles会自动关闭一次
A:对
B:错
设置了这个中间件以后,仍然需要输入账号密码可以成功得到登录以后才能看到的HTML
A:对
B:错
Python中直接对浮点数进行计算有print(0.1 0.2),则结果为0.3
A:对
B:错
一般来说在页面都通过GET将用户登录信息传递到服务器端。
A:对
B:错
在Windows中下若要运行Redis可以运行redis-server /usr/local/etc/redis.conf
A:对
B:错
在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的
A:对
B:错
引用中间件时后面的数字代表的是中间件的执行顺序,例如 'AdvanceSpider.middlewares.ProxyMiddleware': 543 中的543
A:对
B:错
Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;
A:对
B:错
使用Nginx反向代理到Scrapyd以后,Scrapyd本身只需要开通内网访问即可,不许经过输入密码
A:对
B:错
Redis中使用lrange读取数据后数据也会删除
A:对
B:错
Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。
A:对
B:错
虽然MongoDB相比于MySQL来说,速度快了很多,但是频繁读写MongoDB还是会严重拖慢程序的执行速度。
A:对
B:错
|
|