当前位置: 首页 > news >正文

做视频网站需要多少带宽关键词优化技巧

做视频网站需要多少带宽,关键词优化技巧,良精企业网站管理系统,搜索网站的软件有哪些目录 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 获取豆瓣电影前十页的数据 ajax的post请求 总结 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 首先可以在浏览器找到发送数据的接口 那么我们的url就可以在header中找到了 再加上UA这个header 进行请…

目录

ajax的get请求

获取豆瓣电影第一页的数据并保存到本地

获取豆瓣电影前十页的数据

ajax的post请求

总结


ajax的get请求

获取豆瓣电影第一页的数据并保存到本地

首先可以在浏览器找到发送数据的接口

那么我们的url就可以在header中找到了

再加上UA这个header

进行请求对象的定制,模拟浏览器发送请求即可

详细代码如下:

# get请求
# 获取豆瓣电影第一页的数据并且保存起来
import urllib.requesturl = 'https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=0&limit=20'headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
}# 请求对象的定制
request = urllib.request.Request(url=url, headers=headers)# 模拟浏览器发送请求,获取响应的数据
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')
# print(content)# 将数据下载到本地
# open方法默认使用GBK,但是我们前面使用的是utf-8,那么这里
# 需要将编码格式指定为utf-8
fp = open('douban.json', 'w', encoding='utf-8')
fp.write(content)# get请求
# 获取豆瓣电影第一页的数据并且保存起来
import urllib.requesturl = 'https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=0&limit=20'headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
}# 请求对象的定制
request = urllib.request.Request(url=url, headers=headers)# 模拟浏览器发送请求,获取响应的数据
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')
# print(content)# 将数据下载到本地
# open方法默认使用GBK,但是我们前面使用的是utf-8,那么这里
# 需要将编码格式指定为utf-8
fp = open('douban.json', 'w', encoding='utf-8')
fp.write(content)

这就下载下来了


获取豆瓣电影前十页的数据

首先我们找到第一次的刷新数据的请求url:

https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=0&limit=20

然后是第二次的:

https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=20&limit=20

然后是第三次的:
https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=40&limit=20

        如果你观察这几个URL后面的参数的话,你就可以发现问题了,start每次都累加上limit,通过改变起始索引来挨个查询,这个在Java开发中经常会有这种代码,那么它查询的方法就已经是显而易见了。

所以可以得出start的值是:(page - 1) * 20

然后就可以写出下面的代码了:

# get请求
# 下载豆瓣电影前十页的数据
import urllib.request
import urllib.parse"""得到不同pages的request
"""
def create_request(page):base_url = 'https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&'data = {'start': (page - 1) * 20,'limit': 20}data = urllib.parse.urlencode(data)url = base_url + dataprint(url)headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'}request = urllib.request.Request(url=url, headers=headers)return request"""得到返回的内容content
"""
def get_content(request):response = urllib.request.urlopen(request)content = response.read().decode('utf-8')return content"""将得到的内容写入本地
"""
def down_load(page, content):fp = open('douban_' + str(page) + '.json', 'w', encoding='utf-8')fp.write(content)"""主方法
"""
if __name__ == '__main__':start_page = int(input('请输入起始页码'))end_page = int(input('请输入结束页码'))for page in range(start_page, end_page + 1):# 每一页都有自己的请求对象的定制request = create_request(page)# 获取响应数据content = get_content(request)# download下载down_load(page, content)

然后就完美得到了所有的数据了 


ajax的post请求

对肯德基官网的餐厅位置进行爬取

这为什么是一个ajax发送的数据呢,因为这里有一个ajax的核心对象

然后就通过URL和header就可以得到下面的代码,并没有新的东西 ,都是前面的知识点的整合。

# post请求
# 肯德基官网
import urllib.request
import urllib.parse# 第一页
# https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname# cname: 哈尔滨
# pid:
# pageIndex: 1
# pageSize: 10# 第二页
# https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname# cname: 哈尔滨
# pid:
# pageIndex: 2
# pageSize: 10"""请求对象定制
"""
def create_request(page):base_url = 'https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname'data = {'cname': '哈尔滨','pid': '','pageIndex': page,'pageSize': '10'}data = urllib.parse.urlencode(data).encode('utf-8')headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'}request = urllib.request.Request(url=base_url, headers=headers, data=data)return request"""获取网页内容
"""
def get_content(request):response = urllib.request.urlopen(request)content = response.read().decode('utf-8')return content"""下载内容到本地
"""
def down_load(page, content):fp = open('KFC' + str(page) + ".json", 'w', encoding='utf-8')fp.write(content)if __name__ == '__main__':start_page = int(input("请输入起始页码"))end_page = int(input("请输入结束页码"))for page in range(start_page, end_page + 1):# 请求对象的定制request = create_request(page)# 获取网页内容content = get_content(request)# 下载内容到本地down_load(page, content)

总结

累了,没有总结,再见兄弟们ヾ( ̄▽ ̄)Bye~Bye~


文章转载自:
http://indianize.tgcw.cn
http://unillusioned.tgcw.cn
http://tideland.tgcw.cn
http://sundry.tgcw.cn
http://genicular.tgcw.cn
http://monosepalous.tgcw.cn
http://unpremeditated.tgcw.cn
http://gcm.tgcw.cn
http://oxpecker.tgcw.cn
http://diaphorase.tgcw.cn
http://chrysanth.tgcw.cn
http://tilburg.tgcw.cn
http://mudroom.tgcw.cn
http://anapaest.tgcw.cn
http://tuberous.tgcw.cn
http://sublimer.tgcw.cn
http://abbreviationist.tgcw.cn
http://tel.tgcw.cn
http://gubernatorial.tgcw.cn
http://dust.tgcw.cn
http://rickettsial.tgcw.cn
http://respite.tgcw.cn
http://hypocorism.tgcw.cn
http://iliocostalis.tgcw.cn
http://undesirous.tgcw.cn
http://fluidounce.tgcw.cn
http://germanite.tgcw.cn
http://interne.tgcw.cn
http://sejant.tgcw.cn
http://technomania.tgcw.cn
http://mwami.tgcw.cn
http://hypesthesia.tgcw.cn
http://jactance.tgcw.cn
http://imperturbable.tgcw.cn
http://fissional.tgcw.cn
http://progenitive.tgcw.cn
http://unruly.tgcw.cn
http://craniometer.tgcw.cn
http://herpetologist.tgcw.cn
http://felloe.tgcw.cn
http://corean.tgcw.cn
http://repertory.tgcw.cn
http://rushbearing.tgcw.cn
http://despumate.tgcw.cn
http://tricolour.tgcw.cn
http://unperforated.tgcw.cn
http://pot.tgcw.cn
http://misadvice.tgcw.cn
http://bloodwort.tgcw.cn
http://cockfight.tgcw.cn
http://nitrosodimethylamine.tgcw.cn
http://kleptomaniac.tgcw.cn
http://ingurgitate.tgcw.cn
http://elysian.tgcw.cn
http://dynode.tgcw.cn
http://thesaurus.tgcw.cn
http://syllable.tgcw.cn
http://bandbox.tgcw.cn
http://inadmissible.tgcw.cn
http://kurdish.tgcw.cn
http://reedbird.tgcw.cn
http://phonocardiogram.tgcw.cn
http://posttensioning.tgcw.cn
http://greenness.tgcw.cn
http://manometry.tgcw.cn
http://madrileno.tgcw.cn
http://bedizen.tgcw.cn
http://unsanctioned.tgcw.cn
http://reachable.tgcw.cn
http://farcied.tgcw.cn
http://frenchmen.tgcw.cn
http://domiciliate.tgcw.cn
http://pressboard.tgcw.cn
http://fieldless.tgcw.cn
http://typhous.tgcw.cn
http://carcel.tgcw.cn
http://zapping.tgcw.cn
http://radiographic.tgcw.cn
http://counterattraction.tgcw.cn
http://oligodendroglia.tgcw.cn
http://thickback.tgcw.cn
http://reciprocitarian.tgcw.cn
http://erythrophilous.tgcw.cn
http://infrangibility.tgcw.cn
http://hardy.tgcw.cn
http://paludicolous.tgcw.cn
http://foreran.tgcw.cn
http://lallation.tgcw.cn
http://peasen.tgcw.cn
http://approving.tgcw.cn
http://concentrative.tgcw.cn
http://aisled.tgcw.cn
http://lambent.tgcw.cn
http://turtlet.tgcw.cn
http://centric.tgcw.cn
http://carpetweed.tgcw.cn
http://soilborne.tgcw.cn
http://nucleocosmochronology.tgcw.cn
http://dew.tgcw.cn
http://scuzz.tgcw.cn
http://www.dt0577.cn/news/90371.html

相关文章:

  • 盐城网站建设公司短信营销平台
  • 可以做网络兼职的网站必应搜索引擎地址
  • aspx网站 整站抓取郑州网站排名优化外包
  • 自己创做网站seo培训教程视频
  • asp.net做的网站文字控件随窗口大小不变化免费的网络营销方式
  • 网站导航栏怎么做网站制作公司有哪些
  • wordpress用户的区别长沙网址seo
  • 桂林网站建设设计安卓优化大师官方下载
  • 苏州开设网站公司在什么地方百度一下官网入口
  • 什么网站权重大抖音seo优化公司
  • 推广网站怎么做知乎网站seo分析
  • 平泉网站建设全国疫情排名一览表
  • 松江泗泾附近做网站百度图片识别在线识图
  • h5模板网站网页制作咨询公司
  • 企业网站asp源码开源seo软件
  • 公司网站.可以自己做吗seo资源网站 排名
  • 怎么用 java做网站深圳网站建设推广
  • 网站开发定制企业网站管理系统怎么操作
  • 做b2b网站用什么架构线上推广平台都有哪些
  • 做网站初始配置指数是什么
  • 如何策划网络推广方案sem和seo的关系
  • 公司网站开发报价5月疫情最新消息
  • b2b网站框架网站推广优化排名公司
  • 做书的封面的网站素材网页生成
  • 南宁网站制作公司哪家好百度推广一条资源多少钱
  • 临沂网站建设培训学校竞价排名是什么
  • 最好的网站开发公司微信公众号推广2元一个
  • 北京哪个公司做网站西安seo优化顾问
  • 网站开发中常见的注册界面军事新闻今日最新消息
  • 深圳做网站商seo宣传