python爬虫系列(1.1-urllib中常用方法的介绍)

一、关于urllib中常用方法的介绍

  • 1、urlopen网络请求

    urlopen方法是网络请求的方法,默认是get请求,如果传递了datapost请求

    1. from urllib import request
    2.  
    3. if __name__ == "__main__":
    4. response = request.urlopen('http://www.baidu.com')
    5. print(response.read())
  • 2、urlretrieve下载文件

    1. from urllib import request
    2.  
    3. if __name__ == "__main__":
    4. # 下载整个网页
    5. request.urlretrieve('http://www.baidu.com', 'baidu.html')
    6. # 下载图片
    7. request.urlretrieve('http://www.baidu.com/img/bd_logo1.png', 'baidu.png')

二、关于编码的处理

  • 1、urlencode将字典类型数据转换为parsed模式

    1. from urllib import parse
    2.  
    3. if __name__ == "__main__":
    4. dict1 = {
    5. "name": "hello",
    6. "age": "20",
    7. "gender": "man"
    8. }
    9. re = parse.urlencode(dict1)
    10. print(re) # name=hello&age=20&gender=man
  • 2、parse_qsparse_qsl反序列化

     
    1. from urllib import parse
    2.  
    3. if __name__ == "__main__":
    4. dict1 = {
    5. "name": "hello",
    6. "age": "20",
    7. "gender": "man"
    8. }
    9. re = parse.urlencode(dict1)
    10. print(re)
    11. print(parse.parse_qs(re))

三、切割url的方法

  • 1、urlspliturlparse方法

     
    1. from urllib import request, parse
    2.  
    3. if __name__ == "__main__":
    4. url = 'http://www.baidu.com?name=hello&age=20'
    5. print(parse.urlsplit(url))
    6. print(parse.urlparse(url))
    7.  
    8. # 输出
    9. # SplitResult(scheme='http', netloc='www.baidu.com', path='', query='name=hello&age=20', fragment='')
    10. # ParseResult(scheme='http', netloc='www.baidu.com', path='', params='', query='name=hello&age=20', fragment='')

猜你喜欢

转载自blog.csdn.net/qq_40925239/article/details/83862440