这篇文章主要介绍“怎么使用Excel和Python从互联网获取数据”,在日常操作中,相信很多人在怎么使用Excel和Python从互联网获取数据问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么使用Excel和Python从互联网获取数据”的疑惑有所帮助!接下来,请跟着小编一起来学习吧! 通过Python Flask Web框架分别构建一个Web网站和一个Web API服务。新建一个名为“5-5-WebTable.py”的Python脚本,创建一个包含表格的简单网页。如果读者对构建方法不感兴趣,可跳过以下代码,直接执行脚本“5-5-WebTable.py”打开网站。(1)安装flask包。(2)构建包含表格的网页。通过命令“python ./5-5-WebTable.py”启动网站,然后在浏览器中输入http://127.0.0.1:5000/,出现如图1所示的网页内容。图1 使用Flask构建的测试网站新建一个名为“5-5-WebAPI.py”的Python脚本,使用flask_restplus包构建Web API服务。如果读者对构建方法不感兴趣,可跳过以下代码,直接执行脚本“5-5-WebAPI.py”打开Web API服务。(1)安装flask_restplus包。(2)导入必要的库与初始化应用对象。(3)Web API数据操作类,包含增、删、改、查等方法。(4)构建Web API的路由映射。HTTP资源请求类从Resource类继承,然后映射到不同的路由,同时指定可使用HTTP方法。(4)开启Web API服务。通过命令“python ./5-5-WebAPI.py”启动Web API服务,在浏览器中输入“http://127.0.0.1:8000/”将出现如图5-23所示的Web API服务请求方法列表。图2 WebAPI服务请求方法列表Excel可以通过“数据”选项卡下的“自网站”功能抓取网页数据。Python可以使用 requests 库、Beautiful Soup包、Scrapy框架抓取网页数据。单击“数据”→“自其他源”→“自网站”功能。Excel可读取的网页数据有局限:动态网页数据无法自动识别,非表格数据无法自动识别。(1)单击“数据”→“自其他源”→“自网站”功能。(2)确保在5.5.1节中编写的Web网站已经开启。(3)输入网站URL地址“http://127.0.0.1:5000/”单击“高级”按钮可配置更详细的HTTP请求信息,然后单击“确定”按钮,如图3所示。图3 配置要读取网站的URL(4)在“导航器”窗口中选择导入数据。如图4所示,Excel自动识别网页中的表格数据,选择表名后单击“加载”按钮即可。图4 Excel自动识别网页中的表格数据下面演示使用requests库抓取整个网页中的数据,然后使用Beautiful Soup解析网页。读者可参考本书代码素材文件“5-5-web.ipynb”进行学习。(1)通过requests读取网页数据。(2)通过Beautiful Soup解析网页。Excel可以通过“数据”选项卡下的“自网站”功能调用Web API服务。Python可以使用 requests 库、Beautiful Soup包、Scrapy框架调用Web API获取数据。(1)确保5.5.1节中编写的Web API服务已经开启。(2)输入Web API方法对应的URL:http://127.0.0.1:8000/ExcelPythonTest/。(3)处理返回的数据。调用Web API服务后数据以JSON格式返回,按照5.4.3小节中介绍的方法处理JSON数据。使用requests库调用Web API方法,然后对返回的JSON数据进行处理,读者可参考本书代码素材文件“5-5-api.ipynb”进行学习。表1所示为Excel和Python抓取免费云主机域名互联网数据方法的对比。需要注意Excel从互联网抓取数据的功能并不完善。表1 Excel和Python抓取互联网数据方法对比到此,关于“怎么使用Excel和Python从互联网获取数据”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注百云主机网站,小编会继续努力为大家带来更多实用的文章!
本文小编为大家详细介绍“MySQL之Join语句执行流程是什么”,内容详细,步骤清晰,细节处理妥当,希望这篇“MySQL之Join语句执行流程是什么”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。在实际生产中,关于 join 语句使用…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。