本科生计算机专业实习报告

本文由用户“清晨的阳光V缒蕖狈窒矸⒉? 更新时间:2022-06-25 07:30:13 举报文档

以下为《本科生计算机专业实习报告》的无排版文字预览,完整格式请下载

下载前请仔细阅读文字预览以及下方图片预览。图片预览是什么样的,下载的文档就是什么样的。



本科生实习报告

实习名称: 认 知 实 习

姓 名: 马某某

学 院: 计***

专 业: 信息与计算科学

班 级: 大数据2002

学 号: ***120

2022年6月

实习日志

周某某

实习内容记录

备注



第

周一

课堂上介绍了urllib库,gbk与utf-8的编码规则。也尝试了简单的百度网络源码的爬取。

页面结构Elements Network

Headers Preview Response

Urllib基本使用与—请求对象的定制

Get请求的quote和urlencode方法







周二



运用昨天学的python爬虫有关内容,学习如何用xpath获取数据,以及JSONpath,BeautifulSoup,pyquery的学习

练习了用爬虫获取百度图片,还练习了获取河南省招聘信息,获取游戏资讯,获取NBA新闻等练习。







周三

学习了post请求;实践百度翻译目标的爬取

Ajax的get请求;请求豆瓣电影第一页、利用函数的封装请求豆瓣电影前n页。

Ajax的post请求;请求肯德基官网北京门店内容

Urllib_异常

微博的cookie的免密登录

关于网络ip代理







周四



大家在讨论出研究出了代码,爬取了猫眼电影网站,导出了榜单前二百五十电影地区分布,上映年份分布,风格分布,时长分析等数据。

制表后,可以发现一些规律,对此做出一定的分析总结,并且可以对未来做出一定的预测。







周五

学习XPath 安装,常用规则与语法

在爬虫中使用 xpath

使用 xpath 获取百度首页面的数据

使用 xpath 获取猫眼的电影排行

JSONPath 语法操作

高级查询find-all





 实习报告

一、认知实习时间和地点

1.时间:2022年6月6日~2022年6月10日

2.地点:西安科技大学临潼校区

二、认知实习内容

1.urllib对网页数据的爬取与网页图片下载



下载结果:filename让文件以特定格式输出。



2.模块化的函数封装、利用xpath解析对猫眼电影排行榜的爬取

import xlwt import requests from lxml import etree def get_maoyan(url, sheet, i): page_info = requests.get(url).text sel = etree.HTML(page_info) con = sel.xpath('//div[@class="main"]/dl/dd') d_url = 'https://maoyan.com/' i = i * 10 + 1 for it in con: sheet.write(i, 0, i - 1) # number index = it.find('./i') # 查找子标签 sheet.write(i, 2, index.text) # rank a = it.find('./a') sheet.write(i, 7, d_url + a.get(' 内容过长,仅展示头部和尾部部分文字预览,全文请查看图片预览。 注意个人形象,维护学校声誉,遵守学校对实习场地的安全使用规定,增强安全防范意识,提高自我保护能力,保护个人安全。严禁从事一切与实习无关的活动。

以上条款学生应全面遵照执行,学生指导教师、专业系部领导负责检查。

学生违反上述规定,所造成的后果和损失由学生本人负责。

在外实习的学生不在校期间的一切安全责任由学生家长和学生本人负责,与学***无关。

安全责任书在生产实习活动开始前签订,自签订之日生效,至生产实习活动结束之日止。

责任书一式两份,学生所在系(院、部)及学生本人各持一份。

学生本人签字: 教学单位(盖章):

年 月 日 年 月 日

[文章尾部最后300字内容到此结束,中间部分内容请查看底下的图片预览]

以上为《本科生计算机专业实习报告》的无排版文字预览,完整格式请下载

下载前请仔细阅读上面文字预览以及下方图片预览。图片预览是什么样的,下载的文档就是什么样的。

图片预览

热门关注

相关下载