Python自动化:告别早起,助力打工人重塑工作流程,成为效率达人

我是智能取经人 2024-06-20 11:51:59

在这个信息爆炸的时代,投资机会稍纵即逝。对于金融公司来说,紧跟热榜,把握时事,第一时间抓住投资机会,是日常工作中的重要一环。然而,每天手动搜集、整理并分享信息,不仅耗时耗力,也容易出错。今天,我要和大家分享一个Python自动化办公的案例,让你告别早起,轻松搞定每日头条新闻分享!

打工人早起的痛苦与挑战

刚毕业的小学弟在上海一家金融工作做量化分析师,公司需要对每日的财经类数据保持高度敏感,希望从中发现投资机会。为了满足这一需求,公司领导要求他们新员工每天收集一些金融网站的数据,并在早上七点准时分享到公司的微信群里。学弟被分配到的是同花顺网站热榜数据。这项工作听起来简单,但实际上非常繁琐:每天六点起床,打开电脑,手动复制粘贴网站信息,整理成Excel表格,再截图发送到群里。这样的工作不仅占用了学弟宝贵的休息时间,对他个人成长作用甚微,还容易因为疲劳而导致错误或者信息更新不及时。

Python自动化爬虫技术

为了解决这个问题,我们引入了Python自动化爬虫技术。通过编写Python脚本,我们可以自动化地完成数据的收集、整理和分享工作,并设置定时任务,让计算机准时免费为你打工,让小学弟告别早起的烦恼。

技术实现:

环境搭建:首先,需要安装Python环境以及一些必要的库,如requests等,用于网络请求和网页解析。

爬虫编写:编写爬虫程序,通过requests库发送请求获取网页内容,并解析网页,提取出需要的信息。

Excel自动截图:利用代码对Excel进行准时截图并将截图内容存储到桌面上,学弟起床后,只需复制图片到微信群里即可

定时任务设置:使用Python的schedule库或者操作系统的定时任务功能,设置程序每天六点半自动执行。

数据存储:将爬取到的信息以表格形式写入excel文件

分享到微信群:这一步可以手动操作,也可以通过微信API实现自动化分享,但需要一定的技术门槛

爬取同花顺热门榜单的python并存储到Excel中的代码

class Crawl_ths: def __init__(self): pass def get_headers(self): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36 Edg/120.0.0.0' } return headers def get_stock_concept_rot_rank(self): url = 'https://dq.10jqka.com.cn/fuyao/hot_list_data/out/hot_list/v1/plate?' params = { 'type': 'concept' } headers = self.get_headers() res = requests.get(url=url, params=params, headers=headers) text = res.json() status_code = text['status_code'] if int(status_code) == 0: df = pd.DataFrame(text['data']['plate_list']) # columns=['热度','概念代码','涨跌幅','上榜统计','热度变化', # '市场id','概念名称','概念统计','排序','etf_rise_and_fall', # 'etf_product_id','etf_name','etf_market_id'] df = df.rename(columns={"code": "概念代码", "name": "概念名称"}) # df.columns=columns return df else: print('失败') return False

excel自动化截图的代码

def out_img(excel_file, sheet_list): try: print("开始截图,请耐心等待。。。") for i in range(len(sheet_list)): # sheet_list[i] + ".png" 为保存的图片名称(以sheet名称.png命名) excel2img.export_img( excel_file, sheet_list[i] + ".png", sheet_list[i], None) except Exception as e: print("截图失败!", e)

python 设置定时任务的代码

def job(): print("同花顺热门榜") data = Crawl_ths() df_data = data.get_stock_concept_rot_rank() df_data.to_excel("同花顺.xlsx") print(df_data) file = '同花顺.xlsx' from openpyxl import load_workbook wb = load_workbook(file) sheet_names = wb.get_sheet_names() # 获得工作簿的所有工作表名 # print(sheet_names) out_img(file, sheet_names)schedule.every().day.at("6:30").do(job)while True: schedule.run_pending() time.sleep(1) #

自动化流程定时运行:通过设置定时任务,让脚本在每天六点半自动运行。数据收集:脚本自动访问同花顺网站,解析并收集热榜数据。数据整理:将收集到的数据整理成文档格式。自动分享:通过微信API或第三方服务,将整理好的数据自动发送到公司的微信群成果:效率的提升与个人成长

通过使用Python自动化爬虫技术,小学弟不再需要每天早起手动收集数据。他可以将更多的时间和精力投入到更有价值和对他个人成长更有益的工作上。

结语:拥抱自动化,释放潜能

Python自动化爬虫技术不仅能够帮助我们从繁琐的手动工作中解放出来,还能够提高工作效率,让我们有更多的时间去思考、学习和成长。让我们一起拥抱自动化,释放潜能,成为真正的效率达人!

你是否也在为重复性工作而烦恼?在评论区留言,分享你的故事,让我们一起探讨如何用Python自动化技术简化工作,提升效率!

想要获取文中完整代码的朋友,关注公众号后,私信“同花顺"链接自动飘落

数海丹心

大数据和人工智能知识分享与应用

108篇原创内容

公众号

0 阅读:0

我是智能取经人

简介:感谢大家的关注