北京python数据分析

¥面议

北京python数据分析

  1. 上课班制:
  2. Vip课小班课1 V 1大班课
  1. 上课时段:
  2. 双休班周末班晚班白天班全日制

课程简介:python数据分析

  1. 北京北大青鸟北大青鸟

课程详情 2022-06-25 15:03

数据方向:零基础入门班
报名条件:大专及以上学历
学时:436课时 (356技术课+80就业课) 3.5个月
学习内容:人工智能的七大模块+数据项目6个+就业课
目标岗位:数据分析师、数据建模工程师
学习方式.:自适应学习平台,一人一号
开课时间:随到随学,6人为一组,30人一个班
上课方式:线上+线下
学习时间:脱产班:周一到周五,8: 30-17:30

京东销售数据分析(数据量70w)
本次课程案例是京东销售数据分析,目标是帮助你建立数据分析的基本思考框架,初步掌握使用Python进行数据分析的基本流程和方法

python入门基础
本课程主要介绍Python语言的基础内容: 从搭建Python的开发环境开始,到最后掌握面向对象程序编程。通过大量的项目案例及综合案例,帮助学员快速掌握Python语言
python语法规则基础
python程序结构控制,包括python数据结构、函数和模块
python中的面向对象,介绍目前流行的面向对象编成思想,掌握python中的00P知识,通过项目练习巩固

python数据分析(入门)
学习数据分析的完整过程,如何使用Numpy、Pandas. Matplotib来处理和可视化数据,以及使用scikit-learn库实现k-means聚类。
1.数据准备: 数据检视、数据清理、数据拆合
2.数据建模:挖掘初始模型、改进模型
3.数据可视化:决定可视化参数、决定可视化形式、优化视觉效果

数据分析初级:人物关系
基于CBDB (中国历代人物传记资料库)开发课程案例,介绍数据分析的基本流程和方法,涉及的数据建模方法为聚类和决策树,学完之后能够使用Python处理工作场景中的简单数据分析。

python中级数据可视化
在大量数据的情况下, 如何让数据能够更直观,更高效的输出有用的信息就需要借助于数据可视化技术。通过项目实战完全掌握Matplotlib实现简单直观的数据可视化、 Echarts实现更丰富的交互需求,在此基础上认识更多的数据可视化库并灵活运用
matplotlib数据可视化
Pyecharts数据可视化
使用Echarts绘制可交互图形

python数据抓取
为了分析企业的人才需求,从智联招聘,前程无忧,拉勾网,boss直聘, 猎聘,中华英才网6家招聘网站按关键词爬取招聘信息,并实现使用爬取关键词和网站URL相结合的去重方式实现增量爬取等功能,最后将所有爬取的数据以csv格式保存
1.关系型数据库:使用MySQL数据库,创建MySQL数据库和表,MySQL数据管理、使用SQL语句查询数据库中的数据、SQL综合项目实战(房产项目)
2.使用第三方库实现页面抓取:通过本课的学习能够了解基本的网站构架知识和前端的,并且掌握使用基础的第三方库实现网页爬取,有助于从整体上理解网络爬虫的构架和相关技术(网络爬虫基础、使用python库抓取页面、html页面解析
3. Scrapy爬虫框架概述:爬虫的使用场景及常用框架、运行scrapy, 了解scrapy爬虫框架
4.提取网页数据:完成本课学习,可以掌握在Scrapy框架中使用xpath、css、 正则表达式提取网页中的数据的方法
5. Scrapy数据保存:数据在爬取提取后需要以恰当的形式保存下来,完成本课学习将掌握在Scrapy爬虫项目中使用Feed_ Exports和Pipeline保存爬取的数据的方法- (使用eed_ export输出保存数据,使用Piplines 保存到数据到MySQL,保存数据到MongoDB
6.爬虫工程师核心技能:反爬与反反爬、scrapy设置cookies与功能扩展
7. Selenium+浏览器加载动态数据:抓取动态页面、scrapy+selenum+浏览器抓取动态数据
8. APP数据爬取:掌握在移动互联网的时代分析APP接口、爬取APP中数据的方法(1.安装配置fiddler 2.使用scrapy抓取APP数据
9.分布式爬虫scrapy_ Redis: 掌握使用Scrapy_Redi s爬虫框架实现分布式爬虫的开发和部署的方法,达到大规模爬取数据的目的.包括:分布式爬虫介绍、搭建分布式测试环境、在分布式环境下使用Scrapy -Redis
10. Python数据分析:完成本课学习将学会NumPy、Pandas 和Matplotlib这些在Python数据分析领域使用极广的第三方库的使用方法、项目实例。

数据分析中级:金融数据、岗位分析
基于真实企业数据库开发案例, 重点介绍线性回归、逻辑回归、朴素贝叶斯、支持向量机SVM、神经网络MLP和RBF、 协同过滤等数据建模方法, 最终成为具有一定分析思维的数据分析师,满足就业需求
六个项目:公司交易预测、融资金额预测、公司去向预测、岗位薪资预测、应聘者推荐、推荐模型升级版:地点推荐系统、模型算法总结

Linux入门
1、使用Linux操作系统 2、SSH远程连接工具 3、VirtualBox环境安装 4、 Linux常用命令 5、 Linux Shel1编程6、Docker基本管理

数据实战——企业级项目

专业技能:
●Python语言:熟练掌握Python编程语言、C语言,
●了解SQL数据库指令和Linux 常用操作指令;
●数据分析:熟练使用Python语言中的Pandas、Numpy和Sklearn 库进行数据清洗、数据预处理、建模和数据分析;
●软件工具:熟练使用编程软件Pycharm和Jupyter notebook以及可视化工具Matplotlib和Pyecharts,以及github 远程分布式服务器基本操作;

技术提升空间
●机器学习:熟悉常见机器学习算法模型(逻辑回归、决策树、SVM、朴素贝叶斯、k-近邻,K-means等) 原理及其应用场景,并能够使用sklearm、gensim、 nltk 库搭建这些模型进行数据分析与数据挖掘;
●深度学习:熟悉常见深度学习算法模型(CNN、RNN、GRU、LSTM等)原理及其应用场景,并能够基于TensorFlow、keras 框架搭建网络模型;
●自然语言处理:熟悉自然语言处理相关任务(中文分词、文本分类、命名体识别、情感分析、智能问答客服等)的实现;
●NLP 算法模型:熟悉常见NLP算法模型( Word2vec. HMM、CRF、Seq2SeqAttention、bert、transformer、 TF-IDF 等)的原理和应用场景;
●数据库: MySQL数据库其他技能;数学基础较为扎实,英语水平较高,具有一定的英文文

python数据分析

推荐攻略查看全部

位置:北京91搜课网 > IT > python数据分析

0.452016s