龙空技术网

大数据、云计算系统顶级架构师学习路线

银色灰龙 908

前言:

当前各位老铁们对“weka实现apriori算法实验总结”可能比较关切,大家都需要分析一些“weka实现apriori算法实验总结”的相关文章。那么小编同时在网络上搜集了一些关于“weka实现apriori算法实验总结””的相关内容,希望朋友们能喜欢,我们快快来了解一下吧!

阶段一、大数据、云计算 - Hadoop大数据开发技术

技术一、大数据运维之Linux基础

要想进入大数据领域必须打好Linux基础,以便更好地学习Hadoop,hbase,NoSQL,Spark,Storm,docker,openstack等众多技术。因为企业中的项目基本上都是使用Linux环境下搭建或部署的。

1)Linux系统概述

2)系统安装及相关配置

3)Linux网络基础

4)OpenSSH实现网络安全连接

5)vi文本编辑器

6)用户和用户组管理

7)磁盘管理

8)Linux文件和目录管理

9)Linux终端常用命令

10)linux系统监测与维护

技术二、大数据开发核心技术 - Hadoop 2.x从入门到精通

一,分布式文件系统HDFS用于存储海量数据,无论是Hive、HBase或者Spark数据存储在其上面;二、分布式资源管理框架YARN,是Hadoop 云操作系统(也称数据系统),管理集群资源和分布式数据处理框架MapReduce、Spark应用的资源调度与监控;分布式并行计算框架MapReduce目前是海量数据并行处理的一个最常用的框架。Hadoop 2.x的编译、环境搭建、HDFS Shell使用,YARN 集群资源管理与任务监控,MapReduce编程,分布式集群的部署管理(包括高可用性HA)必须要掌握的。

一、初识Hadoop 2.x

1)大数据应用发展、前景

2)Hadoop 2.x概述及生态系统

3)Hadoop 2.x环境搭建与测试

二、深入Hadoop 2.x

1)HDFS文件系统的架构、功能、设计

2)HDFS Java API使用

3)YARN 架构、集群管理、应用监控

4)MapReduce编程模型、Shuffle过程、编程调优

三、高级Hadoop 2.x

1)分布式部署Hadoop 2.x

2)分布式协作服务框架Zookeeper

3)HDFS HA架构、配置、测试

4)HDFS 2.x中高级特性

5)YARN HA架构、配置

6)Hadoop 主要发行版本(CDH、HDP、Apache)

四、实战应用

1)以现成数据进行实际的分析

2)原数据采集

3)数据的预处理(ETL)

4)数据的分析处理(MapReduce)

技术三、大数据开发核心技术 - 大数据仓库Hive

hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。其优点是学习成本低,可以通类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。

一、Hive 初识入门

1)Hive功能、体系结构、使用场景

2)Hive环境搭建、初级使用

3)Hive原数据配置、常见交互方式

二、Hive深入使用

1)Hive中的内部表、外部表、分区表

2)Hive 数据迁移

3)Hive常见查询(select、where、distinct、join、group by)

4)Hive 内置函数和UDF编程

三、Hive高级进阶

1)Hive数据的存储和压缩

2)Hive常见优化(数据倾斜、压缩等)

四、结合【北风网用户浏览日志】实际案例分析

1)依据业务设计表

2)数据清洗、导入(ETL)

3)使用HiveQL,统计常见的网站指标

技术四、大数据协作框架 - Sqoop/Flume/Oozie

Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL,Oracle ,Postgres等)中的数据导进到关系型数据库中。Sqoop项目开始于2009年,最早是作为Hadoop的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速的迭代开发,Sqoop独立成为一个Apache项目。

一、数据转换工具Sqoop

1)Sqoop功能、使用原则

2)将RDBMS数据导入Hive表中(全量、增量)

3)将HDFS上文件导出到RDBMS表中

二、文件收集框架Flume

1)Flume 设计架构、原理(三大组件)

2)Flume初步使用,实时采集数据

3)如何使用Flume监控文件夹数据,实时采集录入HDFS中 4)任务调度框架Oozie

三、Oozie功能、安装部署

1)使用Oozie调度MapReduce Job和HiveQL

2)定时调度任务使用

技术五、大数据Web开发框架 - 大数据WEB 工具Hue

Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于Python Web框架Django实现的。通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行MapReduce Job等等。

1)Hue架构、功能、编译

2)Hue集成HDFS

3)Hue集成MapReduce

4)Hue集成Hive、DataBase

5)Hue集成Oozie

技术六、大数据核心开发技术 - 分布式数据库HBase从入门到精通

HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。HBase在Hadoop之上提供了类似于Bigtable的能力,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群

一、HBase初窥使用

1)HBase是什么、发展、与RDBMS相比优势、企业使用

2)HBase Schema、表的设计

3)HBase 环境搭建、shell初步使用(CRUD等)

二、HBase 深入使用

1)HBase 数据存储模型

2)HBase Java API使用(CRUD、SCAN等)

3)HBase 架构深入剖析

4)HBase 与MapReduce集成、数据导入导出

三、HBase 高级使用

1)如何设计表、表的预分区(依据具体业务分析讲解)

2)HBase 表的常见属性设置(结合企业实际)

3)HBase Admin操作(Java API、常见命令)

四、数据分析

1)依据需求设计表、创建表、预分区

2)进行业务查询分析

3)对于密集型读和密集型写进行HBase参数调优

技术七、Spark技术实战之基础篇 -Scala语言从入门到精通

Scala具有数据处理的天然优势,Scala是未来大数据处理的主流语言

1)-Spark的前世今生

2)-Scala用途

3)-Scala基础语法

4)-Scala条件控制与循环

5)-Scala函数入门

6)-Scala函数入门之默认参数和带名参数

7)-Scala函数入门之变长参数

8)-Scala函数入门之过程、lazy值和异常

9)-Scala数组操作之Array、ArrayBuffer以及遍历数组

10)-Scala数组操作之数组转换

11)-ScalaMap与Tuple

12)-Scala面向对象编程之类

13)-Scala面向对象编程之对象

14)-Scala面向对象编程之继承

15)-Scala面向对象编程之Trait

16)-Scala函数式编程

17)-Scala函数式编程之集合操作

18)-Scala模式匹配

19)-Scala类型参数

20)-Scala隐式转换与隐式参数

21)-Scala之Actor入门

技术八、大数据核心开发技术 - 内存计算框架Spark

Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点。启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark Streaming: 构建在Spark上处理Stream数据的框架,基本的原理是将Stream数据分成小的时间片断(几秒),以类似batch批量处理的方式来处理这小部分数据

1)Spark 初识入门

2)Spark 概述、生态系统、与MapReduce比较

3)Spark 编译、安装部署(Standalone Mode)及测试

4)Spark应用提交工具(spark-submit,spark-shell)

5)Scala基本知识(变量,类,高阶函数)

6)Spark 核心RDD

7)RDD特性、常见操作、缓存策略

8)RDD Dependency、Stage常、源码分析

9)Spark 核心组件概述

10)案例分析

11)Spark 高阶应用

12)Spark on YARN运行原理、运行模式及测试

13)Spark HistoryServer历史应用监控

14)Spark Streaming流式计算

15)Spark Streaming 原理、DStream设计

16)Spark Streaming 常见input、out

17)Spark Streaming 与Kafka集成

技术九、大数据核心开发技术 - Spark深入剖析

1)Scala编程、Hadoop与Spark集群搭建、Spark核心编程、Spark内核源码深度剖析、Spark性能调优

2)Spark源码剖析

技术十、大数据核心开发技术 - Storm实时数据处理

Storm是Twitter开源的分布式实时大数据处理框架,被业界称为实时版Hadoop。 随着越来越多的场景对Hadoop的MapReduce高延迟无法容忍,比如网站统计、推荐系统、预警系统、金融系统(高频交易、股票)等等, 大数据实时处理解决方案(流计算)的应用日趋广泛,目前已是分布式技术领域最新爆发点,而Storm更是流计算技术中的佼佼者和主流。 按照storm作者的说法,Storm对于实时计算的意义类似于Hadoop对于批处理的意义。Hadoop提供了map、reduce原语,使我们的批处理程序变得简单和高效。 同样,Storm也为实时计算提供了一些简单高效的原语,而且Storm的Trident是基于Storm原语更高级的抽象框架,类似于基于Hadoop的Pig框架, 让开发更加便利和高效。

1)Storm简介

2)Storm原理和概念

3)Zookeeper集群搭建及基本使用

4)Storm集群搭建及测试

5)API简介和入门案例开发

6)Spout的Tail特性、storm-starter及maven使用、Grouping策略

7)实例讲解Grouping策略及并发

8)并发度详解、案例开发(高并发运用)

9)案例开发——计算网站PV,通过2种方式实现汇总型计算。

10)案例优化引入Zookeeper锁控制线程操作

11)计算网站UV(去重计算模式)

12)【运维】集群统一启动和停止shell脚本开发

13)Storm事务工作原理深入讲解 14)Storm事务API及案例分析

15)Storm事务案例实战之 ITransactionalSpout

16)Storm事务案例升级之按天计算

17)Storm分区事务案例实战

18)Storm不透明分区事务案例实战

19)DRPC精解和案例分析

20)Storm Trident 入门

21)Trident API和概念

22)Storm Trident实战之计算网站PV

23)ITridentSpout、FirstN(取Top N)实现、流合并和Join

24)Storm Trident之函数、流聚合及核心概念State

25)Storm Trident综合实战一(基于HBase的State)

26)Storm Trident综合实战二

27)Storm Trident综合实战三

28)Storm集群和作业监控告警开发

技术十一、企业大数据平台高级应用

1)企业大数据平台概述

2)大数据平台基本组件

3)Hadoop 发行版本、比较、选择

4)集群环境的准备(系统、基本配置、规划等)

5)搭建企业大数据平台

6)以实际企业项目需求为依据,搭建平台

7)需求分析(主要业务)

8)框架选择(Hive\HBase\Spark等)

9)真实服务器手把手环境部署

10)安装Cloudera Manager 5.3.x

11)使用CM 5.3.x安装CDH 5.3.x

12)如何使用CM 5.3.x管理CDH 5.3.x集群

13)基本配置,优化

14)基本性能测试

15)各个组件如何使用

技术十二、项目实战:驴妈妈旅游网大型离线数据电商分析平台

离线数据分析平台是一种利用hadoop集群开发工具的一种方式,主要作用是帮助公司对网站的应用有一个比较好的了解。尤其是在电商、旅游、银行、证券、游戏等领域有非常广泛,因为这些领域对数据和用户的特性把握要求比较高,所以对于离线数据的分析就有比较高的要求了。

1)Flume、Hadoop、Hbase、Hive、Oozie、Sqoop、离线数据分析,SpringMVC,Highchat

2)Flume+Hadoop+Hbase+SpringMVC+MyBatis+MySQL+Highcharts实现的电商离线数据分析

3)日志收集系统、日志分析、数据展示设计

技术十三、项目实战:电商实时数据分析系统

1)全面掌握Storm完整项目开发思路和架构设计

2)掌握Storm Trident项目开发模式

3)掌握Kafka运维和API开发、与Storm接口开发

4)掌握HighCharts各类图表开发和实时无刷新加载数据

5)熟练搭建CDH5生态环境完整平台

6)灵活运用HBase作为外部存储

7)可以做到以一己之力完成从后台开发(Storm、Kafka、Hbase开发)

到前台HighCharts图表开发、Jquery运用等,所有工作一个人搞定!

可以一个人搞定淘宝双11大屏幕项目!

技术十四、项目实战:大型离线电商数据分析平台

了解在Spark技术生态栈中最常用的三个技术框架,Spark Core、Spark SQL和Spark Streaming,进行离线计算和实时计算业务模块的开发。实现了包括用户访问session分析、页面单跳转化率统计、热门商品离线统计、 广告点击流量实时统计4个业务模块。过合理的将实际业务模块进行技术整合与改造,该项目要完全涵盖Spark Core、Spark SQL和Spark Streaming这三个技术框架中几乎所有的功能点、知识点以及性能优化点。仅一个项目,即可全面掌握Spark技术在实际项目中如何实现各种类型的业务需求!还要注意性能调优、troubleshooting以及数据倾斜解决方案等知识和技术

真实还原完整的企业级大数据项目开发流程:

项目中包括数据分析、需求分析、方案设计、数据库设计、编码实现、功能测试、性能调优、troubleshooting与解决数据倾斜(后期运维)等环节。

阶段二、Python基础与爬虫实战分析

技术十五、Python基础与网络爬虫

如何快速有效的处理海量数据,并从中分析出宝贵的信息内容是每一个架构师和开发者梦寐以求的目标;对于运维人员来说,怎样部署维护庞大复杂的集群系统也是一个非常现实的问题。了解阿里云的DRDS、RDS、OTS、ODPS、ADS及DPC等相关数据处理和分析服务。

1)Python语言开发要点详解

2)Python数据类型

3)函数和函数式编程

4)面向对象编程

5)网页爬虫

阶段三、大数据、云计算 - Java企业级核心应用

技术十六、深入Java性能调优

在java应用程序上要掌握技巧和思想,深入剖析软件设计层面、代码层面、JVM虚拟机层面的优化方法,理论结合实际,使用丰富的示例深入研究。

技术十七、JAVA企业级开放必备高级技术(Weblogic Tomcat集群 Apach集群)

Java自面世后就非常流行,发展迅速,对C++语言形成有力冲击。在全球云计算和移动互联网的产业环境下,Java更具备了显著优势和广阔前景,那么滋生的基于java项目也越来越多,对java运行环境的要求也越来越高,很多java的程序员只知道对业务的扩展而不知道对java本身的运行环境的调试,例如虚拟机调优,服务器集群等。所以要具备一定的高级技术才行。

阶段四、大数据、云计算 - 分布式集群、PB级别网站性能优化

技术十八、大数据高并发系统架构实战方案(LVS负载均衡、Nginx、共享存储、海量数据、队列缓存 )

随着互联网的发展,高并发、大数据量的网站要求越来越高。而这些高要求都是基础的技术和细节组合而成的。内容包括:LVS实现负载均衡、Nginx高级配置实战、共享存储实现动态内容静态化加速实战、缓存平台安装配置使用、mysql主从复制安装配置实战等。

技术十九、大数据高并发服务器实战(Linux+Nginx+Java+Memcached+Redis)

随着Web技术的普及,Internet上的各类网站第天都在雪崩式增长。但这些网站大多在性能上没做过多考虑。当然,它们情况不同。有的是Web技术本身的原因(主要是程序代码问题),还有就是由于Web服务器未进行优化。不管是哪种情况,一但用户量在短时间内激增,网站就会明显变慢,甚至拒绝放访问。要想有效地解决这些问题,就只有依靠不同的优化技术。本课程就是主要用于来解决大型网站性能问题,能够承受大数据、高并发。主要涉及 技术有:nginx、tomcat、memcached、redis缓存、负载均衡等高级开发技术

技术二十、项目实战:PB级通用电商网站性能优化

通过一个通用电商订单支付模块,外加淘宝支付接口的实现(可用于实际项目开发),剖析并分析过程中可能遇到的各种性能瓶颈及相关的解决方案与优化技巧。最终目标是迅速掌握Linux下的开发知识,并对涉及到nginx、tomcat、memcached、redis缓存、负载均衡等高级开发技术有一个全面的了解

阶段五、大数据、云计算 - 数据挖掘、分析 & 机器学习(赠送)

技术二十一、玩转大数据:深入浅出大数据挖掘技术(Apriori算法、Tanagra工具、决策树)

所谓“深入”,指得是从数据挖掘的原理与经典算法入手。其一是要了解算法,知道什么场景应当应用什么样的方法;其二是学习算法的经典思想,可以将它应用到其他的实际项目之中;其三是理解算法,让数据挖掘的算法能够应用到您的项目开发之中去。所谓“浅出”,指得是将数据挖掘算法的应用落实到实际的应用中。了解算法的应用:一是微软公司的SQL Server与Excel等工具实现的数据挖掘;二是著名开源算法的数据挖掘,如Weka、KNIMA、Tanagra等开源工具;三是利用C#语言做演示来完成数据挖掘算法的实现。根据实际的引用场景,数据挖掘技术通常分为分类器、关联分析、聚类算法等三大类别。结合一些商业分析工具、开源工具或编程等方式来了解具体的应用方法

技术二十二、Lucene4.X实战类baidu搜索的大型文档海量搜索系统

了解Lucene4的发展历史,开发环境搭建,分析lucene4的中文分词原理,了解lucenne4的系统架构,分析lucene4索引实现原理及性能优化,了解关于lucene4的搜索算法优化及利用java结合lucene4实现类百度文库的全文检索功能等相对高端实用的内容。

技术二十三、快速上手数据挖掘之solr搜索引擎(Solr集群、KI分词、项目实战)

了解开源搜索引擎服务框架solr5.3.1,利用Tomcat8搭建了solr的集群服务;了解solr的开发和二次开发,包括在hadoop集群的是利用,海量数据的索引和实时检索,通过了解、学习、安装、配置、集成等步骤将solr集成到项目中。

技术二十四、项目实战:SPSS Modeler数据挖掘项目实战

SS Modeler是业界极为著名的数据挖掘软件,其前身为SPSS Clementine。SPSS Modeler内置丰富的数据挖掘模型,以其强大的挖掘功能和友好的操作习惯,深受用户的喜爱和好评,成为众多知名企业在数据挖掘项目上的软件产品选择。

技术二十五、数据层交换和高性能并发处理(开源ETL大数据治理工具)

ETL是数据的抽取清洗转换加载的过程,是数据进入数据仓库进行大数据分析的载入过程,目前流行的数据进入仓库的过程有两种形式,一种是进入数据库后再进行清洗和转换,另外一条路线是首先进行清洗转换再进入数据库,我们的ETL属于后者。 大数据的利器大家可能普遍说是hadoop,但是大家要知道如果我们不做预先的清洗和转换处理,我们进入hadoop后仅通过mapreduce进行数据清洗转换再进行分析,垃圾数据会导致我们的磁盘占用量会相当大,这样无形中提升了我们的硬件成本(硬盘大,内存小处理速度会很慢,内存大cpu性能低速度也会受影响),因此虽然hadoop理论上解决了烂机器拼起来解决大问题的问题,但是事实上如果我们有更好的节点速度必然是会普遍提升的,因此ETL在大数据环境下仍然是必不可少的数据交换工具。

技术二十六、零基础数据分析与挖掘R语言实战

对于从未接触过数据分析的学员,从最基础的R语法开始讲起,逐步进入到目前各行业流行的各种分析模型。大致可分为基础和实战两个方面。 基础部分包括R语法和统计思维两个主题,通过R语法了解R语言中的各种特色数据结构,以及如何从外部抓去数据,如何使用包和函数。统计思维单元会指导如何用统计学的思想快速的发现数据特点或者模式,并利用R强大的绘图能力做可视化展现。结合案例了解回归、聚类、数据降维、关联规则、决策树这5中最基础的数据分析模型,并应用到自己的工作环境中。

技术二十七、深入浅出Hadoop Mahout数据挖掘实战(算法分析、项目实战、中文分词技术)

Mahout 是 Apache Software Foundation(ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。内容包括:Mahout数据挖掘工具 及Hadoop实现推荐系统的综合实战,涉及到MapReduce、Pig和Mahout的综合实战

技术二十八、大数据项目实战之Python金融应用编程(数据分析、定价与量化投资)

近年来,金融领域的量化分析越来越受到理论界与实务界的重视,量化分析的技术也取得了较大的进展,成为备受关注的一个热点领域。所谓金融量化,就是将金融分析理论与计算机编程技术相结合,更为有效的利用现代计算技术实现准确的金融资产定价以及交易机会的发现。量化分析目前已经涉及到金融领域的方方面面,包括基础和衍生金融资产定价、风险管理、量化投资等。随着大数据技术的发展,量化分析还逐步与大数据结合在一起,对海量金融数据实现有效和快速的运算与处理。在量化金融的时代,选用一种合适的编程语言对于金融模型的实现是至关重要的。在这方面,Python语言体现出了不一般的优势,特别是它拥有大量的金融计算库,并且可以提供与C++,java等语言的接口以实现高效率的分析,成为金融领域快速开发和应用的一种关键语言,由于它是开源的,降低了金融计算的成本,而且还通过广泛的社交网络提供大量的应用实例,极大的缩短了金融量化分析的学习路径。

技术二十九、项目实战:云计算处理大数据深度、智能挖掘技术+地震数据挖掘分析

了解基于云计算的大数据处理技术,了解一款高效的、实时分析处理海量数据的强有力工具——数据立方。数据立方是针对大数据处理的分布式数据库,能够可靠地对大数据进行实时处理,具有即时响应多用户并发请求的能力。了解数据立方产生的背景,数据立方的整体架构以及安装和详细开发流程以及综合应用实例。无论是对于云计算的初学者还是想进一步深入学习大数据处理技术的研发人员、研究人员都有很好的参考价值。

阶段六、大数据、云计算 - 大数据运维 & 云计算技术篇

技术三十、Zookeeper从入门到精通(开发详解,案例实战,Web界面监控)

ZooKeeper是Hadoop的开源子项目(Google Chubby的开源实现),它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、命名服务、分布式同步、组服务等。Zookeeper的Fast Fail 和 Leader选举特性大大增强了分布式集群的稳定和健壮性,并且解决了Master/Slave模式的单点故障重大隐患,这是越来越多的分布式产品如HBase、Storm(流计算)、S4(流计算)等强依赖Zookeeper的原因。Zookeeper在分布式集群(Hadoop生态圈)中的地位越来越突出,对分布式应用的开发也提供了极大便利,这是迫切需要深入学习Zookeeper的原因。主要内容包括Zookeeper深入、客户端开发(Java编程,案例开发)、日常运维、Web界面监控。

技术三十一、云计算Docker从零基础到专家实战

Docker是一种开源的应用容器引擎,使用Docker可以快速地实现虚拟化,并且实现虚拟化的性能相对于其他技术来说较高。并且随着云计算的普及以及对虚拟化技术的大量需求,使得云计算人才供不应求,所以一些大型企业对Docker专业技术人才需求较大。从最基础的Dokcer原理开始学起,深入浅出,并且结合实例实战。

技术三十二、项目实战:云计算Docker全面项目实战(Maven+Jenkins、日志管理ELK、WordPress博客)

2013年,云计算领域从此多了一个名词“Docker”。以轻量著称,更好的去解决应用打包和部署。之前我们一直在构建Iaas,但通过Iaas去实现统一功 能还是相当复杂得,并且维护复杂。将特殊性封装到镜像中实现几乎一致得部署方法,它就是“Docker”,以容器为技术核心,实现了应用的标准化。企业可 以快速生成研发、测试环境,并且可以做到快速部署。实现了从产品研发环境到部署环境的一致化。Docker让研发更加专注于代码的编写,并且以“镜像”作 为交付。极大的缩短了产品的交付周期和实施周期。

技术三十三、深入浅出OpenStack云计算平台管理

OpenStack是 一个由Rackspace发起、全球开发者共同参与的开源项目,旨在打造易于部署、功能丰富且易于扩展的云计算平台。OpenStack企图成为数据中心 的操作系统,即云操作系统。从项目发起之初,OpenStack就几乎赢得了所有IT巨头的关注,在各种OpenStack技术会议上人们激情澎湃,几乎所有人都成为OpenStack的信徒。 重点了解openstack的部署和网络部分。强调实际的动手操作,使用vmware模拟实际的物理平台,大家可以自己动手去实际搭建和学习openstack。课程内容包括云计算的基本知识,虚拟网络基础,openstack部署和应用,openstack网络详解等。

阶段七、人工智能&机器学习&深度学习&推荐系统

技术三十四、机器学习及实践

了解PyMC语言以及一系列常用的Python数据分析框架,如NumPy、SciPy和Matplotlib,通过概率编程的方式,了解贝叶斯推断的原理和实现方法。该方法常常可以在避免引入大量数学分析的前提下,有效地解决问题。课程中使用的案例往往是工作中遇到的实际问题,有趣并且实用。通过对本课程的学习,学员可以对分类、回归等算法有较为深入的了解,以Python编程语言为基础,在不涉及大量数学模型与复杂编程知识的前提下,熟悉并且掌握当下最流行的机器学习算法,如回归、决策树、SVM等,并通过代码实例来 展示所讨论的算法的实际应用。

1)Python基础

2)数据基础

3)机器学习入门

4)回归

5)决策树与随机森林

6)SVM

7)聚类

8)EM

9)贝叶斯

10)主题模型LDA

11)马尔科夫模型

12)实际应用案例

13)SparkMLlib机器学习

技术三十五、深度学习与TensorFlow实战

探索TensorFlow(基于1.0版本API)。了解TensorFlow的基础原理,TF和其他框架的异同。并用具体的代码完整地实现了各种类型的深度神经网络:AutoEncoder、MLP、CNN(AlexNet,VGGNet,Inception Net,ResNet)、Word2Vec、RNN(LSTM,Bi-RNN)、Deep Reinforcement Learning(Policy Network、Value Network)。此外,还要了解TensorBoard、多GPU并行、分布式并行、TF.Learn和其他TF.Contrib组件。

1)TensorFlow基础

2)TensorFlow和其他深度学习框架的对比

3)TensorFlow第一步

4)TensorFlow实现自编码器及多层感知机

5)TensorFlow实现卷积神经网络

6)TensorFlow实现经典卷积神经网络

7)TensorFlow实现循环神经网络及Word2Vec

8)TensorFlow实现深度强化学习

9)TensorBoard、多GPU并行及分布式并行

技术三十六、推荐系统

了解开发推荐系统的方法,尤其是许多经典算法,重点探讨如何衡量推荐系统的有效性。课程内容分为基本概念和进展两部分:前者涉及协同推荐、基于内容的推荐、基于知识的推荐、混合推荐方法,推荐系统的解释、评估推荐系统和实例分析;后者包括针对推荐系统的攻击、在线消费决策、推荐系统和下一代互联网以及普适环境中的推荐。课程中包含大量的图、表和示例,有助于学员理解和把握相关知识等。

1)协同过滤推荐

2)基于内容的推荐

3)基于知识的推荐

4)混合推荐方法

5)推荐系统的解释

6)评估推荐系统

7)案例研究

技术三十七、人工智能

主要了解人工智能的基本原理、实现技术及其应用,国内外人工智能研究领域的进展和发展方向。内容主要分为4个部分:第1部分是搜索与问题求解,系统地叙述了人工智能中各种搜索方法求解的原理和方法,内容包括状态空间和传统的图搜索算法、和声算法、禁忌搜索算法、遗传算法、免疫算法、粒子群算法、蚁群算法和Agent技术等;第2部分为知识与推理,讨论各种知识表示和处理技术、各种典型的推理技术,还包括非经典逻辑推理技术和非协调逻辑推理技术;第3部分为学习与发现,讨论传统的机器学习算法、神经网络学习算法、数据挖掘和知识发现技术;第4部分为领域应用,分别讨论专家系统开发技术和自然语言处理原理和方法。通过对这些内容的讲解能够使学员对人工智能的基本概念和人工智能系统的构造方法有一个比较清楚的认识,对人工智能研究领域里的成果有所了解。

1)AI的产生及主要学派

2)人工智能、专家系统和知识工程

3)实现搜索过程的三大要素

4)搜索的基本策略

5)图搜索策略

6)博弈与搜索

7)演化搜索算法

8)群集智能算法

9)记忆型搜索算法

10)基于Agent的搜索

11)知识表示与处理方法

12)谓词逻辑的归结原理及其应用

13)非经典逻辑的推理

14)次协调逻辑推理

标签: #weka实现apriori算法实验总结