大数据专业主要学什么 课程有哪些
大数据专业主要学什么
大数据需要学的:1、Java编程技术;2、Linux命令;3、Hadoop;4、Hive;5、Avro与Protobuf;6、ZooKeeper;7、HBase;8、phoenix等。
课程有哪些
大数据专业主要学习内容第一阶段:大数据前沿知识及hadoop入门,大数据前言知识的介绍,课程的介绍,Linux和unbuntu系统基础,hadoop的单机和伪分布模式的安装配置。
第二阶段:hadoop部署进阶。Hadoop集群模式搭建,hadoop分布式文件系统HDFS深入剖析。使用HDFS提供的api进行HDFS文件操作。Mapreduce概念及思想。
第三阶段:大数据导入与存储。mysql数据库基础知识,hive的基本语法。hive的架构及设计原理。hive部署安装与案例。sqoop安装及使用。sqoop组件导入到hive。
第四阶段:Hbase理论与实战。Hbase简介。安装与配置。hbase的数据存储。项目实战。
第五阶段:Spaer配置及使用场景。scala基本语法。spark介绍及发展历史,spark stant a lone模式部署。sparkRDD详解。
第六阶段:spark大数据分析原理。spark内核,基本定义,spark任务调度。sparkstreaming实时流计算。sparkmllib机器学习。sparksql查询。
大数据专业就业方向大数据专业是从数据管理、系统开发、海量数据分析和挖掘等方面系统,帮助企业掌握大数据应用中各种典型问题的解决方案的专业,就业方向数据开发与管理、企业管理、城市环境治理等方面。