如何讓學生學習大數據技術?
謝謝邀請回答!!!
俗話說:興趣是第一老師。我認為,當你選擇學習一門課程和技能時,你的個人興趣是至關重要,對于學習像大數據這樣抽象的技能更是如此。那么,如何學好大數據呢?我建議主要有以下3個方面:
1.學習Java語言和Linux操作系統,這兩個是學習大數據的基礎。主要深入學習Java的標準版JavaSE就可以,像Servlet、JSP、Tomcat、Struts等課程了解就可以,當然學習Hibernate或Mybites的原理也有必要,增加你對Java操作數據庫的理解,同時要學好Linux,對你快速掌握大數據相關技術有很大的裨益,能讓你更好的理解hadoop、hive、hbase等大數據軟件的運行環境和網絡環境配置。
2.當我們掌握了大數據的基礎后,還需學習哪些大數據技術?當然最關鍵的是學習Hadoop技術,它包括:HDFS、MapReduce和YARN,HDFS是存儲數據的地方,MapReduce是對數據進行處理計算,YARN是體現Hadoop平臺概念的重要組件,有了它大數據生態體系的其它軟件就能在hadoop上運行了。
3.學了以上大數據的技能后,可以作為你學大數據的一個節點。可以主要考慮進一步學習以下幾個技能:
(1)學習Zookeeper:這是個萬金油,安裝Hadoop的HA的時,就會用到它,以后要學的Hbase也會用到它。它一般用來存放一些相互協作的信息。
(2)學習Mysql:我們學習完大數據的處理知識后,接下來要學習小數據的處理工具mysql數據庫,你能在Linux上把它安裝好,運行起來,配置簡單的權限,修改root密碼,創建數據庫。
(3)學習Sqoop:這個是用于把Mysql里的數據導入到Hadoop里,也可以直接把Mysql數據表導出成文件再放到HDFS上。
(4)學習Hive:對于會SQL語法的來說,它就是神器,它能讓你處理大數據變的很簡單,不會再費勁的編寫MapReduce程序。
(5)學習Oozie:它可以幫你管理你的Hive或者MapReduce、Spark腳本,還能檢查你的程序是否執行正確,如出錯會給你發報警,并能幫你重試程序,最重要的是,還能幫你配置任務的依賴關系。
(6)學習Hbase:這是Hadoop生態體系中的NOSQL數據庫,他的數據是按照key和value的形式存儲的,它能用來做數據的排重,它與MYSQL相比能存儲的數據量大很多。
(7)學習Kafka:數據多了同樣也需要排隊處理,利用這個工具來做線上實時數據的入庫或入HDFS,可以與Flume的工具配合使用。
(8)學習Spark:它是用來彌補基于MapReduce處理數據速度上的缺點,其特點主要有:把數據裝載到內存中計算,而不是去讀慢的要死進化還特別慢的硬盤,特別適合做迭代運算。
總而言之,要學好大數據這門課程,不但要有刻苦認真、持之以恒的學習精神,而且還要向該行業的高手們討教學習經驗,采取理論知識與實操相結合的學習方法等,我相信你的付出必有所收獲!!???