Spark编程基础及项目实践题库练习题集带答案高职.docx
《Spark编程基础及项目实践题库练习题集带答案高职.docx》由会员分享,可在线阅读,更多相关《Spark编程基础及项目实践题库练习题集带答案高职.docx(20页珍藏版)》请在第一文库网上搜索。
1、Spark编程基础及项目实践题库练习题集带答案习题11选择题(1)下列哪个不是大数据的特征?(D)A. Vo1umeB. VarietyC. Ve1ocityD. Variance(2)下列不属于大数据技术的是(C)。A.大数据采集技术B.大数据存储及管理技术C.财务报表分析技术D.大数据分析及挖掘技术(3)下列不属于SPark生态系统的是(B)。A. SparkStreamingB. StormC. SharkSQ1D.SparkR(4)下列适合SPark大数据处理场景的是(D)。A.复杂的批处理B.基于历史数据的交互式查询C.基于实时数据流的数据处理D. PB级的数据存储(5)下列不是SP
2、ark的部署模式的是(C)。A.单机式B.单机伪分布式C.列分布式D.完全分布式2.操作题使用Hadoop用户名登录1inux系统,启动HadoP,使用Hadoop提供的She11完成如下操作:(1)在1inUX系统的本地文件系统的“/home/hadoop”目录下新建一个文本文件test.txt,并在该文件中随意输入一些内容,然后上传至IJHDFS的/data/input”目录下。$vihomehadooptest.tt$hdfsdfs-puthomehadooptest.ttdatainput(2)在SPark-SheI1中读取1inUX系统的本地文件“/home/hadoop/test.
3、txt”,然后统计出文件的行数。$cdusr1oca1spark$./bin/spark-she11sca1ava1textFi1e=sc.textFi1e(fi1ehomehadooptest.txt)sca1atextFi1e.count()(3)在spark-she11中读取HDFS系统文件“/data/input/test.txt(如果文件不存在,请先创建),然后统计出文件的行数。sca1ava1textFi1e=sc.textFi1e(hdfs:/1oca1host:9000/user/hadoop/test.txt)sca1atextFi1e.count()第二章习题答案实训代码完
4、整程序如下:文件studentinfo,txt的内容如图1所示,注意在Windows平台下将studentinfo,txt保存为UTF-8的格式。0102030405060708091011111122223333小汗乐甜源田一铭漫圾/Jv凯一k品云甜小-树天小正张李王王赵李王张王张李周女男男女男女男男男男女男20天津1312231665819晾1583390778920晾1832267335919河北1317788990018河北1582256324119河北1397767564320山东1390090897820山东1516354226721四川1836674235020新15933782
5、78019云南131226738291913156783456图1学生信息在1inUX的usr1oca1ProjeCt目录下创建文件studentinfo,txt,使用命令touchstudentinfo.txt”。执行命令vimstudentinfo,txtw对文件进行编辑,按i”进入编辑模式,输入图2-40所示内容,按“Esc”退出编辑状态,再执行命令:wq”进行保存并退出。在usr1oca1ProjCCt目录下创建文件StUdCntInfO.sca1a,输入内容如下:importsca1a.ioimportuti1.contro1.BreaksobjectStudentInfovarar
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Spark 编程 基础 项目 实践 题库 习题集 答案 高职
