SparkContext对象的构建 以及 Spark程序的退出, 由 Driver 负责执行 具体的数据处理步骤, 由Executor在执行. 其实简单来说就是: 非数据处理的部分由Driver工作 数据处理的部分(干活)由Executor工作 要知道: Executor不仅仅是一个, 视集群规模,Executor的数量可以是很多的. 那么在这里一定要有一个概念: 代码中的数据处理部分,是由非常多的服务器(Executor)执行的. 这也是分布式代码执行的概念.本栏目推荐文章代码随想录 day18 找树左下角的值 路径总和 从中序与后序遍历序列构造二叉树用jacoco统计JAVA项目测试代码覆盖率分布式限流——基于Redis的Lua脚本限流实现(坚持每天写算法)基础算法复习与学习part1基础算法1-7——高精度减法(处理t=1和t>1代码的写法,t为操作次数)GDB调试之源代码查看与管理(六)写代码时如何合理的画图表达逻辑结构十行python代码实现文件去重,去除重复文件的脚本[代码随想录] 第四天idea 中java代码修改后运行代码不生效一行代码创建网页(html)