Spark学习之路 -网站地址

学习spark的网站地址:真心不错 https:wwwblogsqingyunzongp8899715.html https:wwwblogsqingyunzongcategory1202252.h

7月前560

Spark程序的入口之SparkContext

今天讲的是sparkContext,这是spark程序的入口,每次写spark程序,首先你得: new sparkContext(conf),参数里是sparkConf,也就是一些相关配置参数。SparkContext 允许d

7月前760

Spark环境搭建-Windows

Spark环境搭建-Windows 一、搭建环境简介。 1.1、相关材料的准备 • 以下是我们所要用到的环境,所有的安装包都可以到官网下载,也可以私信我的。 Python使用官方版的python- 3. 7. 2 版本 JDK使用 1

10月前860

Windows下Spark开发环境的搭建

1.Spark概述 Spark是一个快速、通用、可扩展的大数据处理引擎,最初由加州大学伯克利分校的AMPLab开发。Spark提供了一种基于内存的分布式计算模型,能够在大规模数据集上进行高效的数

2025-3-18950

Windows中下载并安装spark

前提:需要安装了jdk和python 步骤:安装spark+hadhoop(这两个要同时安装spark才可以运行) 下载并安装spark 1.从官网http:spar.apache上下载最新的版本,保存在你喜欢的位置(在我这,我把

2025-2-20900

Consider boosting spark.yarn.executor.memoryOverhead

前言 本文隶属于专栏《Spark异常问题汇总》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢! 本专

2025-1-311260

spark相关

文章目录 简介安装hdfs命令概念流程RDD函数运行模式standalone运行模式yarn运行模式 流处理监控端口监控文件停止任务问题 最后更新 2022.03.09 简介 分布式计算的前提是 计算的数据 分区后 各区无状态&#

2025-1-31540

Spark 安装与卸载 (windows 10)

文章目录 先决条件系统要求安装步骤步骤1:下载步骤2:解压缩步骤3:创建目录步骤5: 配置环境变量步骤6:Hadoop在Windo

2025-1-24750

Windows系统下的Spark环境配置

一:Spark的介绍 Apache Spark 是一个开源的分布式大数据处理引擎,它提供了一整套开发API,包括流计算和机器学习。Spark 支持批处理和流处理&#

2025-1-20840

windows搭建spark环境

一、软件准备 默认java开发环境是安装了的,不会的自己去查找。准备安装软件:scala(spark需要scala环境),spa

2024-12-28800

apache spark在windows7 下安装

1、下载spark  解压到 D盘,现在的版本是0.9.1 2、下载scala   安装到d:Program Files (x86)scala 安装好scala后需要配置环境变量 修改path这个变量&

2024-12-4820