Spark Setting
Spark를 실행할 때 여러가지 설정을 할 수 있다.
상세한 정보들은 너무 많기 때문에 help 명령어를 사용하여 어떤 설정을 할 수 있는지 확인해 볼 수 있다.
Spark 공식홈페이지에서 본인이 사용하는 Spark 버전에 따라 확인해봐도 된다.
간단 예시 spark-submit 예시
spark-submit \
--class {실행할 파일의 클래스} \
--name {어블리케이션 명} \
--master {클러스터 메니져 정보} \
--deploy-mode {디플로이 모드} \
--files {추가할 파일} \
--jars {추가할 Jars 파일들} \
--conf {추가할 설정} \
--driver-cores {드라이버 코어수} \
--driver-memory {드라이버 메모리} \
--executor-cores {익세큐터 코어수} \
--executor-memory {익세큐터 메모리} \
--num-executors {익세큐터 수} \
{실행할 파일 경로}
위와 같이 Spark Submit할 때 해도 되지만, spark-defaults.conf에 미리 설정하여 사용해도 된다.
Spark Submit
혹은spark-defaults.conf
에 추가한 값들이 모여 Spark Properties에 반영된다.
설정 우선순위 :code
->spark-submit
->spark-defaults.conf
[ Reference ]
개인적으로 공부한 내용 포스팅 중
잘못된 정보는 지적해주시면 좋겠습니다!
'프로그래밍 및 IT > Spark' 카테고리의 다른 글
SparkSql (0) | 2023.11.28 |
---|---|
spark-scheduling (0) | 2023.11.28 |
WordCount (0) | 2023.10.13 |
RDD Action (0) | 2023.10.13 |
RDD Transformation (0) | 2023.10.13 |