1. 程式人生 > >spark 安裝與python pycharm搭建

spark 安裝與python pycharm搭建

Spark介紹與安裝教程(Linux系統)

這裡寫圖片描述

Spark的安裝教程

安裝JDK與Scala

  1. 下載JDK:sudo apt-get install openjdk-7-jre-headless。
  2. 解壓縮:tar –zxvf scala-2.10.6.tgz。
  3. 進入sudo vim /etc/profile在下面新增路徑:
PATH=$PATH:${SCALA_HOME}/bin
  • 1
  • 1
  1. 使修改生效source /etc/profile。
  2. 在命令列輸入scala測試。

安裝Spark

  1. 解壓縮: tar –zxvf spark-1.5.1-bin-hadoop2.6.tgz
  2. 進入sudo vim /etc/profile在下面新增路徑:
SPARK_HOME=/home/spark/spark-lectures/spark-1.5.1-bin-hadoop2.6 (解壓後的包所在的路徑)
PATH=$PATH:${SPARK_HOME}/bin
  • 1
  • 2
  • 1
  • 2

測試

  1. 在命令列輸入:spark-shell(可在安裝目錄中bin裡面找到) 
    這裡寫圖片描述
出現以上介面說明spark安裝完成

python環境的安裝

執行pyspark命令,你會看到以下結果:

1234567891011121314151617~$pysparkPython2.7.8(
default,Dec22014,12:45:58)[GCC4.2.1Compatible Apple LLVM6.0(clang-600.0.54)]on darwinType"help","copyright","credits"or"license"formore information.Spark assembly has been built with Hive,including Datanucleus jars on classpathUsing Sparks defaultlog4j profile:org/apache/spark/log4j-defaults.properties[snip
]Welcome to____              __/__/__  ___ _____//___\\/_\/_`/__/`_//__/.__/\_,_/_//_/\_\version1.2.0/_/Using Python version2.7.8(default,Dec2201412:45:58)SparkContext available assc.>>>

簡略Spark輸出

Spark(和PySpark)的執行可以特別詳細,很多INFO日誌訊息都會列印到螢幕。開發過程中,這些非常惱人,因為可能丟失Python棧跟蹤或者print的輸出。為了減少Spark輸出 – 你可以設定$SPARK_HOME/conf下的log4j。首先,拷貝一份$SPARK_HOME/conf/log4j.properties.template檔案,去掉“.template”副檔名。

Python
1

相關推薦

spark 安裝python pycharm搭建

Spark介紹與安裝教程(Linux系統) Spark的安裝教程 安裝JDK與Scala 下載JDK:sudo apt-get install openjdk-7-jre-headless。解壓縮:tar –zxvf scala-2.10

Ubuntu 16.04下Spark安裝開發環境搭建

https://blog.csdn.net/lengconglin/article/details/77847623     一、Spark執行環境     Spark是Scala寫的,執行在JVM上,所以執行環境Java7+,如果使用Python

Spark 安裝啟動

nbsp after example explicit 解決 cdh driver fail 建議 1.安裝 下載cdh5(http://archive.cloudera.com/cdh5/cdh/5/) 中下載bin.tar到software,然後解壓到應用文件夾(建議

數據庫服務器的安裝配置 如何搭建數據庫專用服務器

mar sso 混合模式 api 需要 按鈕 有一個 通過 性能 理論基礎 數據庫服務器是當今應用最為廣泛的一種服務器類型,許多企業在信息化建設過程中都要購置數據庫服務器。數據庫服務器主要用於存儲、查詢、檢索企業內部的信息,因此需要搭配專用的數據庫系統,對服務器的兼容性、可

Zookeeper--0200--安裝集群搭建、常用命令、客戶端工具

客戶端軟件 href 根節點 log nbsp ron lan 常用命令 .cn 看這裏, http://www.cnblogs.com/lihaoyang/p/8358153.html 1,先使用可視化客戶端軟件 ZooInspector 連接上集群中的一個節點,看下z

ubantu下安裝pip,python,pycharm,numpy,scipy,matplotlibm,pandas 以及sklearn

root orm jetbrains das current direct bee lan ase ubuntu 安裝 pip 及 pip 常用命令: https://blog.csdn.net/danielpei1222/article/details/62969815

Spark快速入門指南 – Spark安裝基礎使用

Apache Spark 是一個新興的大資料處理通用引擎,提供了分散式的記憶體抽象。Spark 正如其名,最大的特點就是快(Lightning-fast),可比 Hadoop MapReduce 的處理速度快 100 倍。此外,Spark 提供了簡單易用的 API,幾行程式碼

Ubuntu18.04下安裝anaconda和pycharm搭建TensorFlow

趁著昨晚的記憶還沒有忘記,寫下昨天在實驗室踩下的坑 一、更換軟體源 這裡我用的是清華的源,更換源的步驟如下: 1、備份原始檔 sudo cp /etc/apt/sources.list /etc/apt/sources.list.backup 2、開始修改原始檔,

Django的安裝伺服器的搭建的坑

一、安裝uwsgi 直接使用pip安裝就可以了,命令如下: pip install uwsgi 1.可能出現如下異常: raise Exception("you need a C compiler to build uWSGI") Exc

Spark部署開發環境搭建jjar執行

http://www.cnblogs.com/datahunter/p/4002331.html 1. 安裝JDK   解壓jdk安裝包到/usr/lib目錄: 1 sudo cp jdk-7u67-linux-x64.gz /usr/lib 2 cd /usr/l

Spark安裝基礎使用

Apache Spark 是一個新興的大資料處理通用引擎,提供了分散式的記憶體抽象。Spark 正如其名,最大的特點就是快(Lightning-fast),可比 Hadoop MapReduce 的處理速度快 100 倍。此外,Spark 提供了簡單易用的 API,幾行程式碼就能實現 WordCount。本教

Django的安裝伺服器的搭建

Django是一個開放原始碼的Web應用框架,由Python寫成。採用了MVC的軟體設計模式,是一個python定製框架,它源自一個線上新聞 Web 站點,於 2005 年以開源的形式被釋放出來。 Django 框架的核心元件有: 1.     用於建立模型的 2.  

spark 安裝執行

1.需要自己安裝一個sbt, spark 附帶的sbt不能用 2.$> sbt package [error] import org.apache.spark.SparkContext_ [error]        ^ [error] one error found

sublime text3 安裝python環境搭建

1.sublime text3 想要學習python語言,需要好用的編譯開發環境,python的安裝仍然推薦anaconda。anaconda自帶jupyter notebook,是一個線上的python root編譯環境,生成的檔案是.ipynb檔案,但可以

Anaconda安裝tensorflow環境搭建

最近開始學習tensorflow。去官方逛了一圈,發現可以支援原始碼安裝的,原本想嘗試下,但電腦開了虛擬機器後就成小霸王了,GPU的支援也不給力,就暫定在win7下先熟悉手上tensorflow。 目前1.3版本tensorflow提供C/C++、jave,p

一、Python安裝Pycharm使用入門

進入 epel源 targe ext width ngx enter date prefix 一、安裝Python 1、Linux下安裝 一般系統默認已安裝2.6.6版本,升級成2.7版本, 但 2.6 不能刪除,因為系統對它有依賴,epel源裏最新的也是2.6版本,所以以

[python]pycharm畫圖插件matplotlib、numpy、scipy的下載安裝

pytho 插件 免費 matplot RM AR ID sdn baidu 最近在用pycharm學習python語言,不得不感嘆python語言的強大與人性化! 但對於使用pycharm畫圖(較復雜的圖)就要用到幾個插件了,即matplotlib、numpy和scipy

Kafka:ZK+Kafka+Spark Streaming集群環境搭建(二)VMW安裝四臺CentOS,並實現本機它們能交互,虛擬機內部實現可以上網。

centos 失敗 sco pan html top n 而且 div href Centos7出現異常:Failed to start LSB: Bring up/down networking. 按照《Kafka:ZK+Kafka+Spark Streaming集群環

PyCharm(python的開發工具)的安裝破解

最近在進行python的入門學習,俗話說:工欲善其事,必先利其器。最初學習時,一款好的IDE(Integrated Development Environment)絕對是很重要的,有利於後期學習,並且今後工作中你最熟悉的IDE絕對是你入門時使用的IDE。 1.下載PyCharm安裝包。 地址:https:

python在windows上的虛擬環境virtualenv的安裝配置,工具是pycharm

安裝完python環境後會自動安裝上pip,使用pip安裝virtualenv 安裝virtualenv(或 virtualenvwrapper-win) 預設會安裝到當前目錄下: 如:安裝指令是: p