1. 程式人生 > >如何在Spyder中執行spark

如何在Spyder中執行spark

最終成的配置方法如下:1.安裝好JDK SPARK並設定環境變數。
2.安裝號spyder
3.啟動spyder
在 tools ==> pythonpath manager 中加入如下2個路徑
/opt/spark/python
/opt/spark/python/lib
將/opt/spark 替換成自己的spark實際安裝目錄
4.在SPARK_HOME/python/lib 下會有一個類似py4j-0.9-src.zip的壓縮檔案
將其解壓到當前目錄下(SPARK_HOME/python/lib),否則會報錯 找不到py4j
重啟spyder後就可以正常使用了。

5.在執行時如果報錯sc沒有被定義。
程式中要加入下面的一段即可。
from
pyspark import SparkContext from pyspark import SparkConf conf = SparkConf().setAppName("test") sc = SparkContext(conf=conf)

相關推薦

如何在Spyder執行spark

最終成的配置方法如下:1.安裝好JDK SPARK並設定環境變數。 2.安裝號spyder 3.啟動spyder 在 tools ==> pythonpath manager 中加入如下2個路徑 /opt/spark/python /opt/spark/p

關於Spyder執行pyqt程式報錯kernel died, restarting的問題解決

Spyder的確是一款體驗不錯的IDE,不過最近在其中反覆執行或除錯有關pyqt的程式碼時,總是會提示”kernel died,restarting”,這就需要等待一段時間,核心重啟之後才能執行程式,這會消耗我們不少的時間和興致,後來在stackoverflow和github上找到了Spyd

以hdfs上檔案或者本地檔案作為輸入在Pycharm執行spark程式程式碼示例

以hdfs上檔案或者本地檔案作為輸入在Pycharm中執行spark程式,並將計算結果儲存到hdfs上的python程式碼示例(1)準備輸入資料檔案:準備輸入資料檔案2017-11-01.txt和201

使用Anaconda3安裝tensorflow,opencv,使其可以在spyder執行

感想 使用Anaconda5.0.0 1.首選無論你是在cmd鍵入python,還是在Anaconda Prompt鍵入python,顯示的都是Python3.6.然而在Spyder(tensorflow)中顯示的python是3.5。主要的原因是tenso

Spark-在cdh叢集執行報錯

Run on a YARN cluster spark-submit \ --class com.hnb.data.UserKeyOpLog \ --master yarn \ --deploy-mode cluster \ --executor-memory 128M \ -

spark叢集執行程式遇到的一些問題

使用的是yarn模式,所以執行程式之前需要先將所用資料集傳到hdfs上 //檢視hdfs的目錄 ./hdfs dfs -ls //新建一個data資料夾 ./hdfs dfs -mkdir /data //將檔案上傳到data資料夾下 ./hdfs dfs -p

Maven打包Java版的spark程式到jar包,本地Windows測試,上傳到叢集執行

作者:翁鬆秀 Maven打包Java版的spark程式到jar包,本地Windows測試,上傳到叢集中執行 文章目錄 Maven打包Java版的spark程式到jar包,本地Windows測試,上傳到叢集中執行 Step1

CDH5.5.0配置執行Spark SQL的Thrift Server

CDH5.5.0裡面閹割了spark-sql和sparkR,目錄裡面都沒有start-thriftserver.sh,哪怕是spark Standalone部署。 前面帖子講到,CDH5.5.0 spark-sql沒有的情況下,在一個節點部署外面社群版的spark1.5.

執行Spark常見問題處理方法(持續更新......)

1.MaxResultSize問題 首先,出現這個錯誤的時候Spark會產生如下錯誤資訊: org.apache.spark.SparkException: Job aborted due to stage failure: Total size of serialize

sparkexecutor執行Driver傳送的task,放入執行緒池執行原理

import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; public class ThreadPool { public static void main(

Spark 使用Python在pyspark執行簡單wordcount

0.參考文章 1.pyspark練習 進入到spark目錄, 1.1 修改log4j.properties Spark(和PySpark)的執行可以特別詳細,很多INFO日誌訊息都會列印到螢幕。開發過程中,這些非常惱人,因為可能丟失Pytho

python執行cmd的方式

ble open blog cli return 窗口 images about 定向 目前我使用到的python中執行cmd的方式有三種: 1. 使用os.system("cmd") 這是最簡單的一種方法,特點是執行的時候程序會打出cmd在Linux上執行的信息。使用

EF執行SQL語句 結果和直接在Sqlserver執行結果不一致

enume 出了 text con query context png syn raw 先說問題 直接執行sql的結果 var result = base.Context.Customers.SqlQuery(sql);   sql 語句是打斷點取得的,連接的也

java執行js代碼

engine byname manage gin 執行 腳本 post get 對象 //#1、用scriptEngineManger ScriptEngineManager engine=new ScriptEngineManager(); //#2

java代碼執行liunx命令

number sta stream mod ces linu pla comm shell public static String runShell(String command){ try{ String[] commands = isLinux

[Word]解決Word執行輸入操作時後面字符自動被刪除的問題

字符 位置 狀態 問題 找不到 輸入 自動 就會 題解 問題分析:這是由於當前輸入方式為“改寫”,在此方式下,如果某個位置處後面有其他字符,當在此位置執行輸入操作時,就會默認刪除其後的所有字符。 解決方案:Word窗口下邊緣狀態欄,找到“改寫”按鈕,點擊,使其切換為“插入”

Shell腳本執行sql語句操作

out ins host source con more char 演示 -1   這篇文章主要介紹了Shell腳本中執行sql語句操作mysql的5種方法,本文講解了將SQL語句直接嵌入到shell腳本文件中、命令行調用單獨的SQL文件、使用管道符調用SQL文件等方法,需

VS2013+win8編寫的C++程序在xp/win7執行

生成 ack rac con dsm 工具集 報錯 技術 pop 使用Visual Studio 2013在Windows 8下編寫的C++程序在Windows XP系統執行錯誤,報錯信息為:“不是有效的win32應用程序”。 在W

shell 腳本執行SQL語句 -e "..."

... from rom bin 執行 dev use class col /usr/local/mysql/bin/mysql -uroot -p123456 -e " use faygo source faygo.sql select * from devquit "

solais 10執行crontab -e報unkown terminal type

執行 solais crontab 報錯信息如下圖所示:解決辦法如下:-bash-3.00$ echo $TERM linux-bash-3.00$ export TERM=vt100把終端類型設置一下,就OK了本文出自 “linux學習總結” 博客,請務必保留此出處http://myybab