安装 sbt
Spark 中没有自带 sbt,需要手动安装 sbt(下载),我们选择安装在 /usr/local/sbt 中:
mkdir /usr/local/sbt cp sbt-launch.jar /usr/local/sbt touch sbt #输入以下内容 #!/bin/bash SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M" java $SBT_OPTS -jar /usr/local/sbt/sbt-launch.jar "$@" 环境变量增加 export PATH=$PATH:/usr/local/sbt source /etc/profile #生效环境变量
创建一个有源码的项目目录
一个合法的 sbt 项目可以是一个包含单个源码文件的目录。 尝试创建一个 hello 目录,包含内容如下的源码文件 hw.scala:
object Hi { def main(args: Array[String]) = println("Hi!") }
现在在 hello 目录下启动 sbt,然后执行 run 命令进入到 sbt 的交互式命令行。在 Linux 或者 OS X 上的命令可能是这样:
$ mkdir hello $ cd hello $ echo object Hi { def main(args: Array[String]) = println("Hi!") } > hw.scala $ sbt ... > run ... Hi!
打包成jar文件 /usr/local/sbt/sbt package