<!-- # [Sbt] 添加 assembly 命令 --> <!-- add-sbt-assembly-command --> 通过 `sbt package` 命令打的包是不包含 *compile* scope 的包的,若要包含的话需要使用 `sbt assembly` 命令。 sbt 默认不包含该命令,需要添加 *sbt-assembly* 插件。 但在添加插件的过程中遇到了如下错误: > [error] sbt.librarymanagement.ResolveException: Error downloading com.eed3si9n:sbt-assembly;sbtVersion=1.0;scalaVersion=2.12:0.14.4 *scalaVersion* 版本是 *2.12.10*,*sbt-assembly* 小于/等于 *0.14.4* 时就会报这个错误。 (当前 *sbt-assembly* 的最新版是 *0.14.10*) 在项目根目录的 *project* 子目录下创建 *plugins.sbt* 文件(文件名貌似无所谓,只要是 *project* 目录下的 *.sbt* 后缀的文件就行)。 其内容如下: ```java addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.14.10") ``` 之后就可以使用 `sbt assembly` 命令打包项目了。 打包后的 jar 包保存在 *\target\scala-2.12\sbt-1.0* 目录下。 <!-- 参考 --> [1]: https://stackoverflow.com/questions/35756520/librarydependencies-for-com-eed3si9nsbt-assembly0-13-0-not-found (libraryDependencies for com.eed3si9n#sbt-assembly;0.13.0: not found) [2]: https://www.scala-sbt.org/0.13/docs/Using-Plugins.html (Using plugins) [3]: https://github.com/sbt/sbt-assembly/releases (sbt/sbt-assembly) [4]: https://blog.csdn.net/haitianxueyuan521/article/details/81736155 (Apache beam 和Flink 结合使用 出现 java.lang.NoClassDefFoundError 问题解决!) [5]: https://blog.csdn.net/fuhaitao1979/article/details/73477285/ (idea sbt java.lang.NoClassDefFoundError: org/apache/spark/SparkConf) Loading... 版权声明:本文为博主「佳佳」的原创文章,遵循 CC 4.0 BY-NC-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://www.liujiajia.me/2019/9/17/add-sbt-assembly-command ← 上一篇 下一篇 → 提交