install4j - 捆绑的 JRE 未安装或更新
问题描述
我们有两个应用程序具有带有捆绑 JRE 选项的 Windows 安装程序。两个安装程序都内置在 Bamboo 中,目前使用的是 install4j 7.0.9。第一个应用程序 (Openfire) 更新捆绑的 JRE 时在顶部安装新版本并包含较新的 JRE。但是第二个应用程序(Spark)有一些问题:
小问题。如果系统上安装了 JRE/JDK,则不会安装捆绑的 JRE 文件夹。第一个应用程序(Openfire)没有做同样的事情并且总是安装 JRE,即使系统 JRE/JDK 存在。
第二个应用程序(Spark)在安装较新版本并包含较新 JRE 时未更新已安装的 JRE 文件夹。
我不明白为什么第二个应用程序会这样。它要么在我们切换到较新的 install4j 版本之后开始,要么在从 Ant 转向 Maven 构建之后开始。Bamboo 中使用的 install4j 安装程序 xml 是旧的(其中有 6.1.4 版本)。也许它缺少最新 install4j 版本的一些选项。https://github.com/igniterealtime/Spark/blob/master/distribution/src/installer/spark.install4j
解决方案
在 Windows 媒体文件配置向导的“捆绑的 JRE”步骤中,有一个“仅在没有其他合适的 JRE 时安装”复选框可以选中。
“安装文件”操作具有可以取消选择的“更新捆绑的 JRE”属性。
推荐阅读
- python - 使用 SQLAlchemy 批量插入 Azure SQL 不持久
- android - Android 8.1 连接到调用 connectGatt 的 BLE 外围设备。回调总是说断开连接。从不连接
- javascript - 使用 Cheerio Nodejs 进行网页抓取
- php - 如何在php中显示当前日期和200天+当前日期
- json - 如何在 web api 控制器中访问微服务的域模型
- groovy - 如何在 RxGroovy 中使用响应式 .groupBy
- angular - Angular 在哪里存储全局数据?
- tensorflow - 用 keras 编写的神经网络的超参数优化
- apache-spark - 如何设置 spark.sql.thriftServer.incrementalCollect=true
- python - 相当于 apt-get install python3.6-dev for conda