历史版本17 :错误代码汇总 返回文档
编辑时间: 内容长度:图片数:目录数: 修改原因:

目录:

1、版本编辑

FineBI版本   jar包版本 
  5.1  2019-07-31

2、描述编辑

在使用FineBI的过程中会遇见各种各样的错误,此时,我们可以查看FineBI的系统日志%FineBI%/logs/fanruan.log寻找报错原因,从而解决问题。日志报错示例如下:

示例:

         222
如上图的示例,日志的报错包含了:错误代码,错误代码说明,以及下方的详细报错。

下面我们详细罗列出了常见报错的错误码及对应原因说明。

3、日志信息编辑

3.1 报错日志

Spider引擎:

          错误代码                                               问题原因                                         解决方案 
  61300101  访问hostname失败  配置spider集群的hostname,参考系统环境配置
  61300102  ip端口配置错误  检查并配置IP端口,参考FineBI端口开放列表
  61300104  hdfs空间不足(spider多节点文件存储空间不足)  扩展hdfs的存储空间,参考内存配置方法
  61300105  alluxio空间不足(spider多节点内存存储空间不足  扩大alluxio的空间配置,参考Ambari界面配置
  61300106  alluxio worker挂了或者满了(spider多节点内存工作启动异常)  检测alluxio服务,参考Ambari服务使用
  61300107   1. 没有开启spark.shuffle.service服务;对应报错日志为:
      java.io.FileNotFoundException: /tmp/spark-903244ba-4d5a-446f-b67e-8e95309c68b6/executor-cd591197-d452-4421-a776-93c6404d18b9/blockmgr-3deab159-41ec-472f-86ee-5a7626e85622/31/shuffle_1121_0_0.data.4d7755e7-0a8f-49d0-88e2-58b8daeb46c2 (No such file or directory)
  2. 计算引擎spark的tmp路径空间不足;对应报错日志为:
      java.io.IOException: No space left on device
  在BI中添加参数或修改spark相应的tmp目录配置
  参考spark临时目录空间不足
  61300108   alluxio 的worker挂掉或temp block id重复的问题   检查alluxio服务,检查block id,参考Alluxio常见问题解答
  61300109  hdfs datanode挂了(spider多节点文件数据节点异常)  检查hdfs服务,参考Ambari服务使用检查
  61300110   spark启动失败(计算引擎初始化失败)
  • spark_driver_host参数可能配置错了 ip不对

  • hosts文件中 localhost对应了多个ip(单机版),集群版则可能是本机同一个hostname配置了多个ip或者hostanme与ip对应错误。

  • spark服务异常。检查spark的web页面状态。(必须要有一个ALIVE状态的节点)

  61300111  BI端内存不足  修改BI内存,参考Linux中修改jvm内存


功能使用:

          错误代码                                             问题原因                                      解决方案 
   61300301  更新excel时,文件类型不一致  检查更新的文件类型,EXCEL文件仅支持xls、csv、xlsx格式,参考更新Excel


数据更新:

  错误代码      问题原因                                       解决方案 
  61300400  数据库连接失败  检查数据库连接
  61300401   硬盘空间不足  硬盘扩容
  61300403  打开的文件过多,超过linux系统默认最大打开文件数  调整linux最大允许打开文件个数,参考Linux最大打开文件数
  61300404  xx表的xx字段为空,无法成功生成关联关系   检查表间关联关系
  62400405  xx业务包中xx数据表的xx字段(和xx业务包xx数据表的xx字段)不符合一对多/多对一/一对一对应关系,无法成功生成关联关系   检查表间关联关系,重新修改编辑
  61300417  自助数据集计算超出数据量限制,无法成功计算和更新   通过汇总数据或者添加过滤的方式减少数据来达到完成计算和生成的效果
  61300418  中位数或去重记录数计算超出数据量限制,分析用户的自助数据集无法成功计算和更新   出现该报错,即表示中位数/去重计数计算超过内存阈值,需要去管理系统>系统管理>常规>Spider参数中,修改快速分析中位数/去重计数内存阈值,将该值改小,即增加了计算内存分配
  61300419  计算过程中参与计算的指标数量超出限制,无法成功计算和更新   减少指标数量
  61300420  仪表板去重计数/中位数计算超出数据限制量    1. 若内存充足可尝试调小
 "DistributedOptimizationConfig.spiderConfig.spider_distinct_median_threshold"
   参数,默认为100,含义为1/100的BI内存,最低调到50;
   2. 若内存不充足或调整后仍然报错,说明计算量非常大,可牺牲速度来计算出结果:1)通过设置"DistributedOptimizationConfig.spiderConfig.spider_distinct_use_spark_sql"参数为true,可强行计算出去重计数;2)通过设置"DistributedOptimizationConfig.spiderConfig.spider_median_use_spark_sql"参数为true,可强行计算出中位数;

3.2 提示信息

       提示代码                                                            提示原因                         解决方案  
  62400401    xx业务包下的xx表生成失败,xx关联(xxx关联=关联缓存的名字)将使用历史数据生成   检查对应的业务包下的数据表
  62400402  因xx业务包中的xx表实时性被修改,其关联的xx业务包中的xx自助数据集的实时状态转换    当基础表实时性被修改后,如果出现自助数据集的状态转换(从抽取状态转换为实时),提示状态变化 
  62400403  当前表有修改,需要重新更新数据   当前表配置修改,导致抽数的表需要重新更新数据
  62400404  来源表有修改,需要重新更新数据    来源表配置修改,导致子表抽数的表需要重新更新数据