历史版本20 :错误代码汇总 返回文档
编辑时间: 内容长度:图片数:目录数: 修改原因:

目录:

1. 版本编辑

FineBI 版本  
  5.1

2. 描述编辑

在使用 FineBI 的过程中会遇见各种各样的错误,此时,可以查看 FineBI 的系统日志%FineBI%/logs/fanruan.log寻找报错原因,解决问题。

3. 报错分类编辑

日志以 8 位数字代码标记,如下图所示:

1576035867150381.png

3.1 一级分类

第 1 位代表模块,其中 1-报表、2-平台、3- 数据连接、6-BI

3.2 二级分类

第 2 位为日志大类,其中 1-报错日志;2-提示日志

3.3 三级分类

第 3 位为日志小类,1-不支持的功能点;2-使用错误;3-异常信息;4-系统提示

3.4 四级分类

第 4-8 位具体情况细分

4. 日志信息编辑

4.1 报错日志

Spider引擎:

          错误代码                                               问题原因                                         解决方案 
  61300101  访问 hostname 失败  配置 spider 集群的 hostname
  61300102  IP 端口配置错误  检查并配置 IP 端口,参考 FineBI端口开放列表
  61300104  hdfs 空间不足(spider 多节点文件存储空间不足)  扩展 hdfs 的存储空间
  61300105  alluxio 空间不足(spider 多节点内存存储空间不足  扩大 alluxio 的空间配置
  61300106  alluxio worker 挂了或者满了(spider 多节点内存工作启动异常)  检测 alluxio 服务
  61300107 1) 没有开启 spark.shuffle.service 服务;对应报错日志为:

      java.io.FileNotFoundException: /tmp/spark-903244ba-4d5a-446f-b67e-8e95309c68b6/executor-cd591197-d452-4421-a776-93c6404d18b9/blockmgr-3deab159-41ec-472f-86ee-5a7626e85622/31/shuffle_1121_0_0.data.4d7755e7-0a8f-49d0-88e2-58b8daeb46c2 (No such file or directory)

2)计算引擎 spark 的 tmp 路径空间不足;对应报错日志为:

      java.io.IOException: No space left on device
  在 BI 中添加参数或修改 spark 相应的 tmp 目录配置
  61300108   alluxio 的 worker 挂掉或 temp block id 重复的问题   检查 alluxio 服务,检查 block id
  61300109  hdfs datanode 挂了(spider 多节点文件数据节点异常)  检查 hdfs 服务
  61300110   spark 启动失败(计算引擎初始化失败)
  • spark_driver_host 参数可能配置错了 IP 不对

  • hosts 文件中 localhost 对应了多个ip(单机版),集群版则可能是本机同一个 hostname 配置了多个 IP 或者hostanme与 IP 对应错误。

  • spark 服务异常。检查 spark 的 web 页面状态。(必须要有一个 ALIVE 状态的节点)

  61300111  BI 端内存不足  修改 BI 内存,参考 Linux中修改jvm内存


功能使用:

          错误代码                                             问题原因                                      解决方案 
61300302
字段名或表名长度超出 xxx 限制,无法保存。将字段名或表名改短。
61300303报错信息空白排查报错原因
61300304xx 业务包,xx 表,xxx 字段名重复修改字段名,使字段名不重复


数据更新:

  错误代码      问题原因                                       解决方案 
  61300400  数据库连接失败  检查数据库连接
  61300401   硬盘空间不足  硬盘扩容
  61300403  打开的文件过多,超过linux系统默认最大打开文件数  调整 linux 最大允许打开文件个数,参考 Linux最大打开文件数
  61300404  xx 表的 xx 字段为空,无法成功生成关联关系   检查表间关联关系
  62400405  xx 业务包中 xx 数据表的xx 字段(和 xx 业务包 xx 数据表的 xx 字段)不符合一对多/多对一/一对一对应关系,无法成功生成关联关系   检查表间关联关系,重新修改编辑

  61300417

  分析用户自助数据集计算超出「单元格」数据量限制,无法成功计算和更新(不包含中位数和去重记录数的出错情况)   通过汇总数据或者添加过滤的方式减少数据来达到完成计算和生成的效果
  61300423分析用户自助数据集计算超出「行数」据量限制,无法成功计算和更新(不包含中位数和去重记录数的出错情况)
 61300424分析用户自助数据集计算超出「内存」数据量限制,无法成功计算和更新(不包含中位数和去重记录数的出错情况)
  61300418  中位数或去重记录数计算超出数据量限制,分析用户的自助数据集无法成功计算和更新

   出现该报错,即表示中位数/去重计数计算超过内存阈值,需要去管理系统>系统管理> 常规 >Spider 参数中,修改快速分析中位数/去重计数内存阈值,将该值改小,即增加了计算内存分配

  61300419  计算过程中参与计算的指标数量超出限制,无法成功计算和更新   减少指标数量
  61300420  仪表板去重计数/中位数计算超出数据限制量    1.若内存充足可尝试调小
 "DistributedOptimizationConfig.spiderConfig.spider_distinct_median_threshold"
   参数,默认为 100,含义为1/100的 BI 内存,最低调到 50 ;
   2. 若内存不充足或调整后仍然报错,说明计算量非常大,可牺牲速度来计算出结果:1)通过设置"DistributedOptimizationConfig.spiderConfig.spider_distinct_use_spark_sql"参数为true,可强行计算出去重计数;2)通过设置"DistributedOptimizationConfig.spiderConfig.spider_median_use_spark_sql"参数为 true ,可强行计算出中位数;

61300421

自助数据集数据量超过 xxx 单元格,无法成功更新

减少需要更新的数据。如减少字段,继续对数据进行过滤,或者对数据进行分组汇总

61300422自助数据集数据量超过 xxx行,无法成功更新
61200401数据库相关问题导致的更新出错检查数据库配置等相关

4.2 提示日志

       提示代码                                                            提示原因                         解决方案  
  62400401    xx 业务包下的 xx 表生成失败,xx 关联( xxx 关联=关联缓存的名字)将使用历史数据生成   检查对应的业务包下的数据表
  62400402  因 xx 业务包中的 xx 表实时性被修改,其关联的 xx 业务包中的 xx 自助数据集的实时状态转换    当基础表实时性被修改后,如果出现自助数据集的状态转换(从抽取状态转换为实时),提示状态变化 
  62400403  当前表有修改,需要重新更新数据   当前表配置修改,导致抽数的表需要重新更新数据
  62400404  来源表有修改,需要重新更新数据    来源表配置修改,导致子表抽数的表需要重新更新数据